JPH10271512A - Image signal coder, its method, image signal decoder, its method and recording medium - Google Patents

Image signal coder, its method, image signal decoder, its method and recording medium

Info

Publication number
JPH10271512A
JPH10271512A JP1161098A JP1161098A JPH10271512A JP H10271512 A JPH10271512 A JP H10271512A JP 1161098 A JP1161098 A JP 1161098A JP 1161098 A JP1161098 A JP 1161098A JP H10271512 A JPH10271512 A JP H10271512A
Authority
JP
Japan
Prior art keywords
image signal
reference image
decoding
lower layer
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1161098A
Other languages
Japanese (ja)
Other versions
JP3301375B2 (en
Inventor
Teruhiko Suzuki
輝彦 鈴木
Yoichi Yagasaki
陽一 矢ヶ崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP1161098A priority Critical patent/JP3301375B2/en
Publication of JPH10271512A publication Critical patent/JPH10271512A/en
Application granted granted Critical
Publication of JP3301375B2 publication Critical patent/JP3301375B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enhance prediction efficiency and to improve coding efficiency in the space scalable coding method. SOLUTION: In the case of applying scalable coding to an image signal, a prediction image PV is configured by using a magnified image VM6 resulting from converting the resolution of a lower order layer image VOP 12 or a high order layer image VOP 13 in the unit of pixels in response to a value (difference image) after inverse discrete cosine transformation(IDCT) of a low-order layer macro block. The prediction coding mode in the unit of pixels is adaptively selected by using the prediction image PV configured as above to encode a high order layer image VOP 14.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像信号を例え
ば光磁気ディスクや磁気テープなどの記録媒体に記録
し、これを再生してディスプレイ装置などに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなど、
動画像信号を伝送路を介して送信側から受信側に伝送
し、受信側において、これを受信し、表示する場合や、
動画像信号を編集し記録する場合などに用いて好適な画
像信号符号化装置及び画像信号符号化方法、画像信号復
号装置および画像信号復号方法、並びに記録媒体に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image signal recorded on a recording medium such as a magneto-optical disk or a magnetic tape, reproduced and displayed on a display device, a video conference system, a video telephone system, and the like. , Broadcasting equipment, multimedia database search system, etc.
When a moving image signal is transmitted from a transmission side to a reception side via a transmission path, and the reception side receives and displays the signal,
The present invention relates to an image signal encoding device and an image signal encoding method suitable for use in editing and recording a moving image signal, an image signal decoding device and an image signal decoding method, and a recording medium.

【0002】[0002]

【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像信号を遠隔地に伝送す
るシステムにおいては、伝送路を効率良く利用するた
め、映像信号のライン相関やフレーム間相関を利用し
て、画像信号を圧縮符号化するようになされている。
2. Description of the Related Art For example, in a system for transmitting a moving image signal to a remote place, such as a video conference system and a video telephone system, in order to efficiently use a transmission path, line correlation or inter-frame correlation of a video signal is required. Is used to compress and encode an image signal.

【0003】動画像の高能率符号化方式として代表的な
ものとしていわゆるMPEG(蓄積用動画像符号化)方
式がある。これはISO−IEC/JTC1/SC2/
WG11にて議論され標準案として提案されたものであ
り、動き補償予測符号化とDCT(Discrete Cosine Tr
ansform)符号化を組み合わせたハイブリッド方式が採
用されている。MPEGでは様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML)である。
A typical high-efficiency moving picture coding method is the so-called MPEG (moving picture coding for storage) method. This is ISO-IEC / JTC1 / SC2 /
It is discussed at WG11 and proposed as a standard. Motion compensated predictive coding and DCT (Discrete Cosine Tr
ansform) A hybrid system combining coding is adopted. In MPEG, several profiles and levels are defined to support various applications and functions. The most basic is the main profile main level (MP @ ML).

【0004】図21を参照して、MPEG方式のMP@
MLのエンコーダの構成例について説明する。
[0004] Referring to FIG. 21, MPEG MP @
A configuration example of the ML encoder will be described.

【0005】入力画像信号は、先ずフレームメモリ20
1に入力され、その後このフレームメモリ201から読
み出されて、後段の回路に送られて所定の順番で符号化
されることになる。
An input image signal is first sent to a frame memory 20.
1 and thereafter read from the frame memory 201, sent to a subsequent circuit and encoded in a predetermined order.

【0006】すなわち、符号化されるべき画像信号は、
マクロブロック単位で上記フレームメモリ201から読
み出され、動きベクトル検出(ME)回路202に入力
される。動きベクトル検出回路202は、予め設定され
ている所定のシーケンスに従って、各フレームの画像信
号を、Iピクチャ、Pピクチャ、またはBピクチャとし
て処理する。シーケンシャルに入力される各フレームの
画像を、I,P,Bのいずれのピクチャとして処理する
かは、予め定められている(例えば、I,B,P,B,
P,・・・B,Pの順番にて処理される)。
That is, the image signal to be encoded is
The data is read from the frame memory 201 in macroblock units and input to the motion vector detection (ME) circuit 202. The motion vector detection circuit 202 processes an image signal of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame input sequentially is processed as one of I, P, and B pictures is predetermined (for example, I, B, P, B,
P,..., B, P).

【0007】ここで、動きベクトル検出回路202は、
予め定められた所定の参照フレームを参照し、動き補償
を行うことにより、その動きベクトルを検出する。動き
補償(フレーム間予測)には前方予測、後方予測、両方
向予測の3種類の予測モードがある。Pピクチャの予測
モードは前方予測のみであり、Bピクチャの予測モード
は前方予測、後方予測、両方向予測の3種類である。動
きベクトル検出回路202は、予測誤差を最小にする予
測モードを選択しその際の動きベクトルを発生する。
Here, the motion vector detecting circuit 202
The motion vector is detected by referring to a predetermined reference frame and performing motion compensation. The motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The prediction mode of a P picture is only forward prediction, and the prediction modes of a B picture are three types: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 202 selects a prediction mode that minimizes a prediction error, and generates a motion vector at that time.

【0008】このとき、予測誤差は例えば符号化するマ
クロブロックの分散値と比較され、マクロブロックの分
散値の方が小さい場合には、そのマクロブロックでは予
測は行わず、フレーム内符号化が行われる。この場合、
予測モードは画像内符号化(イントラ)となる。動きベ
クトルおよび上記予測モードの情報は、可変長符号化
(VLC)回路206および動き補償(MC)回路21
2に入力される。
At this time, the prediction error is compared with, for example, the variance value of the macroblock to be coded. Will be in this case,
The prediction mode is intra-picture coding (intra). The motion vector and the prediction mode information are stored in a variable length coding (VLC) circuit 206 and a motion compensation (MC) circuit 21.
2 is input.

【0009】動き補償回路212では所定の動きベクト
ルに基づいて予測参照画像信号を生成し、この予測参照
画像信号を演算回路203に入力する。演算回路203
では、マクロブロック単位で上記フレームメモリ201
からの符号化する画像信号の値と、上記動き補償回路2
12からの予測参照画像信号の値との差分信号を求め、
その差分信号をDCT回路204に出力する。イントラ
マクロブロック(画像内符号化されるマクロブロック)
の場合、演算回路203は上記符号化する画像信号のマ
クロブロックをそのままDCT回路204に出力する。
The motion compensation circuit 212 generates a predicted reference image signal based on a predetermined motion vector, and inputs the predicted reference image signal to the arithmetic circuit 203. Arithmetic circuit 203
Then, the frame memory 201 is divided into macroblock units.
And the value of the image signal to be encoded from
12 to obtain a difference signal from the value of the predicted reference image signal from
The difference signal is output to DCT circuit 204. Intra macroblock (macroblock that is intra-coded)
In this case, the arithmetic circuit 203 outputs the macroblock of the image signal to be coded to the DCT circuit 204 as it is.

【0010】DCT回路204では、上記演算回路20
3からの差分信号若しくは、画像信号そのものがDCT
(離散コサイン変換)処理され、DCT係数に変換され
る。このDCT係数は、量子化回路205に入力され、
ここで送信バッファ207のデータ蓄積量(バッファに
蓄積可能なデータ残量)に対応した量子化ステップで量
子化された後、量子化データとして可変長符号化回路2
06に入力される。
In the DCT circuit 204, the operation circuit 20
3 or the image signal itself is DCT
(Discrete cosine transform) processing and conversion to DCT coefficients. This DCT coefficient is input to the quantization circuit 205,
Here, after being quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 207 (the remaining amount of data that can be stored in the buffer), the variable length coding circuit 2
06.

【0011】可変長符号化回路206は、量子化(Q)
回路205より供給される量子化ステップ(量子化スケ
ール)に対応して、量子化回路205より供給される量
子化データを、例えばハフマン符号などの可変長符号に
変換し、この符号化データを送信バッファ207に出力
する。
The variable length coding circuit 206 performs quantization (Q)
According to the quantization step (quantization scale) supplied from the circuit 205, the quantized data supplied from the quantization circuit 205 is converted into a variable-length code such as a Huffman code, and the encoded data is transmitted. Output to the buffer 207.

【0012】可変長符号化回路206にはまた、量子化
回路205からの量子化ステップ(スケール)と、さら
に動きベクトル検出回路202からの予測モード(画像
内予測、前方予測、後方予測、または両方向予測のいず
れが設定されたかを示す予測モード)および動きベクト
ルとが入力されており、これらも可変長符号化される。
The variable length coding circuit 206 also includes a quantization step (scale) from the quantization circuit 205 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, or both directions) from the motion vector detection circuit 202. A prediction mode indicating which of the predictions has been set) and a motion vector are input, and these are also subjected to variable-length coding.

【0013】送信バッファ207は、入力されたデータ
を一時蓄積し、またその蓄積量に対応するデータを量子
化制御信号として量子化回路205に出力(バッファフ
ィードバック)する。すなわち、送信バッファ207
は、そのデータ蓄積量(蓄積可能なデータ残量)が許容
上限値まで増量すると、上記量子化制御信号によって量
子化回路205の量子化スケールを大きくさせることに
より、量子化回路205から出力される量子化データの
データ量を低下させる。また、これとは逆に、データ蓄
積量(蓄積可能なデータ残量)が許容下限値まで減少す
ると、送信バッファ207は、量子化制御信号によって
量子化回路205の量子化スケールを小さくすることに
より、量子化回路205から出力される量子化データの
データ量を増大させる。このようにして、送信バッファ
207のオーバフローまたはアンダフローが防止され
る。
The transmission buffer 207 temporarily stores the input data, and outputs (buffer feedback) data corresponding to the storage amount to the quantization circuit 205 as a quantization control signal. That is, the transmission buffer 207
Is output from the quantization circuit 205 by increasing the quantization scale of the quantization circuit 205 by the quantization control signal when the data storage amount (remaining amount of storable data) increases to an allowable upper limit value. The data amount of the quantized data is reduced. Conversely, when the data storage amount (remaining amount of data that can be stored) decreases to the permissible lower limit, the transmission buffer 207 reduces the quantization scale of the quantization circuit 205 by using the quantization control signal. , The amount of quantized data output from the quantization circuit 205 is increased. In this way, overflow or underflow of the transmission buffer 207 is prevented.

【0014】そして、送信バッファ207に蓄積された
符号化データは、所定のタイミングで読み出され、伝送
路にビットストリームとして出力される。
[0014] The encoded data stored in the transmission buffer 207 is read at a predetermined timing and output as a bit stream to a transmission path.

【0015】一方、量子化回路205より出力された量
子化データは、逆量子化(IQ)回路208にも入力さ
れる。この逆量子化回路208では、上記量子化回路2
05より供給された量子化データを、同じく量子化回路
205より供給される量子化ステップに対応して逆量子
化する。この逆量子化回路208の出力信号(逆量子化
することにより得られたDCT係数)は、IDCT(逆
DCT)回路209に入力され、ここで逆DCT処理さ
れた後、その出力信号(画像信号若しくは差分信号)が
演算回路210に送られる。この演算回路210では、
IDCT回路209からの出力信号がPピクチャの差分
信号である場合、IDCT回路209からの差分信号と
動き補償回路212からの画像信号とを加算して画像信
号を復元する。なお、IDCT回路209からの出力信
号がイントラマクロブロックの場合は、IDCT回路2
09からの画像信号がそのまま出力される。この画像信
号は、フレームメモリ211に記憶される。動き補償回
路212は、フレームメモリ211の画像と動きベクト
ルと予測モードとを用いて、予測参照画像信号を生成す
る。
On the other hand, the quantized data output from the quantization circuit 205 is also input to an inverse quantization (IQ) circuit 208. In the inverse quantization circuit 208, the quantization circuit 2
05 is inversely quantized corresponding to the quantization step also supplied from the quantization circuit 205. An output signal (DCT coefficient obtained by inverse quantization) of the inverse quantization circuit 208 is input to an IDCT (inverse DCT) circuit 209, where the output signal (image signal) is subjected to inverse DCT processing. Or a difference signal) is sent to the arithmetic circuit 210. In this arithmetic circuit 210,
If the output signal from the IDCT circuit 209 is a P-picture difference signal, the image signal is restored by adding the difference signal from the IDCT circuit 209 and the image signal from the motion compensation circuit 212. When the output signal from the IDCT circuit 209 is an intra macro block, the IDCT circuit 2
09 is output as it is. This image signal is stored in the frame memory 211. The motion compensation circuit 212 generates a predicted reference image signal using the image in the frame memory 211, the motion vector, and the prediction mode.

【0016】次に、図22を用いて、MPEGのMP@
MLのデコーダの構成例を説明する。
Next, with reference to FIG.
A configuration example of the ML decoder will be described.

【0017】伝送路を介して伝送されてきた符号化され
た画像データ(ビットストリーム)は、図示せぬ受信回
路で受信されたり、再生装置で再生され、受信バッファ
221に一時記憶された後、符号化データとして可変長
復号(IVLC)回路222に供給される。可変長復号
回路222は、受信バッファ221より供給された符号
化データを可変長復号化し、得られた動きベクトルと予
測モードを動き補償回路227に、また、量子化ステッ
プを逆量子化回路223に、それぞれ出力すると共に、
可変長復号されたデータ(量子化データ)を逆量子化
(IQ)回路223に出力する。
The encoded image data (bit stream) transmitted via the transmission path is received by a receiving circuit (not shown) or reproduced by a reproducing device, and temporarily stored in a receiving buffer 221. The data is supplied to the variable length decoding (IVLC) circuit 222 as encoded data. The variable length decoding circuit 222 performs variable length decoding on the encoded data supplied from the reception buffer 221, and outputs the obtained motion vector and prediction mode to the motion compensation circuit 227, and the quantization step to the inverse quantization circuit 223. , And output each,
The variable-length decoded data (quantized data) is output to an inverse quantization (IQ) circuit 223.

【0018】逆量子化回路223は、可変長復号回路2
22より供給されたデータ(量子化データ)を、同じく
可変長復号化回路222より供給された量子化ステップ
に従って逆量子化し、逆量子化することにより得られた
DCT係数をIDCT回路224に出力する。逆量子化
回路223より出力されたDCT係数は、IDCT回路
224により逆DCT処理され、その出力信号(画像信
号若しくは差分信号)が演算回路225に供給される。
The inverse quantization circuit 223 includes a variable length decoding circuit 2
The data (quantized data) supplied from 22 is inversely quantized according to the quantization step also supplied from the variable length decoding circuit 222, and the DCT coefficient obtained by inverse quantization is output to the IDCT circuit 224. . The DCT coefficient output from the inverse quantization circuit 223 is subjected to inverse DCT processing by the IDCT circuit 224, and the output signal (image signal or difference signal) is supplied to the arithmetic circuit 225.

【0019】ここでIDCT回路224からの出力デー
タが、Iピクチャ(画像信号)である場合、その画像信
号は演算回路225よりそのまま出力され、この演算回
路225に対して後に入力される差分信号(PまたはB
ピクチャのデータ)の予測参照画像信号を生成するため
に、フレームメモリ226に供給されて記憶される。ま
た、この演算回路225からの画像信号は、そのまま再
生画像として外部に出力される。
If the output data from the IDCT circuit 224 is an I picture (image signal), the image signal is output from the arithmetic circuit 225 as it is, and a difference signal ( P or B
In order to generate a predicted reference image signal of (picture data), it is supplied to and stored in the frame memory 226. The image signal from the arithmetic circuit 225 is output to the outside as it is as a reproduced image.

【0020】一方、入力ビットストリームがPまたはB
ピクチャの場合、動き補償回路227は、可変長復号回
路222より供給される動きベクトルおよび予測モード
に従って、予測参照画像信号を生成し、その予測参照画
像信号を演算回路225に出力する。演算回路225で
は、IDCT回路224より入力される差分画像信号
と、動き補償回路227より供給される予測参照画像信
号とを加算して再生画像として出力する。またPピクチ
ャの場合、演算回路225からの画像信号はまた、フレ
ームメモリ226に入力され記憶され、次に復号する画
像信号の参照画像とされる。
On the other hand, if the input bit stream is P or B
In the case of a picture, the motion compensation circuit 227 generates a predicted reference image signal according to the motion vector and the prediction mode supplied from the variable length decoding circuit 222, and outputs the predicted reference image signal to the arithmetic circuit 225. The arithmetic circuit 225 adds the difference image signal input from the IDCT circuit 224 and the prediction reference image signal supplied from the motion compensation circuit 227, and outputs the result as a reproduced image. In the case of a P picture, the image signal from the arithmetic circuit 225 is also input to and stored in the frame memory 226, and is used as a reference image of an image signal to be decoded next.

【0021】MPEGでは、MP@MLの他に様々なプ
ロファイルおよびレベルが定義され、また各種ツールが
用意されている。以下に述べるスケーラビリティもMP
EGのこうしたツールの1つである。
In MPEG, various profiles and levels are defined in addition to MP @ ML, and various tools are prepared. The scalability described below is also MP
This is one of the EG's tools.

【0022】MPEGでは、異なる画像サイズやフレー
ムレートに対応するスケーラビリティを実現するスケー
ラブル符号化方式が導入されている。例えば空間スケー
ラビリティの場合、下位レイヤのビットストリームのみ
を復号する場合は、画像サイズの小さい画像信号を復号
し、下位レイヤおよび上位レイヤのビットストリームを
復号する場合は、画像サイズの大きい画像信号を復号す
る。
In MPEG, a scalable encoding method for realizing scalability corresponding to different image sizes and frame rates has been introduced. For example, in the case of spatial scalability, when decoding only the lower layer bit stream, an image signal with a small image size is decoded, and when decoding the lower layer and upper layer bit streams, an image signal with a large image size is decoded. I do.

【0023】図23を用いて空間スケーラビリティのエ
ンコーダを説明する。空間スケーラビリティの場合、下
位レイヤは画像サイズの小さい画像信号、また上位レイ
ヤは画像サイズの大きい画像信号に対応する。
An encoder for spatial scalability will be described with reference to FIG. In the case of spatial scalability, the lower layer corresponds to an image signal with a small image size, and the upper layer corresponds to an image signal with a large image size.

【0024】下位レイヤの画像信号は、先ずフレームメ
モリ261に入力され、後段の回路により、前述したM
P@MLと同様に符号化される。
The image signal of the lower layer is first input to the frame memory 261, and the above-described M
Encoded in the same way as P @ ML.

【0025】すなわち、マクロブロック単位で上記フレ
ームメモリ261から読み出されたデータは、動きベク
トル検出回路262に入力される。動きベクトル検出回
路262は、予め設定されている所定のシーケンスに従
って、各フレームの画像データを、Iピクチャ、Pピク
チャ、またはBピクチャとして処理する。
That is, data read from the frame memory 261 in macroblock units is input to the motion vector detection circuit 262. The motion vector detection circuit 262 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance.

【0026】動きベクトル検出回路262は、予め定め
られた所定の参照フレーム(すなわち前方原画像、後方
原画像、原画像)を参照し、動き補償を行うことによ
り、その動きベクトルを検出する。動き補償(フレーム
間予測)には前方予測、後方予測、両方向予測の3種類
の予測モードがある。動きベクトル検出回路262は、
予測誤差を最小にする予測モードを選択しその際の動き
ベクトルを発生する。上記動きベクトルおよび上記予測
モードの情報は、可変長符号化回路266および動き補
償回路272に入力される。
The motion vector detection circuit 262 detects a motion vector by referring to a predetermined reference frame (ie, a forward original image, a backward original image, and an original image) and performing motion compensation. The motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 262
A prediction mode that minimizes a prediction error is selected, and a motion vector at that time is generated. The information on the motion vector and the prediction mode is input to the variable length coding circuit 266 and the motion compensation circuit 272.

【0027】動き補償回路272では所定の動きベクト
ルに基づいて予測参照画像信号を生成し、この予測参照
画像信号を演算回路263に入力する。演算回路263
では、マクロブロック単位で上記フレームメモリ261
からの符号化する画像信号の値と、上記動き補償回路2
72からの予測参照画像信号の値との差分信号を求め、
その差分信号をDCT回路264に出力する。なお、イ
ントラマクロブロック(画像内符号化されるマクロブロ
ック)の場合、演算回路263は符号化するマクロブロ
ックの信号をそのままDCT回路264に出力する。
The motion compensation circuit 272 generates a predicted reference image signal based on a predetermined motion vector, and inputs the predicted reference image signal to the arithmetic circuit 263. Arithmetic circuit 263
In the above, the frame memory 261 is used for each macro block.
And the value of the image signal to be encoded from
A difference signal from the value of the predicted reference image signal from 72 is obtained,
The difference signal is output to DCT circuit 264. In the case of an intra macroblock (a macroblock to be intra-coded), the arithmetic circuit 263 outputs the macroblock signal to be encoded to the DCT circuit 264 as it is.

【0028】DCT回路264では、上記演算回路26
3からの差分信号がDCT処理され、DCT係数に変換
される。このDCT係数は、量子化回路265に入力さ
れ、ここで送信バッファ267のデータ蓄積量(バッフ
ァに蓄積可能なデータ残量)に対応した量子化ステップ
で量子化された後、量子化データとして可変長符号化回
路266に入力される。
In the DCT circuit 264, the operation circuit 26
3 is subjected to DCT processing and converted into DCT coefficients. The DCT coefficient is input to the quantization circuit 265, where it is quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 267 (the remaining amount of data that can be stored in the buffer), and is then changed as quantized data. It is input to the long encoding circuit 266.

【0029】可変長符号化回路266は、量子化回路2
65より供給される量子化ステップ(量子化スケール)
に対応して、量子化回路265より供給される量子化デ
ータを、例えばハフマン符号などの可変長符号に変換
し、この符号化データを送信バッファ267に出力す
る。
The variable length coding circuit 266 is
Quantization step (quantization scale) supplied from 65
, The quantized data supplied from the quantizing circuit 265 is converted into a variable-length code such as a Huffman code, and the coded data is output to the transmission buffer 267.

【0030】可変長符号化回路266にはまた、量子化
回路265からの量子化ステップ(スケール)と、さら
に動きベクトル検出回路262からの予測モード(画像
内予測、前方予測、後方予測、または両方向予測のいず
れが設定されたかを示す予測モード)および動きベクト
ルとが入力されており、これらも可変長符号化される。
The variable length coding circuit 266 also includes a quantization step (scale) from the quantization circuit 265 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction) from the motion vector detection circuit 262. A prediction mode indicating which of the predictions has been set) and a motion vector are input, and these are also subjected to variable-length coding.

【0031】送信バッファ267は、入力された符号化
データを一時蓄積し、またその蓄積量に対応するデータ
を量子化制御信号として量子化回路265に出力(バッ
ファフィードバック)する。これにより、当該送信バッ
ファ267のオーバフローまたはアンダフローが防止さ
れる。
The transmission buffer 267 temporarily stores the input coded data, and outputs (buffer feedback) data corresponding to the stored amount to the quantization circuit 265 as a quantization control signal. This prevents the transmission buffer 267 from overflowing or underflowing.

【0032】そして、送信バッファ267に蓄積された
符号化データは、所定のタイミングで読み出され、伝送
路にビットストリームとして出力される。
The encoded data stored in the transmission buffer 267 is read out at a predetermined timing, and is output to a transmission path as a bit stream.

【0033】一方、量子化回路265より出力された量
子化データは、逆量子化回路268にも入力される。こ
の逆量子化回路268では、上記量子化回路265より
供給された量子化データを、同じく量子化回路265よ
り供給される量子化ステップに対応して逆量子化する。
この逆量子化回路268の出力信号(DCT係数)は、
IDCT回路269に入力され、ここで逆DCT処理さ
れた後、その出力信号(画像信号若しくは差分信号)が
演算回路270に送られる。この演算回路270では、
IDCT回路209からの出力信号がPピクチャの差分
信号である場合、IDCT回路269からの差分信号と
動き補償回路272からの画像信号とを加算して画像信
号を復元する。なお、IDCT回路209からの出力信
号がイントラマクロブロックである場合、IDCT回路
209からの画像信号がそのまま出力される。この画像
信号は、フレームメモリ271に記憶される。動き補償
回路272は、フレームメモリ271の画像信号と動き
ベクトルと予測モードとを用いて、予測参照画像信号を
生成する。
On the other hand, the quantized data output from the quantization circuit 265 is also input to the inverse quantization circuit 268. In the inverse quantization circuit 268, the quantized data supplied from the quantization circuit 265 is inversely quantized in accordance with the quantization step also supplied from the quantization circuit 265.
The output signal (DCT coefficient) of the inverse quantization circuit 268 is
After being input to the IDCT circuit 269 and subjected to inverse DCT processing here, the output signal (image signal or difference signal) is sent to the arithmetic circuit 270. In this arithmetic circuit 270,
When the output signal from the IDCT circuit 209 is a P-picture difference signal, the image signal is restored by adding the difference signal from the IDCT circuit 269 and the image signal from the motion compensation circuit 272. When the output signal from the IDCT circuit 209 is an intra macro block, the image signal from the IDCT circuit 209 is output as it is. This image signal is stored in the frame memory 271. The motion compensation circuit 272 generates a prediction reference image signal using the image signal, the motion vector, and the prediction mode of the frame memory 271.

【0034】ただし、この下位レイヤの構成例におい
て、演算回路270の出力画像信号は、上記フレームメ
モリ271に供給されて下位レイヤの参照画像として用
いられるだけでなく、アップサンプリングにより画像拡
大を行う画像拡大回路243によって上位レイヤの画像
サイズと同一の画像サイズに拡大された後、上位レイヤ
の参照画像にも用いられる。
However, in the configuration example of the lower layer, the output image signal of the arithmetic circuit 270 is not only supplied to the frame memory 271 and used as a reference image of the lower layer, but also an image to be enlarged by upsampling. After being enlarged by the enlargement circuit 243 to the same image size as the image size of the upper layer, it is also used for the reference image of the upper layer.

【0035】すなわち演算回路270からの画像信号
は、上記の通りフレームメモリ271および画像拡大回
路243に入力される。画像拡大回路243では演算回
路270によって生成された画像信号を拡大して上位レ
イヤの画像サイズと同一の大きさにして重み付加回路2
44に出力する。
That is, the image signal from the arithmetic circuit 270 is input to the frame memory 271 and the image enlargement circuit 243 as described above. The image enlargement circuit 243 enlarges the image signal generated by the arithmetic circuit 270 to have the same size as the image size of the upper layer, and the weighting circuit 2
44.

【0036】重み付加回路244では、画像拡大回路2
43からの出力信号に重み(1−W)を乗算し、演算回
路258に出力する。
The weighting circuit 244 includes an image enlargement circuit 2
43 is multiplied by the weight (1-W) and output to the arithmetic circuit 258.

【0037】一方、上位レイヤの画像信号は、先ずフレ
ームメモリ245に入力される。動きベクトル検出回路
246は、前述したMP@MLと同様に、動きベクトル
および予測モードを決定する。
On the other hand, the image signal of the upper layer is first input to the frame memory 245. The motion vector detection circuit 246 determines a motion vector and a prediction mode, similarly to the above-described MP @ ML.

【0038】ここで、この上位レイヤの構成において、
動き補償回路256は、動きベクトル検出回路246に
よって決定された動きベクトルおよび予測モードに従っ
て予測参照画像信号を生成するが、この予測参照画像信
号は、重み付加回路257に供給される。この重み付加
回路257では、上記予測参照画像信号に対して重みW
(重み計数W)を乗算し演算回路258に出力する。
Here, in the configuration of the upper layer,
The motion compensation circuit 256 generates a predicted reference image signal according to the motion vector and the prediction mode determined by the motion vector detection circuit 246. The predicted reference image signal is supplied to the weighting circuit 257. In the weighting circuit 257, the weight W
(Weight coefficient W) and outputs the result to the arithmetic circuit 258.

【0039】演算回路258は、重み付加回路244お
よび257からの画像信号を加算し、得られた画像信号
を予測参照画像信号として演算回路247に出力する。
演算回路258からの画像信号はまた、演算回路254
にも入力されIDCT回路253からの画像信号と加算
された後、フレームメモリ255に入力されこの後に符
号化される画像信号の参照画像信号として用いられる。
The arithmetic circuit 258 adds the image signals from the weighting circuits 244 and 257, and outputs the obtained image signal to the arithmetic circuit 247 as a predicted reference image signal.
The image signal from the arithmetic circuit 258 is also transmitted to the arithmetic circuit 254.
The image signal is also input to the frame memory 255, is added to the image signal from the IDCT circuit 253, and is used as a reference image signal of an image signal to be input and thereafter encoded.

【0040】演算回路247は、フレームメモリ245
からの符号する画像信号と上記演算回路258からの予
測参照画像信号との差分を計算して出力する。ただし、
フレーム内符号化マクロブロックの場合、演算回路24
7は上記符号する画像信号をそのままDCT回路248
に出力する。
The arithmetic circuit 247 includes a frame memory 245
, And the difference between the image signal to be encoded and the predicted reference image signal from the arithmetic circuit 258 is calculated and output. However,
In the case of the intra-coded macroblock, the arithmetic circuit 24
Reference numeral 7 denotes a DCT circuit 248 for converting the image signal to be encoded as it is.
Output to

【0041】DCT回路248は演算回路247の出力
信号をDCT(離散コサイン変換)処理し、DCT係数
を生成し、量子化回路249に出力する。量子化回路2
49ではMP@MLの場合と同様に送信バッファ251
のデータ蓄積量などに基づいて決定された量子化スケー
ルにしたがってDCT係数を量子化し、量子化データと
して可変長符号化回路250に出力する。可変長符号化
回路250は、量子化データを可変長符号化した後、符
号化データを送信バッファ251を介して上位レイヤの
ビットストリームとして出力する。
The DCT circuit 248 performs a DCT (Discrete Cosine Transform) process on the output signal of the arithmetic circuit 247, generates a DCT coefficient, and outputs the DCT coefficient to the quantization circuit 249. Quantization circuit 2
49, the transmission buffer 251 is the same as in the case of MP @ ML.
The DCT coefficient is quantized according to a quantization scale determined based on the data storage amount of the DCT coefficient, and is output to the variable length encoding circuit 250 as quantized data. The variable length coding circuit 250 performs variable length coding on the quantized data, and then outputs the coded data as a bit stream of an upper layer via the transmission buffer 251.

【0042】量子化回路249からの量子化データはま
た、逆量子化回路252にて上記量子化回路249で用
いた量子化スケールによって逆量子化され、出力データ
(DCT係数)をIDCT回路253に出力する。さら
にIDCT回路253はDCT係数を逆DCT処理した
後、出力信号(画像信号若しくは差分信号)が演算回路
254に入力される。演算回路254では、IDCT回
路253からの出力信号がPピクチャの差分画像である
場合、演算回路258からの画像信号とIDCT回路2
53からの差分信号を加算し、画像信号を復元する。な
お、IDCT回路253からの出力信号がイントラマク
ロブロックである場合、IDCT回路253からの画像
信号がそのまま出力される。この画像信号は、フレーム
メモリ255に記憶される。動き補償回路256はフレ
ームメモリ255の画像信号と動きベクトルと予測モー
ドとを用いて、予測参照画像信号を生成する。
The quantized data from the quantization circuit 249 is inversely quantized by the inverse quantization circuit 252 using the quantization scale used in the quantization circuit 249, and the output data (DCT coefficient) is transmitted to the IDCT circuit 253. Output. Further, after the IDCT circuit 253 performs the inverse DCT processing on the DCT coefficient, an output signal (image signal or difference signal) is input to the arithmetic circuit 254. When the output signal from the IDCT circuit 253 is a P-picture differential image, the arithmetic circuit 254 determines whether the image signal from the arithmetic circuit 258 and the IDCT circuit 2
The difference signal from the signal 53 is added to restore the image signal. When the output signal from the IDCT circuit 253 is an intra macro block, the image signal from the IDCT circuit 253 is output as it is. This image signal is stored in the frame memory 255. The motion compensation circuit 256 generates a predicted reference image signal using the image signal, the motion vector, and the prediction mode of the frame memory 255.

【0043】可変長符号化回路250ではまた、動きベ
クトル検出回路246で検出された動きベクトルおよび
予測モードと、量子化回路249で用いた量子化スケー
ルと、重み付加回路244および257で用いた重みW
が入力され、それぞれ符号化され伝送される。
The variable length coding circuit 250 also includes the motion vector and the prediction mode detected by the motion vector detection circuit 246, the quantization scale used by the quantization circuit 249, and the weights used by the weighting circuits 244 and 257. W
Are input, respectively encoded and transmitted.

【0044】次に、図24を用いて空間スケーラビリテ
ィのデコーダの一例を説明する。
Next, an example of a spatial scalability decoder will be described with reference to FIG.

【0045】下位レイヤのビットストリームは、受信バ
ッファ301に入力された後、MP@MLと同様に復号
される。すなわち、受信バッファ301から読み出され
た符号化データは、可変長復号回路302に送られる。
可変長復号回路302は、受信バッファ301より供給
された符号化データを可変長復号化し、動きベクトルと
予測モードを動き補償回路307に、また、量子化ステ
ップを逆量子化回路303に、それぞれ出力すると共
に、可変長復号されたデータ(量子化データ)をマクロ
ブロック単位で逆量子化回路303に出力する。
After the lower layer bit stream is input to the reception buffer 301, it is decoded in the same manner as MP @ ML. That is, the encoded data read from the reception buffer 301 is sent to the variable length decoding circuit 302.
The variable length decoding circuit 302 performs variable length decoding on the encoded data supplied from the reception buffer 301, and outputs the motion vector and the prediction mode to the motion compensation circuit 307, and outputs the quantization step to the inverse quantization circuit 303, respectively. At the same time, the variable-length decoded data (quantized data) is output to the inverse quantization circuit 303 in macroblock units.

【0046】逆量子化回路303は、可変長復号回路3
02より供給されたデータ(量子化データ)を、同じく
可変長復号化回路302より供給された量子化ステップ
に従って逆量子化し、逆量子化することにより得られた
DCT係数をIDCT回路304に出力する。逆量子化
回路303より出力されたDCT係数は、IDCT回路
304で逆DCT処理され、出力信号(画像信号若しく
は差分信号)が演算回路305に供給される。
The inverse quantization circuit 303 includes a variable length decoding circuit 3
02 (quantized data) is inversely quantized in accordance with the quantization step also supplied from the variable length decoding circuit 302, and the DCT coefficient obtained by inverse quantization is output to the IDCT circuit 304. . The DCT coefficient output from the inverse quantization circuit 303 is subjected to inverse DCT processing in the IDCT circuit 304, and an output signal (image signal or difference signal) is supplied to the arithmetic circuit 305.

【0047】ここでIDCT回路304からの出力信号
が、Iピクチャのデータである場合、その画像信号は演
算回路305よりそのまま出力され、演算回路305に
後に入力される差分信号(PまたはBピクチャのデー
タ)の予測参照画像信号を生成するために、フレームメ
モリ306に供給されて記憶される。また、この画像信
号は、そのまま再生画像として外部に出力される。
If the output signal from the IDCT circuit 304 is I-picture data, the image signal is output from the arithmetic circuit 305 as it is, and the differential signal (P or B picture The data is supplied to and stored in the frame memory 306 to generate a predicted reference image signal of (data). This image signal is output to the outside as a reproduced image as it is.

【0048】一方、入力ビットストリームがPまたはB
ピクチャの場合、動き補償回路307は、可変長復号回
路302より供給される動きベクトルおよび予測モード
に従って、予測参照画像信号を生成し、その予測参照画
像信号を演算回路305に出力する。演算回路305で
は、IDCT回路304より入力される差分信号と、動
き補償回路307より供給される予測参照画像信号とを
加算して、画像信号として出力する。また、Pピクチャ
の場合、演算回路305からの画像信号はまた、フレー
ムメモリ306に入力され記憶され、次に復号する画像
信号の予測参照画像信号として使用される。
On the other hand, if the input bit stream is P or B
In the case of a picture, the motion compensation circuit 307 generates a predicted reference image signal according to the motion vector and the prediction mode supplied from the variable length decoding circuit 302, and outputs the predicted reference image signal to the arithmetic circuit 305. The arithmetic circuit 305 adds the difference signal input from the IDCT circuit 304 and the predicted reference image signal supplied from the motion compensation circuit 307, and outputs the result as an image signal. In the case of a P picture, the image signal from the arithmetic circuit 305 is also input to and stored in the frame memory 306, and is used as a predicted reference image signal of an image signal to be decoded next.

【0049】ただし、この図24の構成では、上述のよ
うに演算回路305からの画像信号は外部に出力され、
またフレームメモリ306に蓄えられて、これ以後復号
する画像信号の予測参照画像信号として用いられるだけ
でなく、画像拡大回路327により上位レイヤの画像信
号と同一の画像サイズに拡大された後、上位レイヤの予
測参照画像信号としても用いられる。
However, in the configuration of FIG. 24, the image signal from the arithmetic circuit 305 is output to the outside as described above,
Further, the image data is stored in the frame memory 306 and is not only used as a prediction reference image signal of an image signal to be decoded thereafter, but is also enlarged by the image enlargement circuit 327 to the same image size as the image signal of the upper layer. Are also used as predicted reference image signals.

【0050】すなわち、演算回路305の画像信号は、
上述のように下位レイヤの再生画像信号として出力さ
れ、またフレームメモリ306に出力されると同時に、
画像拡大回路327に供給され、上位レイヤの画像サイ
ズと同一の画像サイズに拡大された後、重み付加回路3
28に出力される。
That is, the image signal of the arithmetic circuit 305 is
As described above, it is output as a reproduced image signal of the lower layer, and is output to the frame memory 306.
After being supplied to the image enlargement circuit 327 and enlarged to the same image size as the image size of the upper layer, the weight addition circuit 3
28.

【0051】重み付加回路328では、画像拡大回路3
27の画像信号に対して上記復号された重みWを用いて
計算した(1−W)を乗算し、この値を演算回路317
に出力する。
In the weighting circuit 328, the image enlargement circuit 3
The 27 image signals are multiplied by (1-W) calculated using the decoded weight W, and this value is calculated by the arithmetic circuit 317.
Output to

【0052】一方、上位レイヤのビットストリームは、
受信バッファ309を介して可変長復号回路310に供
給され、ここで符号化データが可変長復号され、量子化
データとともに量子化スケール、動きベクトル、予測モ
ードおよび重み係数が復号される。可変長復号回路31
0により可変長復号された量子化データは、同じく復号
された量子化スケールを用いて逆量子化回路311にお
いて逆量子化された後、DCT係数としてIDCT回路
312に出力される。IDCT回路312はDCT係数
を逆DCT処理し、出力信号(画像信号若しくは差分信
号)が演算回路313に供給される。
On the other hand, the bit stream of the upper layer is
The data is supplied to the variable length decoding circuit 310 via the reception buffer 309, where the encoded data is variable length decoded, and the quantization scale, motion vector, prediction mode, and weight coefficient are decoded together with the quantized data. Variable length decoding circuit 31
The quantized data variable-length-decoded by 0 is inversely quantized by the inverse quantization circuit 311 using the decoded quantization scale, and then output to the IDCT circuit 312 as a DCT coefficient. The IDCT circuit 312 performs an inverse DCT process on the DCT coefficient, and an output signal (image signal or difference signal) is supplied to the arithmetic circuit 313.

【0053】動き補償回路315は、上記復号された動
きベクトルおよび予測モードにしたがって予測参照画像
信号を生成し、この予測参照画像信号を重み付加回路3
16に入力する。重み付加回路316では、上記復号さ
れた重みWを動き補償回路315からの予測参照画像信
号に乗算し、この乗算結果から得られる画像信号を演算
回路317に出力する。
The motion compensation circuit 315 generates a predicted reference image signal according to the decoded motion vector and the prediction mode, and applies the predicted reference image signal to the weighting circuit 3.
Enter 16 The weighting circuit 316 multiplies the decoded reference image signal from the motion compensation circuit 315 by the decoded weight W, and outputs an image signal obtained from the multiplication result to the arithmetic circuit 317.

【0054】演算回路317は、重み付加回路328お
よび316の画像信号を加算し、得られた画像信号を演
算回路313に出力する。演算回路313では、IDC
T回路312からの出力信号が差分信号である場合に、
IDCT回路312からの差分信号と演算回路317か
らの画像信号を加算して上位レイヤの画像信号を復元す
る。なお、IDCT回路312からの出力信号が、イン
トラマクロブロックである場合、IDCT回路312か
らの画像信号がそのまま出力される。この画像信号はフ
レームメモリ314に記憶され、この後、復号する画像
信号の予測参照画像信号とされる。
The arithmetic circuit 317 adds the image signals of the weighting circuits 328 and 316 and outputs the obtained image signal to the arithmetic circuit 313. In the arithmetic circuit 313, the IDC
When the output signal from the T circuit 312 is a difference signal,
The difference signal from the IDCT circuit 312 and the image signal from the arithmetic circuit 317 are added to restore the upper layer image signal. When the output signal from the IDCT circuit 312 is an intra macro block, the image signal from the IDCT circuit 312 is output as it is. This image signal is stored in the frame memory 314, and is thereafter used as a predicted reference image signal of the image signal to be decoded.

【0055】なお、以上の説明は、輝度信号の処理につ
いての説明であるが、色差信号の処理も同様に行われ
る。但し、この場合、動きベクトルは、輝度信号用のも
のを垂直方向および水平方向に1/2にしたものが用い
られる。
Although the above description is for the processing of a luminance signal, the processing of a chrominance signal is similarly performed. However, in this case, a motion vector obtained by halving the luminance vector for the luminance signal in the vertical and horizontal directions is used.

【0056】以上、MPEG方式について説明したが、
この他にも様々な動画像の高能率符号化方式が標準化さ
れている。例えば、いわゆるITU−T(Internationa
l Telecommunication Union−Telecommunication secto
r:国際電気通信連合の電気通信標準化部門)では、主に
通信用の符号化方式として、H.261やH.263と
いう方式を規定している。このH.261やH.263
も基本的にはMPEG方式と同様に動き補償予測符号化
とDCT変換符号化を組み合わせたものであり、ヘッダ
情報などの詳細は異なるが、符号化装置や復号装置は同
様となる。
The MPEG system has been described above.
In addition, various high-efficiency coding schemes for moving images have been standardized. For example, a so-called ITU-T (Internationa
l Telecommunication Union-Telecommunication secto
r: Telecommunications Standardization Sector of the International Telecommunications Union), mainly uses H.264 as an encoding method for communications. 261 and H.E. 263 is defined. This H. 261 and H.E. 263
Is basically a combination of motion-compensated predictive coding and DCT transform coding as in the MPEG system. Although details such as header information are different, the coding apparatus and the decoding apparatus are the same.

【0057】[0057]

【発明が解決しようとする課題】MPEG2においては
空間スケーラビリティが既に標準化されているが、その
符号化効率は十分であるとは言い難い。したがって、M
PEG4方式やその他の新規符号化方式においては空間
スケーラビリティの符号化効率を向上することが課題と
なっている。
In MPEG2, spatial scalability has already been standardized, but its coding efficiency is hardly sufficient. Therefore, M
In the PEG4 system and other new coding systems, it is an issue to improve the coding efficiency of spatial scalability.

【0058】MPEG2方式における空間スケーラビリ
ティについて、ここで少し詳しく説明する。同スケーラ
ブル符号化方式においては、下位レイヤは通常の符号化
方式、すなわちMPEG2の場合はMP@MLと同様に
符号化する。上位レイヤは、同じ時刻の下位レイヤの画
像、および同じレイヤの直前に復号された画像を、参照
画像として用いる。この時、下位レイヤと上位レイヤの
予測モードはまったく独立に決定される。したがって、
下位レイヤにおいて情報を伝送したにもかかわらず、上
位レイヤでそれがまったく使われずに、上位レイヤの復
号画像から予測を行って符号化してしまうことがある。
これは、上位レイヤと下位レイヤで共有可能な情報をま
ったく独立に伝送していることに等しい。
The spatial scalability in the MPEG2 system will now be described in some detail. In the scalable coding method, the lower layer is coded in the same manner as a normal coding method, that is, MP @ ML in the case of MPEG2. The upper layer uses an image of the lower layer at the same time and an image decoded immediately before the same layer as a reference image. At this time, the prediction modes of the lower layer and the upper layer are determined completely independently. Therefore,
Despite the information being transmitted in the lower layer, there is a case where the information is not used at all in the upper layer, but is predicted from the decoded image in the upper layer and encoded.
This is equivalent to transmitting information that can be shared between the upper layer and the lower layer completely independently.

【0059】したがって、上記のような情報伝送の重複
をできるだけ少なくし、符号化効率を向上させることが
課題となっている。
Therefore, it is necessary to reduce the duplication of information transmission as described above and to improve the coding efficiency.

【0060】また、MPEG2方式ではマクロブロック
単位でしか符号化モードを指定することができない。こ
れは比較的均一な領域の画像を扱う場合は問題無いが、
複雑な動きをするシーケンスや、異なる性質の画像(例
えば、静止領域と動領域)が一つのマクロブロックに含
まれる場合には符号化効率の低下の原因となっている。
In the MPEG2 system, the coding mode can be specified only in macroblock units. This is fine when dealing with images in relatively uniform areas,
When one macroblock contains a sequence that moves in a complicated manner or an image having a different property (for example, a still area and a moving area), it causes a reduction in coding efficiency.

【0061】そこで、本発明は、このような実情に鑑み
てなされたものであり、空間スケーラブル符号化方法に
おいて、予測効率を改善し、符号化効率を向上すること
を可能にする、画像信号符号化装置及び方法、画像信号
復号装置及び方法、並びに記録媒体を提供することを目
的とするものである。
Accordingly, the present invention has been made in view of such circumstances, and in a spatial scalable encoding method, an image signal encoding method capable of improving prediction efficiency and improving encoding efficiency. It is an object to provide a decoding device and method, an image signal decoding device and method, and a recording medium.

【0062】[0062]

【課題を解決するための手段】本発明の画像信号符号化
装置は、上述した課題を解決するために提案されたもの
であり、所定の画像信号をそれぞれ表す下位階層の画像
信号と上位階層の画像信号を符号化する装置であって、
下位階層の画像信号を参照画像信号を用いて符号化して
第1の符号化データを出力する第1の符号化手段と、上
位階層の画像信号を参照画像信号を用いて符号化して第
2の符号化データを出力する第2の符号化手段と、第1
の符号化データを復号して第1の参照画像信号を生成す
る第1の復号手段と、第2の符号化データを復号して第
2の参照画像信号を生成する第2の復号手段とを有し、
第2の符号化手段は第1,第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成された第3の参
照画像信号を用いて符号化することを特徴としている。
SUMMARY OF THE INVENTION An image signal encoding apparatus according to the present invention has been proposed to solve the above-mentioned problems, and includes a lower-layer image signal and an upper-layer image signal respectively representing a predetermined image signal. An apparatus for encoding an image signal,
A first encoding unit that encodes a lower layer image signal using a reference image signal and outputs first encoded data, and a second encoder that encodes an upper layer image signal using a reference image signal and outputs a second encoded image signal. A second encoding unit that outputs encoded data;
A first decoding unit that decodes the encoded data of (a) to generate a first reference image signal, and a second decoding unit that decodes the second encoded data to generate a second reference image signal. Have
The second encoding means encodes using a third reference image signal generated by adaptively switching the first and second reference image signals for each pixel.

【0063】また、本発明の画像信号符号化方法は、上
述した課題を解決するために提案されたものであり、所
定の画像信号をそれぞれ表す下位階層の画像信号と上位
階層の画像信号を符号化する方法であって、下位階層の
画像信号を参照画像信号を用いて符号化して第1の符号
化データを出力する第1の符号化ステップと、上位階層
の画像信号を参照画像信号を用いて符号化して第2の符
号化データを出力する第2の符号化ステップと、第1の
符号化データを復号して第1の参照画像信号を生成する
第1の復号ステップと、第2の符号化データを復号し
て、第2の参照画像信号を生成する第2の復号ステップ
とを有し、第2の符号化ステップは、第1,第2の参照
画像信号を各画素毎に適応的に切り替えることにより生
成された第3の参照画像信号を用いて符号化することを
特徴としている。
The image signal encoding method of the present invention has been proposed in order to solve the above-mentioned problem, and encodes a lower-layer image signal and an upper-layer image signal respectively representing a predetermined image signal. A first encoding step of encoding a lower layer image signal using a reference image signal and outputting first encoded data, and using an upper layer image signal using a reference image signal. A second encoding step of encoding and outputting the second encoded data; a first decoding step of decoding the first encoded data to generate a first reference image signal; A second decoding step of decoding the encoded data to generate a second reference image signal, wherein the second encoding step applies the first and second reference image signals to each pixel. Third reference generated by dynamic switching It is characterized by encoding using an image signal.

【0064】次に、本発明の画像信号復号装置は、上述
した課題を解決するために提案されたものであり、符号
化された下位階層の画像信号と符号化された上位階層の
画像信号からなる符号化データを受信し、その符号化デ
ータを復号する装置であって、符号化された下位階層の
画像信号と符号化された上位階層の画像信号はそれぞれ
参照画像信号を用いて符号化されており、符号化データ
を受信する受信手段と、符号化された下位階層の画像信
号を参照画像信号を用いて復号して該復号された下位階
層の画像信号を出力する第1の復号手段と、符号化され
た上位階層の画像信号を参照画像信号を用いて復号して
該復号された上位階層の画像信号を出力する第2の復号
手段とを有し、復号された下位階層の画像信号は第1の
参照画像信号として利用され、復号された上位階層の画
像信号は第2の参照画像信号として利用され、第2の復
号手段は、第1,第2の参照画像信号を各画素毎に適応
的に切り替えることにより生成された第3の参照画像信
号を用いて復号することを特徴としている。
Next, an image signal decoding apparatus according to the present invention has been proposed to solve the above-mentioned problem, and comprises an encoded lower layer image signal and an encoded upper layer image signal. Receiving encoded data, and decoding the encoded data, wherein the encoded lower layer image signal and the encoded upper layer image signal are each encoded using a reference image signal. Receiving means for receiving encoded data, first decoding means for decoding the encoded lower-layer image signal using the reference image signal, and outputting the decoded lower-layer image signal. Decoding means for decoding the coded image signal of the upper layer using the reference image signal and outputting the decoded image signal of the upper layer, the decoded lower-layer image signal Is the first reference image signal The used and decoded upper layer image signal is used as a second reference image signal, and the second decoding unit generates the image signal by adaptively switching the first and second reference image signals for each pixel. The decoding is performed using the obtained third reference image signal.

【0065】また、本発明の画像信号復号方法は、上述
した課題を解決するために提案されたものであり、符号
化された下位階層の画像信号と符号化された上位階層の
画像信号からなる符号化データを受信し、その符号化デ
ータを復号する方法であって、符号化された下位階層の
画像信号と符号化された上位階層の画像信号はそれぞれ
参照画像信号を用いて符号化されており、符号化データ
を受信する受信ステップと、符号化された下位階層の画
像信号を参照画像信号を用いて復号して該復号された下
位階層の画像信号を出力する第1の復号ステップと、符
号化された上位階層の画像信号を参照画像信号を用いて
復号して該復号された上位階層の画像信号を出力する第
2の復号ステップとを有し、復号された下位階層の画像
信号は第1の参照画像信号として利用され、復号された
上位階層の画像信号は第2の参照画像信号として利用さ
れ、第2の復号ステップは、第1,第2の参照画像信号
を各画素毎に適応的に切り替えることにより生成された
第3の参照画像信号を用いて復号することを特徴として
いる。
The image signal decoding method of the present invention has been proposed in order to solve the above-mentioned problem, and comprises an encoded lower layer image signal and an encoded upper layer image signal. A method for receiving encoded data and decoding the encoded data, wherein the encoded lower-layer image signal and the encoded upper-layer image signal are each encoded using a reference image signal. Receiving a coded data, a first decoding step of decoding the coded lower layer image signal using the reference image signal and outputting the decoded lower layer image signal, A second decoding step of decoding the coded upper layer image signal using the reference image signal and outputting the decoded upper layer image signal, wherein the decoded lower layer image signal is First reference The image signal of the upper layer decoded and used as an image signal is used as a second reference image signal. In the second decoding step, the first and second reference image signals are adaptively switched for each pixel. The decoding is performed using the third reference image signal generated as described above.

【0066】次に、本発明の記録媒体は、画像信号復号
装置によって復号可能な記録媒体であり、符号化された
下位階層の画像信号と符号化された上位階層の画像信号
とからなる符号化データを含んで記録してなり、符号化
データは、下位階層の画像信号を参照画像信号を用いて
符号化して第1の符号化データを出力する第1の符号化
ステップと、上位階層の画像信号を参照画像信号を用い
て符号化して第2の符号化データを出力する第2の符号
化ステップと、第1の符号化データを復号して第1の参
照画像信号を生成する第1の復号ステップと、第2の符
号化データを復号して第2の参照画像信号を生成する第
1の復号ステップからなり、第2の符号化ステップは、
第1,第2の参照画像信号を各画素毎に適応的に切り替
えることにより生成された第3の参照画像信号を用いて
符号化してなることを特徴としている。
Next, the recording medium of the present invention is a recording medium that can be decoded by an image signal decoding device, and is composed of an encoded lower layer image signal and an encoded upper layer image signal. A first encoding step of encoding a lower-layer image signal using a reference image signal and outputting first encoded data; and an upper-layer image. A second encoding step of encoding the signal using the reference image signal and outputting second encoded data, and a first encoding step of decoding the first encoded data to generate a first reference image signal A decoding step, and a first decoding step of decoding the second encoded data to generate a second reference image signal, wherein the second encoding step includes:
It is characterized by being encoded using a third reference image signal generated by adaptively switching the first and second reference image signals for each pixel.

【0067】[0067]

【発明の実施の形態】以下に、本発明を実現する実施の
形態について、図面を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0068】先ず、本発明の実施の形態についての具体
的内容説明を行う前に、本発明の基本的な考え方につい
て、MPEGにおける各参照画像の性質と絡めて説明す
る。通常、上位レイヤの画像信号は下位レイヤの画像信
号と比較して画質が良い。したがって、フレーム間の変
化が少ない場合は、上位レイヤの画像を用いて動き補償
を行った方が、予測誤差が少なくなることが多い。しか
し、フレーム間の変化が大きい場合は、動き補償の効率
が下がるため、同時刻の画像を参照画像とした方が効率
が良い。このようなことから、フレーム間差分が大きい
領域では同時刻の下位レイヤからの画像信号を、また、
フレーム間差分が小さい場合には同じ階層(上位レイ
ヤ)の画像を、参照画像に用いれば良い。
First, before giving a detailed description of the embodiment of the present invention, the basic concept of the present invention will be described in connection with the properties of each reference image in MPEG. Normally, the image signal of the upper layer has better image quality than the image signal of the lower layer. Therefore, when the change between frames is small, it is often the case that the motion compensation is performed using the image of the upper layer to reduce the prediction error. However, when the change between frames is large, the efficiency of motion compensation is reduced. Therefore, it is more efficient to use an image at the same time as a reference image. Therefore, in an area where the difference between frames is large, an image signal from a lower layer at the same time is
When the difference between frames is small, an image of the same layer (upper layer) may be used as a reference image.

【0069】次に、MPEG方式の空間スケーラブル符
号化の情報の重複について説明する。
Next, the duplication of the information of the spatial scalable coding of the MPEG system will be described.

【0070】上位レイヤのあるマクロブロックを符号化
する場合を考える。この時、当該上位レイヤのマクロブ
ロックに対応する下位レイヤのマクロブロックにおいて
情報(DCT係数)を伝送した場合に、上位レイヤの同
じ画像を参照して予測を行うと、下位レイヤと上位レイ
ヤとで独立に情報が伝送されることになる。即ち、下位
レイヤで伝送した情報が上位レイヤの符号化に生かされ
ないことになり、効率低下の原因となる。したがって、
上記対応する下位レイヤのマクロブロックでDCT係数
を伝送した場合は、下位レイヤの画像を予測参照画像に
用いた方が、データ伝送の重複が少なくなり、効率が良
い。
Consider a case where a macroblock having an upper layer is encoded. At this time, when information (DCT coefficient) is transmitted in a macroblock of a lower layer corresponding to the macroblock of the upper layer, if prediction is performed with reference to the same image of the upper layer, the lower layer and the upper layer will be different. Information will be transmitted independently. That is, the information transmitted in the lower layer is not used for encoding in the upper layer, which causes a reduction in efficiency. Therefore,
When the DCT coefficients are transmitted in the corresponding lower layer macroblock, the use of the lower layer image as the prediction reference image reduces the duplication of data transmission and is more efficient.

【0071】以上より、(1)上位レイヤのあるマクロ
ブロックを符号化する場合において、フレーム間差分が
大きい領域では、同時刻の画像(下位レイヤの画像)を
参照画像に用いた方が良く、(2)上位レイヤのあるマ
クロブロックを符号化する場合において、上記対応する
下位レイヤのマクロブロックのDCT係数が伝送された
場合は、下位レイヤの画像を参照画像に用いた方が良
い、ということが言える。
As described above, (1) when coding a macroblock having an upper layer, in a region where the difference between frames is large, it is better to use the image at the same time (image of the lower layer) as a reference image. (2) When encoding a macroblock having an upper layer, if the DCT coefficient of the corresponding lower layer macroblock is transmitted, it is better to use the image of the lower layer as a reference image. Can be said.

【0072】また、MPEG2などの従来の画像信号符
号化方式においては、予測モードはマクロブロック単位
で切り替えられる。均一な画像領域の場合は、このよう
なマクロブロック単位の予測モード切り替えで十分であ
る。しかし、複雑な動きをする画像であったり、また画
像の大きさが小さい場合は、マクロブロック中に時間的
に画像が変化する領域と、しない領域とが混在すること
になり、効率が落ちる原因となっている。
In a conventional image signal encoding system such as MPEG2, the prediction mode is switched in units of macro blocks. In the case of a uniform image area, such prediction mode switching in macroblock units is sufficient. However, if the image moves in a complicated manner or the size of the image is small, the area where the image changes temporally and the area where the image does not change in the macroblock are mixed, causing a decrease in efficiency. It has become.

【0073】したがって、上記予測モードを画素単位で
切り替えることを可能にすれば、符号化効率を改善する
ことができる。
Therefore, if the prediction mode can be switched on a pixel basis, the coding efficiency can be improved.

【0074】このようなことから本発明においては、I
DCT後の差分画像を参照し、差分値があるしきい値以
下である画素は上位レイヤの画素を、また差分値がある
しきい値を越える画素は下位レイヤの画素を用いて、予
測参照画像を生成するために用いる参照画像を生成する
ようにする。このとき、生成された参照画像は、画素単
位で上位レイヤおよび下位レイヤの画像が切り替えられ
て用いられている。また、本発明においては、IDCT
後の差分画像を用いて画素単位の切り替えを行うことに
より、平行移動に対応することを可能にしている。
From the above, in the present invention, I
Referring to the difference image after DCT, a pixel whose difference value is equal to or less than a certain threshold value uses a pixel of an upper layer, and a pixel value whose difference value exceeds a certain threshold value uses a pixel of a lower layer. Is generated to generate a reference image used to generate the reference image. At this time, the generated reference image is used by switching the image of the upper layer and the lower layer in pixel units. In the present invention, the IDCT
By performing pixel-by-pixel switching using the later difference image, it is possible to cope with parallel movement.

【0075】すなわち本発明においては、上記画素単位
で適応的に切り替えを行って生成した参照画像、および
解像度変換後(本実施の形態では画像拡大後)の下位レ
イヤの画像、上位レイヤの直前に復号した画像を、参照
画像として用いる。また、このとき予測誤差を最小にす
る画像をマクロブロック単位で切り替えて予測参照画像
を決定して、動き補償を行い、符号化することにより、
空間スケーラブル符号化の符号化効率を向上させ、画質
を改善することを可能にしている。
That is, in the present invention, the reference image generated by adaptively switching the pixel unit, the image of the lower layer after resolution conversion (in this embodiment, after image enlargement), and the image immediately before the upper layer. The decoded image is used as a reference image. Also, at this time, by switching the image that minimizes the prediction error in units of macroblocks, determining a prediction reference image, performing motion compensation, and encoding,
It is possible to improve the coding efficiency of spatial scalable coding and improve the image quality.

【0076】図1には本発明の実施の形態としての画像
信号符号化装置の一例を示す。
FIG. 1 shows an example of an image signal encoding apparatus according to an embodiment of the present invention.

【0077】この図1において、入力画像信号及びキー
(key)信号は、まず画像信号階層化回路1に入力さ
れる。
In FIG. 1, an input image signal and a key signal are first input to an image signal layering circuit 1.

【0078】なお、この入力画像信号は、ある画像信号
を複数の画像(背景画像及び動き物体画像)信号に分離
して、それぞれの画像毎に符号化する際の1つの画像を
表している画像信号である。また、キー(key)信号
は、分離された動き物体画像の輪郭情報を表す信号であ
り、例えば、このキー(key)信号は、2値からなる
ハードキーや多値からなるソフトキーである。さらに、
分離された動き物体画像の背景画像の絶対座標における
位置を示すフラグ(VOPオフセット)及び分離された
動き物体画像の大きさを示すフラグ(VOPサイズ)が
画像信号階層化回路1に供給される。
The input image signal is an image representing one image when a certain image signal is separated into a plurality of image signals (background image and moving object image) and encoded for each image. Signal. The key signal is a signal indicating contour information of the separated moving object image. For example, the key signal is a binary hard key or a multi-value soft key. further,
A flag (VOP offset) indicating the position of the separated moving object image in the absolute coordinates of the background image and a flag (VOP size) indicating the size of the separated moving object image are supplied to the image signal layering circuit 1.

【0079】この画像信号階層化回路1は入力画像信号
及びキー(key)信号を複数の階層に分離する。な
お、図1には2階層(1つの下位レイヤと1つの上位レ
イヤ)の場合の構成を示してあるが、同様に複数の階層
に分離することも可能である。簡単のため、ここでは2
つの階層に分離する場合についてこれ以後説明する。
The image signal layering circuit 1 separates an input image signal and a key signal into a plurality of layers. Although FIG. 1 shows a configuration in the case of two layers (one lower layer and one upper layer), it can be similarly divided into a plurality of layers. For simplicity, here 2
The case of separating into two layers will be described hereinafter.

【0080】例えば、空間スケーラビリティの場合、上
記画像信号階層化回路1は、入力画像信号及びキー信号
を解像度変換して、下位レイヤ及び上位レイヤの画像信
号及びキー信号を生成する。
For example, in the case of spatial scalability, the image signal layering circuit 1 converts the resolution of an input image signal and a key signal to generate an image signal and a key signal of a lower layer and an upper layer.

【0081】また、例えばテンポラルスケーラビリティ
(時間軸方向のスケーラビリティ)の場合、画像信号階
層化回路1は、時刻に応じて画像信号及びキー信号の出
力を下位レイヤおよび上位レイヤに切り替えて出力す
る。例えば、図2の場合、順次供給される画像(ピクチ
ャ)VOP0〜VOP6は、画像VOP0,VOP2,
VOP4,VOP6が下位レイヤに、また画像VOP
1,VOP3,VOP5が上位レイヤに出力される。こ
のテンポラルスケーラビリティの場合は、上記空間スケ
ーラビリティのように画像信号の拡大や縮小のような解
像度変換は行わない。
In the case of temporal scalability (scalability in the time axis direction), for example, the image signal layering circuit 1 switches the output of the image signal and the key signal to the lower layer and the upper layer according to the time and outputs. For example, in the case of FIG. 2, the sequentially supplied images (pictures) VOP0 to VOP6 are images VOP0, VOP2,
VOP4 and VOP6 are in the lower layer and the image VOP
1, VOP3 and VOP5 are output to the upper layer. In the case of the temporal scalability, resolution conversion such as enlargement or reduction of an image signal is not performed unlike the spatial scalability described above.

【0082】さらに例えばいわゆるSNR(Signal to
Noise Retio)スケーラビリティの場合、画像信号階層
化回路1は、入力画像信号とキー信号をそのまま各レイ
ヤに出力する。すなわち、下位レイヤと上位レイヤに同
一の画像信号およびキー信号を出力する。
Further, for example, so-called SNR (Signal to
In the case of Noise Retio) scalability, the image signal layering circuit 1 outputs the input image signal and the key signal as they are to each layer. That is, the same image signal and key signal are output to the lower layer and the upper layer.

【0083】本実施の形態では、上記空間スケーラビリ
ティの場合を例に挙げている。
In the present embodiment, the case of the above spatial scalability is taken as an example.

【0084】画像信号階層化回路1は、例えば空間スケ
ーラビリティの場合、入力画像信号およびキー信号を縮
小(解像度変換)した画像信号及びキー信号を、下位レ
イヤとして出力し、一方、上位レイヤには入力画像信号
及びキー信号をそのまま出力する。ここでの解像度変換
とは、例えば間引きフィルタによる縮小フィルタリング
処理などである。なお、画像信号階層化回路1では、入
力画像信号を拡大(解像度変換)した画像信号及びキー
信号を上位レイヤとして出力し、入力画像信号及びキー
信号をそのまま下位レイヤに出力するようにしてもよ
い。この場合の解像度変換は、拡大フィルタなどによる
拡大フィルタリング処理となる。さらに画像信号階層化
回路1では、独立に生成された2つの画像信号及びキー
信号(解像度は異なる場合と、同一の場合どちらでもよ
い。)を、それぞれ上位レイヤおよび下位レイヤに出力
するようにしてもよい。この場合、どの画像信号及びキ
ー信号を上位レイヤおよび下位レイヤに出力するかは、
予め決められている。上位レイヤの画像信号及びキー信
号は、遅延回路2を介して上位レイヤ符号化回路3に送
られ、下位レイヤの画像信号は下位レイヤ符号化回路5
に送られる。
For example, in the case of spatial scalability, the image signal layering circuit 1 outputs an image signal and a key signal obtained by reducing (resolution conversion) the input image signal and the key signal as a lower layer, while inputting it to an upper layer. The image signal and the key signal are output as they are. The resolution conversion here is, for example, a reduction filtering process using a thinning filter. The image signal layering circuit 1 may output an image signal and a key signal obtained by enlarging (resolution converting) the input image signal as an upper layer, and may output the input image signal and the key signal as they are to a lower layer. . The resolution conversion in this case is an enlargement filtering process using an enlargement filter or the like. Further, the image signal layering circuit 1 outputs two independently generated image signals and a key signal (which may have different resolutions or the same resolution) to an upper layer and a lower layer, respectively. Is also good. In this case, which image signal and key signal are output to the upper layer and the lower layer
It is predetermined. The image signal and the key signal of the upper layer are sent to the upper layer encoding circuit 3 via the delay circuit 2, and the image signal of the lower layer is transmitted to the lower layer encoding circuit 5.
Sent to

【0085】上述のように入力画像信号及びキー信号を
解像度変換して下位レイヤと上位レイヤに出力する画像
信号階層化回路1はまた、上記下位レイヤの画像に対す
る上位レイヤの画像の解像度の倍率を示すフラグFRを
も出力する。このフラグFRは、遅延回路2を介して解
像度変換回路4および上位レイヤ符号化回路3に送られ
る。なお、上記解像度変換回路4は、上記画像信号階層
化回路1内に設けられる解像度変換手段とは異なるもの
である。さらに、この画像信号階層化回路1は、下位レ
イヤの画像(VOP)の大きさを示すフラグ(下位レイ
ヤVOPサイズ)と、絶対座標における位置を示すフラ
グ(下位レイヤVOPオフセット)、及び上位レイヤの
画像(VOP)の大きさを示すフラグ(上位レイヤVO
Pサイズ)と、絶対座標における位置を示すフラグ(上
位レイヤVOPオフセット)を、下位レイヤ符号化回路
3及び上位レイヤ符号化回路5にそれぞれに供給するた
めに出力する。なお、これらフラグは、上位レイヤ符号
化回路3及び下位レイヤ符号化回路5にて符号化され、
さらには、ビットストリームとして符号化され、スケー
ラブル復号装置に供給され、スケーラブル復号装置のお
いて利用される。
As described above, the image signal layering circuit 1 that converts the resolution of the input image signal and the key signal and outputs the converted signal to the lower layer and the upper layer also increases the magnification of the resolution of the upper layer image with respect to the lower layer image. A flag FR is also output. The flag FR is sent to the resolution conversion circuit 4 and the upper layer encoding circuit 3 via the delay circuit 2. Note that the resolution conversion circuit 4 is different from the resolution conversion means provided in the image signal layering circuit 1. The image signal layering circuit 1 further includes a flag (lower layer VOP size) indicating the size of the lower layer image (VOP), a flag (lower layer VOP offset) indicating a position in absolute coordinates, and a higher layer Flag (upper layer VO) indicating the size of the image (VOP)
A flag indicating the position in the absolute coordinates (upper layer VOP offset) is output to the lower layer encoding circuit 3 and the upper layer encoding circuit 5 for supply to the lower layer encoding circuit 3 and the upper layer encoding circuit 5, respectively. These flags are encoded by the upper layer encoding circuit 3 and the lower layer encoding circuit 5,
Furthermore, it is encoded as a bit stream, supplied to the scalable decoding device, and used in the scalable decoding device.

【0086】なお、以下に、順次、各レイヤにおける符
号化処理及び復号処理について説明するが、上位レイヤ
の入力画像信号及び下位レイヤの入力画像信号と上位レ
イヤの入力キー信号及び下位レイヤの入力キー信号の符
号化処理及び復号処理は同様であるため、以下では、上
位レイヤの入力画像信号及び下位レイヤの入力画像信号
の符号化処理及び復号処理についてのみ説明し、上位レ
イヤのキー信号及び下位レイヤのキー信号の符号化処理
及び復号処理の詳細については、その説明を省略する。
The encoding process and the decoding process in each layer will be described below. The input image signal of the upper layer, the input image signal of the lower layer, the input key signal of the upper layer, and the input key signal of the lower layer will be described. Since the encoding process and the decoding process of the signal are the same, only the encoding process and the decoding process of the input image signal of the upper layer and the input image signal of the lower layer will be described below, and the key signal of the upper layer and the lower layer will be described. The details of the encoding process and the decoding process of the key signal are omitted.

【0087】ここで、下位レイヤ符号化回路5の具体的
構成を図3を用いて説明する。
Here, a specific configuration of the lower layer coding circuit 5 will be described with reference to FIG.

【0088】図3において、下位レイヤ符号化回路5に
供給さらた下位レイヤの入力画像信号は、まずフレーム
メモリ21に入力され、所定の順番で読み出されて、後
段の構成により符号化される。この符号化されるべき画
像データは、マクロブロック単位でフレームメモリ21
から読み出され、動きベクトル検出回路22に入力され
る。動きベクトル検出回路22は、予め設定されている
所定のシーケンスに従って、各フレームの画像データを
Iピクチャ、Pピクチャ、またはBピクチャとして処理
する。シーケンシャルに入力される各フレームの画像
を、I,P,Bのいずれのピクチャとして処理するか
は、予め定められている(例えば、I,B,P,B,
P,・・・B,Pの順番で処理される)。
In FIG. 3, the input image signal of the lower layer supplied to the lower layer coding circuit 5 is first input to the frame memory 21, read out in a predetermined order, and coded by the configuration of the subsequent stage. . The image data to be encoded is stored in a frame memory 21 in macroblock units.
And input to the motion vector detection circuit 22. The motion vector detection circuit 22 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame input sequentially is processed as one of I, P, and B pictures is predetermined (for example, I, B, P, B,
P,..., B, P).

【0089】ここで、動きベクトル検出回路22は、予
め定められた所定の参照フレーム(前方原画像、後方原
画像、原フレームの画像)を参照し、動き補償を行うこ
とにより、その動きベクトルを検出する。動き補償(フ
レーム間予測)には、前方予測、後方予測、両方向予測
の3種類の予測モードがある。Pピクチャの予測モード
は前方予測のみであり、Bピクチャの予測モードは前方
予測、後方予測、両方向予測の3種類である。この動き
ベクトル検出回路22は、予測誤差を最小にする予測モ
ードを選択し、その際の予測ベクトルを発生する。
Here, the motion vector detection circuit 22 refers to a predetermined reference frame (a forward original image, a backward original image, and an original frame image) and performs motion compensation, thereby obtaining the motion vector. To detect. Motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The prediction mode of a P picture is only forward prediction, and the prediction modes of a B picture are three types: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 22 selects a prediction mode that minimizes a prediction error, and generates a prediction vector at that time.

【0090】このとき、予測誤差は、例えば符号化する
マクロブロックの分散値と比較され、マクロブロックの
分散値の方が小さい場合には、そのマクロブロックでは
予測は行わず、フレーム内符号化が行われる。この場
合、予測モードは画像内符号化(イントラ)となる。動
きベクトルおよび上記予測モードの情報は、可変長符号
化回路26および動き補償回路32に入力される。
At this time, the prediction error is compared with, for example, the variance value of the macroblock to be coded. If the variance value of the macroblock is smaller, the prediction is not performed on the macroblock and the intra-frame coding is not performed. Done. In this case, the prediction mode is intra-picture encoding (intra). The motion vector and the information on the prediction mode are input to the variable length coding circuit 26 and the motion compensation circuit 32.

【0091】動きベクトルはまた、上位レイヤの画像信
号符号化回路すなわち図1の上位レイヤ符号化回路3に
も供給される。
The motion vector is also supplied to an upper layer image signal encoding circuit, that is, the upper layer encoding circuit 3 in FIG.

【0092】動き補償回路32では、所定の動きベクト
ルに基づいて予測参照画像信号を生成し、この予測参照
画像信号を演算回路23に供給する。演算回路23で
は、マクロブロック単位で上記フレームメモリ21から
の符号化する画像信号の値と、上記動き補償回路32か
らの予測参照画像信号の値との差分を求め、この差分信
号をDCT回路24に出力する。イントラマクロブロッ
クの場合、演算回路23は、上記符号化する画像信号を
そのままDCT回路24に出力する。なお、動きベクト
ル検出回路22及び動き補償回路32には、下位レイヤ
VOPサイズ及び下位レイヤVOPオフセットが供給さ
れて、それぞれの回路で利用される。ただし、図面の煩
雑化を防ぐため、図示はしない。
The motion compensation circuit 32 generates a predicted reference image signal based on a predetermined motion vector, and supplies the predicted reference image signal to the arithmetic circuit 23. The arithmetic circuit 23 calculates the difference between the value of the image signal to be coded from the frame memory 21 and the value of the predicted reference image signal from the motion compensation circuit 32 in macroblock units. Output to In the case of an intra macro block, the arithmetic circuit 23 outputs the image signal to be encoded to the DCT circuit 24 as it is. The motion vector detection circuit 22 and the motion compensation circuit 32 are supplied with the lower layer VOP size and the lower layer VOP offset, and are used by the respective circuits. However, they are not shown in order to avoid complicating the drawings.

【0093】DCT回路24では、上記差分信号をDC
T(離散コサイン変換)処理してDCT係数に変換す
る。このDCT係数は、量子化回路25に入力され、送
信バッファ27のデータ蓄積量(バッファに蓄積可能な
データ残量)に対応した量子化ステップで量子化された
後、量子化データが可変長符号化回路26に入力され
る。
The DCT circuit 24 converts the difference signal into a DC signal.
T (Discrete Cosine Transform) processing is performed to convert to DCT coefficients. The DCT coefficient is input to the quantization circuit 25 and is quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 27 (the remaining amount of data that can be stored in the buffer). Input to the conversion circuit 26.

【0094】可変長符号化回路26は、量子化回路25
より供給される量子化ステップ(量子化スケール)に対
応して、上記量子化回路25より供給される量子化デー
タを、例えばハフマン符号などの可変長符号に変換し、
この符号化データを送信バッファ27に出力する。
The variable length coding circuit 26 is
In response to the supplied quantization step (quantization scale), the quantized data supplied from the quantization circuit 25 is converted into a variable length code such as a Huffman code, for example.
This encoded data is output to the transmission buffer 27.

【0095】可変長符号化回路26にはまた、量子化回
路25からの量子化ステップ(量子化スケール)と、動
きベクトル検出回路22からの予測モード(画像内予
測、前方予測、後方予測、または両方向予測のいずれが
設定されたかを示すモード)および動きベクトルと、さ
らに、下位レイヤの画像(VOP)の大きさを示すフラ
グ(下位レイヤVOPサイズ)及び絶対座標における位
置を示すフラグ(下位レイヤVOPオフセット)が入力
されており、これらも可変長符号化される。
The variable length coding circuit 26 also includes a quantization step (quantization scale) from the quantization circuit 25 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, or prediction mode) from the motion vector detection circuit 22. A mode indicating which of the bidirectional predictions has been set), a motion vector, a flag indicating the size of the image (VOP) of the lower layer (lower layer VOP size), and a flag indicating the position in absolute coordinates (lower layer VOP) Offset), which are also variable-length coded.

【0096】なお、詳細は後述するが、マクロブロック
のデータが存在しない場合、そのマクロブロックはスキ
ップマクロブロックとして扱われる。つまり、動きベク
トルの値が0で且つ量子化されたDCT係数が0である
ときである。そして、マクロブロックのデータが存在す
るかどうかを示すフラグCODが伝送される。マクロブ
ロックのデータが存在する場合、COD=0、マクロブ
ロックのデータが存在しない場合(スキップマクロブロ
ック)、COD=1として示される。このフラグはま
た、上位レイヤ符号化回路3にも供給される。
[0096] Although details will be described later, when there is no macroblock data, the macroblock is treated as a skipped macroblock. That is, when the value of the motion vector is 0 and the quantized DCT coefficient is 0. Then, a flag COD indicating whether macroblock data exists is transmitted. If data of a macroblock exists, COD = 0, and if no data of a macroblock exists (skip macroblock), COD = 1. This flag is also supplied to the upper layer coding circuit 3.

【0097】送信バッファ27は、入力された符号化デ
ータを一時蓄積し、その蓄積量に対応する符号化データ
を、量子化制御信号として量子化回路25にフィードバ
ックする。すなわち、送信バッファ27は、そのデータ
蓄積量(蓄積可能なデータ残量)が許容上限値まで増量
すると、上記量子化制御信号によって量子化回路25の
量子化スケールを大きくさせることにより、量子化回路
25から出力される量子化データのデータ量を低下させ
る。また、これとは逆に、データ蓄積量(蓄積可能なデ
ータ残量)が許容下限値まで減少すると、送信バッファ
27は、量子化制御信号によって量子化回路25の量子
化スケールを小さくさせることにより、量子化回路25
から出力される量子化データのデータ量を増大させる。
このようにして、送信バッファ27のオーバフローまた
はアンダフローが防止される。
The transmission buffer 27 temporarily stores the input coded data, and feeds back the coded data corresponding to the stored amount to the quantization circuit 25 as a quantization control signal. That is, when the data storage amount (remaining amount of data that can be stored) increases to the allowable upper limit, the transmission buffer 27 increases the quantization scale of the quantization circuit 25 by the above-described quantization control signal. 25, the data amount of the quantized data output from the control unit 25 is reduced. Conversely, when the data storage amount (remaining amount of data that can be stored) decreases to the allowable lower limit, the transmission buffer 27 reduces the quantization scale of the quantization circuit 25 by the quantization control signal. , Quantization circuit 25
Increase the data amount of the quantized data output from.
In this way, overflow or underflow of the transmission buffer 27 is prevented.

【0098】そして、送信バッファ27に蓄積された符
号化データは、所定のタイミングで読み出され、下位レ
イヤビットストリームとして伝送路に出力される。
The encoded data stored in the transmission buffer 27 is read out at a predetermined timing and output to the transmission path as a lower layer bit stream.

【0099】一方、量子化回路25より出力された量子
化データは、逆量子化回路28にも入力される。この逆
量子化回路28では、上記量子化回路25より供給され
た量子化データを、同じく量子化回路25より供給され
る量子化ステップに対応して逆量子化する。この逆量子
化回路28の出力信号(逆量子化することにより得られ
たDCT係数)は、IDCT(逆DCT)回路29に入
力され、ここで逆DCT処理された後、出力信号(画像
信号若しくは差分信号)が演算回路30に送られる。こ
の演算回路30では、IDCT回路29の出力信号が差
分信号である場合、動き補償回路32からの画像信号と
IDCT回路29からの差分信号とを加算して画像信号
を復元する。なお、IDCT回路29の出力信号がイン
トラマクロブロックである場合は、IDCT回路29か
らの画像信号がそのまま出力される。この画像信号は、
フレームメモリ31に供給され記憶される。動き補償回
路32は、フレームメモリ31の画像と動きベクトルと
予測モードとを用いて予測参照画像信号を生成する。
On the other hand, the quantized data output from the quantization circuit 25 is also input to the inverse quantization circuit 28. In the inverse quantization circuit 28, the quantized data supplied from the quantization circuit 25 is inversely quantized according to the quantization step also supplied from the quantization circuit 25. The output signal of this inverse quantization circuit 28 (DCT coefficient obtained by inverse quantization) is input to an IDCT (inverse DCT) circuit 29, where it is subjected to inverse DCT processing, and then the output signal (image signal or The difference signal is sent to the arithmetic circuit 30. When the output signal of the IDCT circuit 29 is a difference signal, the arithmetic circuit 30 restores the image signal by adding the image signal from the motion compensation circuit 32 and the difference signal from the IDCT circuit 29. When the output signal of the IDCT circuit 29 is an intra macro block, the image signal from the IDCT circuit 29 is output as it is. This image signal is
The data is supplied to and stored in the frame memory 31. The motion compensation circuit 32 generates a predicted reference image signal using the image in the frame memory 31, the motion vector, and the prediction mode.

【0100】IDCT回路29の出力信号すなわち局所
復号された差分信号はまた、図1の上位レイヤ符号化回
路3に供給される。
The output signal of the IDCT circuit 29, that is, the locally decoded difference signal is also supplied to the upper layer encoding circuit 3 of FIG.

【0101】またフレームメモリ31は、図1の上位レ
イヤ符号化回路3での符号化に従い、所定の局所復号画
像を読み出して図1の解像度変換回路4に出力する。
The frame memory 31 reads out a predetermined locally decoded image and outputs it to the resolution conversion circuit 4 in FIG. 1 in accordance with the coding in the upper layer coding circuit 3 in FIG.

【0102】図1に戻って、解像度変換回路4は、下位
レイヤの画像に対する上位レイヤの画像の解像度の倍率
を示すフラグFRに従い、下位レイヤ符号化回路5から
供給された画像信号の解像度を前述のようにフィルタリ
ング処理(この場合は拡大処理)により変換し、上位レ
イヤ符号化回路3に供給する。なお倍率が1の場合、す
なわち上位レイヤと下位レイヤの大きさが等しい場合
は、解像度変換回路4は何もせずにそのまま画像信号を
出力する。
Returning to FIG. 1, the resolution conversion circuit 4 determines the resolution of the image signal supplied from the lower layer encoding circuit 5 according to the flag FR indicating the magnification of the resolution of the upper layer image with respect to the lower layer image. , And is supplied to the upper layer encoding circuit 3 by filtering processing (enlargement processing in this case). When the magnification is 1, that is, when the size of the upper layer is equal to the size of the lower layer, the resolution conversion circuit 4 outputs the image signal without any operation.

【0103】また、前記画像信号階層化回路1によって
生成された上位レイヤの画像信号は、遅延回路2を介し
て上位レイヤ符号化回路3に供給される。遅延回路2で
は、下位レイヤ符号化回路5において所定の下位レイヤ
の画像信号を符号化に要する時間だけ、上記上位レイヤ
の画像信号を遅延する。
The upper layer image signal generated by the image signal layering circuit 1 is supplied to an upper layer encoding circuit 3 via a delay circuit 2. The delay circuit 2 delays the image signal of the upper layer by a time required for encoding the image signal of the predetermined lower layer in the lower layer encoding circuit 5.

【0104】次に、上位レイヤ符号化回路3の具体的な
構成を図4を用いて説明する。
Next, a specific configuration of the upper layer coding circuit 3 will be described with reference to FIG.

【0105】図4において、この上位レイヤ符号化3に
供給された上位レイヤの入力画像信号は、まずフレーム
メモリ41に入力されて記憶され、所定の順番で読み出
されて、後段の構成により符号化される。この符号化さ
れるべき画像データは、マクロブロック単位で当該フレ
ームメモリ41から読み出され、動きベクトル検出回路
42に入力される。動きベクトル検出回路42は、予め
設定されている所定のシーケンスに従って、各フレーム
の画像データを、Iピクチャ、Pピクチャ、またはBピ
クチャとして処理する。シーケンシャルに入力される各
フレームの画像を、I,P,Bのいずれのピクチャとし
て処理するかは、予め定められている(例えば、I,
B,P,B,P,・・・B,Pの順番にて処理され
る)。
In FIG. 4, the input image signal of the upper layer supplied to the upper layer coding 3 is first input to and stored in the frame memory 41, read out in a predetermined order, and encoded by the subsequent stage. Be transformed into The image data to be encoded is read from the frame memory 41 in macroblock units, and input to the motion vector detection circuit 42. The motion vector detection circuit 42 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. It is determined in advance whether an image of each sequentially input frame is processed as a picture of I, P, or B (for example, I, P, or B).
B, P, B, P,... B, P are processed in this order).

【0106】ここで、空間スケーラビリティの場合、上
位レイヤと下位レイヤの画像信号は、例えば図5のよう
に符号化されることになる。図5において、下位レイヤ
の最初の画像VOP21Lは、Iピクチャとして符号化
される。また、2番目以後の下位レイヤの画像VOP2
L〜VOP24Lは、Pピクチャとして符号化される。
この時の参照画像は、それぞれ直前の下位レイヤの画像
を参照画像として用いて符号化する。また、上位レイヤ
の最初の画像VOP21MはPピクチャとして符号化さ
れる。この時の参照画像は下位レイヤの同時刻の画像V
OP21Lとなる。2番目以後の上位レイヤの画像VO
P22M〜VOP24MはBピクチャとして符号化され
る。この場合、これらの画像VOP22M〜VOP24M
は、それぞれ直前の上位レイヤの画像および、それぞれ
同時刻の下位レイヤの画像VOP22L,VOP23L
VOP24Lを参照画像として用いて符号化する。また
この場合、上位レイヤのBピクチャは下位レイヤのPピ
クチャと同様に他の画像VOPを符号化する場合の参照
画像となる。なお、SNRスケーラビリティは、空間ス
ケーラビリティの特例であり、上位レイヤと下位レイヤ
の大きさが等しい場合であって、符号化の手順は同じで
ある。
Here, in the case of spatial scalability, the image signals of the upper layer and the lower layer are coded as shown in FIG. 5, for example. 5, first image VOP21 L of the lower layer is encoded as an I picture. Also, the image VOP2 of the second and lower layers below
1 L to VOP 24 L are encoded as P pictures.
The reference image at this time is encoded using the image of the immediately preceding lower layer as the reference image. Further, the first image VOP21 M of the upper layer is encoded as a P picture. The reference image at this time is an image V of the lower layer at the same time.
OP21 L is obtained. The image VO of the second or higher layer
P22 M ~VOP24 M is encoded as B pictures. In this case, these images VOP22 M ~VOP24 M
Are the images of the immediately preceding upper layer and the lower layer images VOP22 L , VOP23 L ,
It encoded using VOP24 L as the reference image. Also, in this case, the B picture of the upper layer becomes a reference image when encoding another image VOP, like the P picture of the lower layer. Note that SNR scalability is a special case of spatial scalability, in which the size of the upper layer is equal to that of the lower layer, and the coding procedure is the same.

【0107】また、テンポラルスケーラビリティの場合
は、例えば前記図2のようにして符号化されることにな
る。図2において、下位レイヤの最初の画像VOP0
は、Iピクチャとして符号化される。また、2番目以後
の下位レイヤの画像VOP2〜VOP6は、Pピクチャ
として符号化される。この時の参照画像は、それぞれ直
前の下位レイヤの画像を参照画像として用いて符号化す
る。また、上位レイヤの画像VOP1はBピクチャとし
て符号化され、この画像VOP1は下位レイヤの画像V
OP0および画像VOP2を参照画像とする。また、上
位レイヤの画像VOP3の場合は、Bピクチャとして符
号化され、直前の上位レイヤの画像VOP1および下位
レイヤの画像VOP4を参照画像とする。また、上位レ
イヤの画像VOP5の場合は、Pピクチャとして符号化
され、直前の上位レイヤの画像VOP3を参照画像とし
て用いる。
In the case of temporal scalability, encoding is performed, for example, as shown in FIG. In FIG. 2, the first image VOP0 of the lower layer
Is encoded as an I picture. Also, the images VOP2 to VOP6 of the second and lower layers are encoded as P pictures. The reference image at this time is encoded using the image of the immediately preceding lower layer as the reference image. Also, the image VOP1 of the upper layer is encoded as a B picture, and the image VOP1 is the image VOP of the lower layer.
OP0 and the image VOP2 are set as reference images. In the case of the image VOP3 of the upper layer, it is encoded as a B picture, and the image VOP1 of the immediately preceding upper layer and the image VOP4 of the lower layer are used as reference images. In the case of the upper layer image VOP5, it is encoded as a P picture, and the immediately preceding upper layer image VOP3 is used as a reference image.

【0108】以下に、上位レイヤのPおよびBピクチャ
の参照画像について説明する。
Hereinafter, reference pictures of P and B pictures in the upper layer will be described.

【0109】上位レイヤの予測の際には、同じレイヤの
画像だけでなく他の階層(スケーラブルレイヤ)の画像
も参照画像として用いることができる。例えば本実施の
形態のように2階層のスケーラビリティの場合、上位レ
イヤは下位レイヤの画像も参照画像として用いることが
できる。
At the time of prediction of an upper layer, not only an image of the same layer but also an image of another layer (scalable layer) can be used as a reference image. For example, in the case of scalability of two layers as in the present embodiment, the upper layer can use the image of the lower layer as a reference image.

【0110】Pピクチャは前方予測を行うが、その参照
画像として、同じ階層の画像または他の階層の画像を用
いることができる。Bピクチャでは、前方予測および後
方予測の参照画像としてそれぞれ同じ階層の画像または
他の階層の画像を用いることができる。また、Bピクチ
ャの場合、上記前方と後方の2枚の参照画像に加えて、
これら2枚の参照画像から生成される第3の画像を予測
参照画像生成に用いられる参照画像として用いることも
可能である。
The P picture performs forward prediction, and an image of the same layer or an image of another layer can be used as a reference image. In a B picture, an image of the same layer or an image of another layer can be used as a reference image for forward prediction and backward prediction. Also, in the case of a B picture, in addition to the two reference images of the front and rear,
It is also possible to use a third image generated from these two reference images as a reference image used for generating a predicted reference image.

【0111】これを図6を用いて説明する。画像VOP
11,VOP12は下位レイヤの画像を示し、画像V0
P13,VOP14は上位レイヤの画像を示す。下位レ
イヤの画像VOP11はIまたはPピクチャ、画像VO
P12はPピクチャである。また上位レイヤの画像VO
P13はPまたはBピクチャ、画像VOP14はBピク
チャである。拡大画像VM5及びVM6は下位レイヤの
画像を解像度変換(拡大)した画像である。図6の場
合、上位レイヤの画像VOP14は、前方予測の参照画
像として画像VOP13が用いられ、また後方予測の参
照画像として拡大画像VM6が用いられる。
This will be described with reference to FIG. Image VOP
11, VOP12 indicates an image of a lower layer, and an image V0
P13 and VOP14 indicate images of the upper layer. The lower layer image VOP11 is an I or P picture, an image VO
P12 is a P picture. Also, the image VO of the upper layer
P13 is a P or B picture, and image VOP14 is a B picture. The enlarged images VM5 and VM6 are images obtained by resolution-converting (enlarging) the image of the lower layer. In the case of FIG. 6, as the image VOP14 of the upper layer, the image VOP13 is used as a reference image for forward prediction, and the enlarged image VM6 is used as a reference image for backward prediction.

【0112】本発明の実施の形態における上位レイヤの
Bピクチャでは、これら2枚の予測参照画像から生成さ
れる画像も参照画像として用いられる。例えば図6の場
合、上位レイヤの画像VOP13および拡大画像VM6
より生成される予測画像PVが上位レイヤのBピクチャ
(VOP14)の参照画像として用いられる。すなわ
ち、上位レイヤの画像VOP14を符号化する場合、上
記画像VOP13と拡大画像VM6、予測画像PVの3
枚の画像が参照画像として用いられる。このように予測
画像PVは従来のMPEG方式に加えて、本実施の形態
による新しい予測モードにおける参照画像に用いられ
る。
In the B picture of the upper layer in the embodiment of the present invention, an image generated from these two predicted reference images is also used as a reference image. For example, in the case of FIG. 6, the image VOP13 of the upper layer and the enlarged image VM6
The generated predicted image PV is used as a reference image of the B picture (VOP14) of the upper layer. That is, when encoding the image VOP14 of the upper layer, the image VOP13, the enlarged image VM6, and the predicted image PV
The images are used as reference images. As described above, the predicted image PV is used as a reference image in a new prediction mode according to the present embodiment in addition to the conventional MPEG method.

【0113】より具体的に説明すると、前述したよう
に、MPEGにおける各参照画像の性質として、フレー
ム間の変化(差分)が大きい場合には、動き補償の効率
が下がり、同時刻の画像を参照画像とした方が効率が良
いという性質があるので、本実施の形態では、このよう
にフレーム間差分が大きい領域では同時刻の下位レイヤ
の画像から生成した拡大画像VM6を、上位レイヤの画
像VOP14の参照画像に用いるようにしている。ま
た、上位レイヤの画像信号は下位レイヤの画像信号と比
較して画質が良く、従って例えばフレーム間の変化(差
分)が少ない場合は上位レイヤの画像を用いた方が予測
誤差が少なくなるので、本実施の形態では、このように
フレーム間差分が小さい領域では同じ階層(上位レイ
ヤ)の直前の画像(VOP13)を、画像VOP14の
参照画像に用いるようにしている。
More specifically, as described above, when the change (difference) between frames is large as a property of each reference image in the MPEG, the efficiency of motion compensation is reduced and the image at the same time is referred to. In the present embodiment, the enlarged image VM6 generated from the image of the lower layer at the same time is used as the image VOP14 of the upper layer in the region where the difference between the frames is large, since the image has the property that the image is more efficient. Is used for the reference image. Also, the image signal of the upper layer has better image quality than the image signal of the lower layer, and thus, for example, when the change (difference) between frames is small, the prediction error is reduced by using the image of the upper layer. In the present embodiment, in such an area where the difference between frames is small, the image (VOP13) immediately before the same layer (upper layer) is used as a reference image of the image VOP14.

【0114】さらに、前述したように、MPEG方式の
空間スケーラブル符号化の情報が重複する場合、すなわ
ち上位レイヤのあるマクロブロックを符号化すると共に
それに対応する下位レイヤのマクロブロックの情報(D
CT係数)を伝送した場合には、同じ上位レイヤの直前
の画像を参照して予測を行うと、下位レイヤと上位レイ
ヤとで独立に情報が伝送されることになり、下位レイヤ
で伝送した情報が上位レイヤの符号化に生かされずに効
率低下の原因となるので、本実施の形態では、上記対応
する下位レイヤのマクロブロックのDCT係数を伝送し
た場合に、下位レイヤの画像を予測参照画像に用いるよ
うにして、データ伝送の重複を少なくし、符号化効率を
改善している。
Further, as described above, when the information of the spatial scalable coding of the MPEG system overlaps, that is, when a certain macroblock of the upper layer is coded and the information of the corresponding macroblock of the lower layer (D
In the case of transmitting the (CT coefficient), when the prediction is performed with reference to the image immediately before the same upper layer, the information is transmitted independently in the lower layer and the upper layer, and the information transmitted in the lower layer is transmitted. In the present embodiment, when the DCT coefficients of the corresponding lower-layer macroblock are transmitted, the lower-layer image is used as a prediction reference image because the DCT coefficient of the corresponding lower-layer macroblock is transmitted. In this case, duplication of data transmission is reduced, and coding efficiency is improved.

【0115】またさらに、MPEG2などの従来の画像
信号符号化方式においては予測モードはマクロブロック
単位で切り替えられるため、均一な画像領域の場合に当
該マクロブロック単位の予測モード切り替えを行えば十
分であるが、例えば複雑な動きをする画像であったり、
また画像の大きさが小さい場合には、マクロブロック中
に時間的に変化する領域としない領域が混在することに
なり、効率が落ちる原因となっているので、本実施の形
態では、この予測モードを画素単位で切り替えることを
可能とし、符号化効率を改善している。
Further, in a conventional image signal encoding system such as MPEG2, the prediction mode is switched in units of macroblocks, so that in the case of a uniform image area, it is sufficient to switch the prediction mode in units of macroblocks. However, for example, an image that moves complicatedly,
In addition, when the size of the image is small, a region that changes with time and a region that does not change temporally are mixed in the macroblock, which causes a decrease in efficiency. Can be switched on a pixel-by-pixel basis to improve coding efficiency.

【0116】このような画素単位の予測モード切り替え
は、MPEG2方式の参照画像に加えて、新たな参照画
像を生成することによって実現可能である。この新たな
参照画像は、下位レイヤおよび上位レイヤの参照画像を
画素単位で切り替えてコピーすることにより生成され
る。
[0116] Such prediction mode switching in pixel units can be realized by generating a new reference image in addition to the reference image of the MPEG2 system. The new reference image is generated by switching and copying the reference images of the lower layer and the upper layer in pixel units.

【0117】例えば図6においては、予測画像PVが上
記画素単位の予測モード切り替えを実現する参照画像で
ある。すなわち予測画像PVは画素単位で、画像VOP
13または拡大画像VM6からコピーすることによって
生成される画像である。したがって、予測画像PVを参
照画像とする場合、実質的に画素単位で予測モードを切
り替えることと等価である。
For example, in FIG. 6, the predicted image PV is a reference image for realizing the prediction mode switching on a pixel-by-pixel basis. That is, the predicted image PV is a pixel-by-pixel image VOP.
13 or an image generated by copying from the enlarged image VM6. Therefore, when the predicted image PV is used as the reference image, it is substantially equivalent to switching the prediction mode in pixel units.

【0118】以下、この予測画像PVを生成する手順
を、図6を参考にして説明する。
The procedure for generating the predicted image PV will be described below with reference to FIG.

【0119】上記上位レイヤの画像VOP14に対する
予測画像PVを生成する際には、各画素毎に画像VOP
13または拡大画像VM6のどちらの画像の画素を用い
るかの判定を行う。最も単純な場合、画素単位で下位レ
イヤの画像VOP12およびVOP11のそれぞれ対応
する位置の画素の差分をとり、その差分値があるしきい
値SLより大きい場合には下位レイヤの画像すなわち拡
大画像VM6から画素をコピーし、逆に、差分値がしき
い値SL以下である場合には上位レイヤの画像すなわち
画像VOP13から画素をコピーするようにすればよ
い。ただし、この判別方法では、下位レイヤと上位レイ
ヤの情報の重複を抑制することはできない。また、画像
中の物体が平行移動した場合には、動き補償が正確にあ
たるため、上位レイヤの画像を予測参照画像とすべきで
あるが、この方法では常に差分が大きくなり、下位レイ
ヤから予測されてしまう。したがって、この単純に同一
位置の画素値の変化を調べるだけでは平行移動に対応で
きていない。また、このような平行移動を含む画像シー
ケンスは多く存在するため、平行移動に対応できるよう
にしなければならない。
When generating a predicted image PV for the image VOP14 of the upper layer, the image VOP
It is determined which pixel of the image 13 or the enlarged image VM6 is used. In the simplest case, the difference between the pixels at the corresponding positions of the lower layer images VOP12 and VOP11 is calculated in pixel units. If the difference value is larger than a certain threshold SL, the lower layer image, that is, the enlarged image VM6 is used. Pixels may be copied, and conversely, if the difference value is equal to or smaller than the threshold value SL, pixels may be copied from the image of the upper layer, that is, the image VOP13. However, this discrimination method cannot suppress the duplication of information of the lower layer and the upper layer. In addition, when an object in the image moves in parallel, since the motion compensation is accurate, the image of the upper layer should be used as the prediction reference image. However, in this method, the difference always increases, and the prediction is performed from the lower layer. Would. Therefore, simply examining the change in the pixel value at the same position cannot cope with the parallel movement. Further, since there are many image sequences including such a translation, it is necessary to cope with the translation.

【0120】そこで、本実施の形態ではIDCT後の各
画素の値(すなわち、動き補償を行う前の値)を調べ、
その絶対値があるしきい値SLより大きい場合には下位
レイヤの画像すなわち拡大画像VM6から画素をコピー
し、しきい値SL以下である場合には上位レイヤの画像
すなわち画像VOP13から画素をコピーして、予測画
像PVを生成するようにすればよい。この判別方法によ
り、下位レイヤでDCT係数が伝送された場合(この場
合、IDCT後の画素値は大きな値を持つ)、下位レイ
ヤの画像が参照画像として選ばれやすくなり、上位レイ
ヤと下位レイヤの情報の重複を抑制することが可能とな
る。
Therefore, in this embodiment, the value of each pixel after IDCT (that is, the value before performing motion compensation) is checked.
If the absolute value is larger than a certain threshold SL, pixels are copied from the image of the lower layer, that is, the enlarged image VM6. Thus, the prediction image PV may be generated. According to this determination method, when the DCT coefficient is transmitted in the lower layer (in this case, the pixel value after IDCT has a large value), the image of the lower layer is easily selected as a reference image, and the upper layer and the lower layer are more likely to be selected. It is possible to suppress duplication of information.

【0121】このようなことを実現するためには、まず
下位レイヤの画像のフレーム間差分を示す差分画像DV
7を用いる。この差分画像DV7は 各マクロブロック
のIDCT後の出力である。
In order to realize this, first, a difference image DV indicating the inter-frame difference of the image of the lower layer is used.
7 is used. This difference image DV7 is an output of each macroblock after IDCT.

【0122】すなわち前述の装置構成に戻って説明する
と、図3におけるIDCT回路29の出力信号(下位レ
イヤの局部復号された差分信号)は、演算回路30に出
力されるとともに、図1及び図4に示す上位レイヤ符号
化回路3に伝送され、図4におけるフレームメモリ60
に記録される。フレームメモリ60に記録された差分画
像が、即ち図6における差分画像DV7である。したが
って、この差分画像DV7は、下位レイヤの画像VOP
12の符号化に用いられた動きベクトルを用いて動き補
償を行った際の差分画像である。画像VOP12におい
てフレーム内符号化(イントラ)されたマクロブロック
は、画像VOP12の復号画像信号そのものとなる。
That is, returning to the above-described device configuration, the output signal of the IDCT circuit 29 in FIG. 3 (the locally decoded difference signal of the lower layer) is output to the arithmetic circuit 30 and the output signal of FIG. Is transmitted to the upper layer coding circuit 3 shown in FIG.
Will be recorded. The difference image recorded in the frame memory 60 is the difference image DV7 in FIG. Therefore, the difference image DV7 is a lower layer image VOP.
12 is a differential image when motion compensation is performed using the motion vector used for encoding No. 12. A macroblock that has been intra-coded (intra) in the image VOP12 becomes a decoded image signal of the image VOP12 itself.

【0123】図4のしきい値回路62では、上記のしき
い値SLを設定しており、差分画像DV7の各画素の値
(差分値)の絶対値がそのしきい値SLを越えた場合、
各画素の値をそのまま出力し、また差分画像DV7の各
画素の値がしきい値SL以下である場合、その画素の値
を0として出力する。
In the threshold circuit 62 of FIG. 4, the above-described threshold value SL is set, and when the absolute value of the value (difference value) of each pixel of the difference image DV7 exceeds the threshold value SL. ,
The value of each pixel is output as it is, and when the value of each pixel of the difference image DV7 is equal to or less than the threshold value SL, the value of the pixel is output as 0.

【0124】予測画像PVは、しきい値回路62の出力
信号を参照し、画像VOP13および拡大画像VM6よ
り生成される。予測画像PVの各画素と差分画像DV7
の各画素の対応の一例を図7に示す。図7は上位レイヤ
の解像度が下位レイヤの解像度の2倍の場合を示してい
る。この場合、差分画像DV7の1画素に対して、予測
画像PVの4画素が対応することになる。即ち、予測画
像PVの4画素は、差分画像DV7中の1画素を参照し
て、切り替えを行う。
The predicted image PV is generated from the image VOP13 and the enlarged image VM6 by referring to the output signal of the threshold circuit 62. Each pixel of the prediction image PV and the difference image DV7
FIG. 7 shows an example of the correspondence between the respective pixels. FIG. 7 shows a case where the resolution of the upper layer is twice the resolution of the lower layer. In this case, four pixels of the prediction image PV correspond to one pixel of the difference image DV7. That is, the four pixels of the predicted image PV are switched with reference to one pixel in the difference image DV7.

【0125】予測画像PVの各画素について、差分画像
DV7の対応する位置の画素値がしきい値SLより大き
い値である場合、拡大画像VM6の画素に対する予測画
像PVの同一位置の画素の値を、この予測画像PVの画
素値とする。
When the pixel value of the corresponding position of the difference image DV7 is larger than the threshold value SL for each pixel of the prediction image PV, the value of the pixel at the same position of the prediction image PV with respect to the pixel of the enlarged image VM6 is calculated. , The pixel value of the predicted image PV.

【0126】また、差分画像DV7の対応する位置の画
素値がしきい値SL以下の値である場合、すなわちしき
い値回路62の出力が0である場合、画像VOP12の
対応する位置のマクロブロックの動きベクトルを用いて
動き補償した画像VOP13の画素を、予測画像PVの
画素値とする。
When the pixel value at the corresponding position of the difference image DV7 is equal to or less than the threshold value SL, that is, when the output of the threshold circuit 62 is 0, the macroblock at the corresponding position of the image VOP12 The pixel of the image VOP13 that has been motion-compensated using the motion vector is used as the pixel value of the predicted image PV.

【0127】この時、画像VOP12の対応する位置の
マクロブロックの動きベクトルは、上位レイヤの下位レ
イヤに対する解像度の倍率を示すフラグに従い、動きベ
クトルを変換する。たとえば、上位レイヤの解像度が下
位レイヤの解像度の2倍である場合、動きベクトルの値
を2倍する。予測画像PVの当該画素と同一位置から、
上記変換後の動きベクトル分だけ異なる位置の画像VO
P13の画素値を、予測画像PVの画素値とする。
At this time, the motion vector of the macroblock at the corresponding position in the image VOP12 is converted into a motion vector according to a flag indicating the magnification of the upper layer with respect to the lower layer. For example, when the resolution of the upper layer is twice the resolution of the lower layer, the value of the motion vector is doubled. From the same position as that pixel of the predicted image PV,
Images VO at different positions by the motion vector after the conversion
The pixel value of P13 is set as the pixel value of the predicted image PV.

【0128】このようなことを行うため前記図4におい
ては、下位レイヤから供給される動きベクトルはスケー
ル変換回路63に入力され、それぞれ2倍される。また
動きベクトルの無いマクロブロック(イントラ)では動
きベクトルは0とされる。2倍された動きベクトルは動
き補償回路64に供給される。動き補償回路64ではス
ケール変換された下位レイヤの動きベクトルに従い、フ
レームメモリ51の画像を動き補償してフレームメモリ
61に供給する。
In order to do this, in FIG. 4, the motion vector supplied from the lower layer is input to the scale conversion circuit 63 and is doubled. In a macro block (intra) having no motion vector, the motion vector is set to 0. The doubled motion vector is supplied to the motion compensation circuit 64. The motion compensation circuit 64 compensates the motion of the image in the frame memory 51 in accordance with the scale-converted lower-layer motion vector and supplies the image to the frame memory 61.

【0129】上述のように図6における差分信号DV7
は、図4の画像信号符号化の構成ではフレームメモリ6
0に記録されている。また図6における予測画像PVは
図4におけるフレームメモリ61に記録される。
As described above, the difference signal DV7 in FIG.
Is the frame memory 6 in the image signal encoding configuration of FIG.
0 is recorded. The predicted image PV in FIG. 6 is recorded in the frame memory 61 in FIG.

【0130】なお、図8には予測画像PVの一例を示
す。図8に示すように、差分画像DV7の画素の絶対値
がしきい値SL以下の領域では、上位レイヤの画像が用
いられ、また、しきい値SLより大きい場合は、下位レ
イヤの画像が用いられる。
FIG. 8 shows an example of the predicted image PV. As shown in FIG. 8, in a region where the absolute value of the pixel of the difference image DV7 is equal to or less than the threshold value SL, the image of the upper layer is used. Can be

【0131】以上のような予測画像PVを生成する方法
の流れを示したのが図9である。
FIG. 9 shows a flow of a method of generating the above-described predicted image PV.

【0132】この図9において、先ずステップST1で
は、下位レイヤのIDCT後の値から差分画像を構成す
る。次のステップST2では、対応する位置の差分画像
の値がしきい値SL以下であるか否かの判断を行う。こ
のステップST2において、対応する位置の差分画像の
値がしきい値SL以下である場合には、ステップST5
に進む。このステップST5では、下位レイヤの拡大画
像VM6の同一位置の画素値をコピーする。
In FIG. 9, first, in step ST1, a difference image is formed from the values after IDCT of the lower layer. In the next step ST2, it is determined whether or not the value of the difference image at the corresponding position is equal to or smaller than the threshold value SL. If the value of the difference image at the corresponding position is equal to or smaller than the threshold value SL in step ST2, step ST5
Proceed to. In this step ST5, the pixel value at the same position in the enlarged image VM6 of the lower layer is copied.

【0133】一方、ステップST2において、逆にしき
い値SLより大きいときには、ステップST3に進む。
このステップST3では、下位レイヤの動きベクトルを
2倍に拡大する。そして、次のステップST4では、そ
の動きベクトルを用いて動き補償を行い、上位レイヤの
参照画像からコピーすることにより、予測画像PVを構
成する。
On the other hand, if it is determined in step ST2 that the value is larger than the threshold value SL, the process proceeds to step ST3.
In step ST3, the motion vector of the lower layer is doubled. Then, in the next step ST4, motion compensation is performed using the motion vector, and the predicted image PV is constructed by copying from the reference image of the upper layer.

【0134】本実施の形態における上位レイヤのBピク
チャでは上記の通り、3枚の参照画像が予測参照画像を
生成するために用いられる。この予測モードはマクロブ
ロック単位で決定される。
In the B picture of the upper layer in the present embodiment, as described above, three reference images are used to generate a predicted reference image. This prediction mode is determined for each macroblock.

【0135】ここで、上位レイヤの符号化における予測
モードについて説明する。
Here, the prediction mode in the encoding of the upper layer will be described.

【0136】予測モードは、下位レイヤの符号化と同様
に、マクロブロック単位で決定される。上位レイヤのマ
クロブロックの予測モードには以下の種類がある。
The prediction mode is determined for each macroblock, as in the coding of the lower layer. There are the following types of prediction modes for macroblocks in the upper layer.

【0137】 (1) フレーム内予測(イントラ)マクロブロック (2) 前方予測(フォワード)マクロブロック (3) 後方予測(バックワード)マクロブロック (4) 両方向予測(バイディレクショナル)マクロブ
ロック (5) 画素単位予測マクロブロック 上記予測モードのうち、(1)〜(4)に示した予測モ
ードは、下位レイヤのマクロブロックの予測モードと同
様である。(5)に示した予測モードにおける画素単位
予測マクロブロックでは、予測画像PVを参照する。こ
のように予測画像PVを参照することにより、予測モー
ドを実質的に画素単位で切り替えることが可能となる。
当該画素単位予測マクロブロックでは、予測画像PVの
同一位置の画素を参照する。すなわち、動きベクトルは
0であるとし、動きベクトルは符号化されない。
(1) Intra-frame prediction (intra) macroblock (2) Forward prediction (forward) macroblock (3) Backward prediction (backward) macroblock (4) Bidirectional prediction (bidirectional) macroblock (5) Pixel-Based Prediction Macroblock Among the above-mentioned prediction modes, the prediction modes shown in (1) to (4) are the same as the prediction mode of the macroblock of the lower layer. The pixel-based prediction macroblock in the prediction mode shown in (5) refers to the prediction image PV. By referring to the prediction image PV in this way, it is possible to switch the prediction mode substantially in pixel units.
In the pixel unit prediction macro block, pixels at the same position in the prediction image PV are referred to. That is, the motion vector is assumed to be 0, and the motion vector is not encoded.

【0138】上記の5つのマクロブロックの予測モード
では、予測誤差を最小とするモードが選択される。予測
モードを示すフラグは可変長符号化回路によって符号
化、伝送される。
In the prediction mode of the above five macroblocks, the mode that minimizes the prediction error is selected. The flag indicating the prediction mode is encoded and transmitted by the variable length encoding circuit.

【0139】上記の通り、上位レイヤにおける予測で
は、予測参照画像を生成するための参照画像として、符
号化する画像と異なるスケーラブルレイヤの画像、例え
ば解像度の低い下位レイヤの画像を用いることが可能で
ある。したがって、上位レイヤでは、どのレイヤの画像
を予測参照画像を生成するための参照画像として用いた
かを示すフラグを伝送する必要がある。そこで、ここで
は、各スケーラブルレイヤについて同じレイヤ以外のど
のレイヤの画像を予測参照画像を生成するために用いた
のかを示すフラグ(後述するシンタクスの識別子(ref_
layer_id))を設定し符号化し、伝送する。また、各画
像(前記VOP)について、上記フラグ(ref_layer_i
d)に基づいて、前方(フォワード)予測および後方
(バックワード)予測をどのレイヤから予測するかを示
すフラグ(後述するシンタクスの識別子(ref_select_c
ode))を設定し符号化、伝送する。Pピクチャにおけ
るフラグ(ref_select_code)を図10の表に示す。ま
た、Bピクチャにおけるフラグ(ref_select_code)を
図11の表に示す。シンタクスについては詳細を後述す
る。
As described above, in the prediction in the upper layer, an image of a scalable layer different from the image to be coded, for example, an image of a lower layer having a lower resolution can be used as a reference image for generating a predicted reference image. is there. Therefore, the upper layer needs to transmit a flag indicating which layer image is used as a reference image for generating a predicted reference image. Therefore, here, a flag indicating which layer image other than the same layer is used to generate a predicted reference image for each scalable layer (a syntax identifier (ref_
layer_id)) is set, encoded, and transmitted. The flag (ref_layer_i) is set for each image (the VOP).
Based on d), a flag (a syntax identifier (ref_select_c to be described later) indicating from which layer the forward (forward) prediction and the backward (backward) prediction are to be predicted.
ode)) is set, encoded, and transmitted. The flag (ref_select_code) in the P picture is shown in the table of FIG. Also, the flag (ref_select_code) in the B picture is shown in the table of FIG. Details of the syntax will be described later.

【0140】上位レイヤと下位レイヤの参照画像は、前
記図5および図2以外にも図10に示す表および図11
に示す表の許す範囲内で自由に設定して良い。また、図
10の表および図11の表のシンタクスにおいては、空
間スケーラビリティやテンポラスケーラビリティについ
て明示的な区別は無い。
The reference images of the upper layer and the lower layer are shown in FIG. 10 and FIG.
May be set freely within the range permitted by the table shown in FIG. In the syntaxes of the tables in FIGS. 10 and 11, there is no explicit distinction between spatial scalability and temporal scalability.

【0141】ここで、Pピクチャの場合は、フラグ(re
f_select_code)が”11”の場合、フラグ(ref_layer
_id)が示すレイヤの同時刻の画像(VOP)を予測参
照画像を生成するための参照画像として用いる。これは
空間スケーラビリティやSNRスケーラビリティに用い
られる。その他のモードはテンポラルスケーラビリティ
に用いられる。
Here, in the case of a P picture, the flag (re
When f_select_code) is “11”, the flag (ref_layer
_id) is used as a reference image for generating a predicted reference image at the same time on the layer indicated by (_id). This is used for spatial scalability and SNR scalability. Other modes are used for temporal scalability.

【0142】Bピクチャの場合は、フラグ(ref_select
_code)が”00”の場合、フラグ(ref_layer_id)が
示すレイヤの同時刻の画像(VOP)と同じレイヤの直
前に復号した画像(VOP)を予測参照画像を生成する
ための参照画像として用いる。これは空間スケーラビリ
ティやSNRスケーラビリティに用いられる。その他の
モードはテンポラルスケーラビリティに用いられる。
In the case of a B picture, a flag (ref_select
When (_code) is “00”, an image (VOP) decoded immediately before the same layer (VOP) at the same time as the image (VOP) of the layer indicated by the flag (ref_layer_id) is used as a reference image for generating a predicted reference image. This is used for spatial scalability and SNR scalability. Other modes are used for temporal scalability.

【0143】ここで、図4に戻り、上位レイヤ符号化回
路3の構成について説明する。
Here, returning to FIG. 4, the configuration of the upper layer coding circuit 3 will be described.

【0144】各レイヤの各画像(VOP)は、I、P、
Bピクチャのどのタイプで符号化するかは予め決められ
る。前記図4の動きベクトル検出回路42は予め設定さ
れたピクチャタイプに基づき、フラグ(ref_layer_i
d)、(ref_select_code)を設定し、動き補償回路52
および可変長符号化回路46に出力する。
Each image (VOP) of each layer is composed of I, P,
Which type of B picture is to be encoded is determined in advance. The motion vector detection circuit 42 shown in FIG. 4 uses a flag (ref_layer_i) based on a preset picture type.
d), (ref_select_code) is set and the motion compensation circuit 52
And outputs it to the variable length coding circuit 46.

【0145】下位レイヤの画像(VOP)の局所復号画
像信号は、図1の解像度変換回路4を介して上位レイヤ
符号化回路3に供給され、図4のフレームメモリ54に
供給される。
The locally decoded image signal of the lower layer image (VOP) is supplied to the upper layer encoding circuit 3 via the resolution conversion circuit 4 in FIG. 1 and to the frame memory 54 in FIG.

【0146】動きベクトル検出回路42はまた、予め定
められた所定の参照フレームをフラグ(ref_layer_id)
およびフラグ(ref_select_code)に基づいてフレーム
メモリ41またはフレームメモリ51より参照し、動き
補償を行い、その動きベクトルを検出する。本発明にお
ける動き補償(フレーム間予測)には、前方予測,後方
予測,両方向予測、画素単位予測の4種類のモードがあ
る。Pピクチャの予測モードは前方予測のみであり、B
ピクチャの予測モードは前方予測,後方予測,両方向予
測,画素単位予測の4種類である。動きベクトル検出回
路42は、予測誤差を最小にする予測モードを選択しそ
の際の予測モードを発生する。
The motion vector detecting circuit 42 sets a predetermined reference frame to a flag (ref_layer_id).
Reference is made from the frame memory 41 or the frame memory 51 based on the and the flag (ref_select_code) to perform motion compensation and detect the motion vector. The motion compensation (inter-frame prediction) according to the present invention has four modes: forward prediction, backward prediction, bidirectional prediction, and pixel unit prediction. The prediction mode of the P picture is only forward prediction,
There are four types of picture prediction modes: forward prediction, backward prediction, bidirectional prediction, and pixel unit prediction. The motion vector detection circuit 42 selects a prediction mode that minimizes the prediction error, and generates the prediction mode at that time.

【0147】ただし、画素単位予測モードではフレーム
メモリ61に記録されている画像信号を参照する。ま
た、このモードでは動きベクトルを0とする。
However, in the pixel unit prediction mode, an image signal recorded in the frame memory 61 is referred to. In this mode, the motion vector is set to 0.

【0148】この際、予測誤差は、例えば符号化するマ
クロブロックの分散と比較され、マクロブロックの分散
の方が小さい場合、そのマクロブロックでは予測は行わ
ず、フレーム内符号化が行われる。この場合予測モード
は画像内符号化(イントラ)となる。動きベクトルおよ
び上記予測モードは可変長符号化回路46および動き補
償回路52に入力される。
At this time, the prediction error is compared with, for example, the variance of the macroblock to be coded. If the variance of the macroblock is smaller, the prediction is not performed on the macroblock and the intra-frame coding is performed. In this case, the prediction mode is intra-picture coding (intra). The motion vector and the prediction mode are input to the variable length coding circuit 46 and the motion compensation circuit 52.

【0149】動きベクトル検出回路42にはまた、下位
レイヤに対して上位レイヤの大きさ(解像度)が何倍で
あるかを示すフラグFRが供給される。図11に示した
表より、Bピクチャ(画像VOP)の場合は、フラグ
(ref_select_code=="00")の時空間スケーラビリティ
であり、この時、後方(バックワード)予測は下位レイ
ヤからの予測、前方(フォワード)予測は同じレイヤの
直前に後方予測を用いて復号した画像(VOP)からの
予測となる。倍率を示すフラグが1であり(下位レイヤ
と上位レイヤの解像度が等しい)、かつフラグ(ref_se
lect_code=="00")である場合は、空間スケーラビリテ
ィの特殊な場合であり、SNRスケーラビリティである
ことを示す。この場合、上位レイヤの前方予測には、下
位レイヤの同時刻のVOPが用いた動きベクトルと予測
モードとをそのまま用いる。したがって、この場合、動
きベクトル検出回路42は下位レイヤから供給される動
きベクトルおよび予測モードを、動き補償回路52に供
給する。この場合、可変長符号化回路46は動きベクト
ルを符号化しない。
The motion vector detecting circuit 42 is also supplied with a flag FR indicating how many times the size (resolution) of the upper layer is lower than the lower layer. According to the table shown in FIG. 11, the spatio-temporal scalability of the flag (ref_select_code == "00") is obtained in the case of a B picture (image VOP). The forward (forward) prediction is prediction from an image (VOP) decoded using backward prediction immediately before the same layer. The flag indicating the magnification is 1 (the lower layer and the upper layer have the same resolution), and the flag (ref_se
(lect_code == "00") is a special case of spatial scalability and indicates SNR scalability. In this case, for the forward prediction of the upper layer, the motion vector and the prediction mode used by the VOP at the same time of the lower layer are used as they are. Therefore, in this case, the motion vector detection circuit 42 supplies the motion vector and the prediction mode supplied from the lower layer to the motion compensation circuit 52. In this case, the variable length coding circuit 46 does not code the motion vector.

【0150】Bピクチャ(VOP)においては、フラグ
(ref_select_code=="00")の場合にのみ画素単位予測
モードが用いられる。すなわち、Bピクチャにおいて
は、上位レイヤと同時刻の下位レイヤの画像を参照画像
として用いるときのみ、画素単位予測モードが用いられ
る。
In a B picture (VOP), the pixel unit prediction mode is used only when the flag (ref_select_code = “00”) is set. That is, in the B picture, the pixel unit prediction mode is used only when the image of the lower layer at the same time as the upper layer is used as the reference image.

【0151】なお、動きベクトル検出回路42には、下
位レイヤ符号化回路5からのフラグ(下位レイヤCO
D)が供給され、動きベクトルを検出する際に利用され
る。
The motion vector detection circuit 42 has a flag (lower layer CO
D) is supplied and used in detecting a motion vector.

【0152】動き補償回路52では、所定の動きベクト
ルに基づいてフレームメモリ51およびフレームメモリ
54に記憶された参照画像から予測参照画像を生成し、
予測参照画像信号として演算回路43に入力する。
The motion compensation circuit 52 generates a predicted reference image from the reference images stored in the frame memories 51 and 54 based on a predetermined motion vector.
It is input to the arithmetic circuit 43 as a predicted reference image signal.

【0153】なお、動きベクトル検出回路43及び動き
補償回路52で、上位レイヤVOPサイズ及び上位レイ
ヤVOPオフセット、下位レイヤVOPサイズ及び下位
レイヤVOPオフセットが利用される。ただし、図面に
おいて、煩雑化を防ぐため、図示は省略する。
The motion vector detecting circuit 43 and the motion compensating circuit 52 use the upper layer VOP size and the upper layer VOP offset, the lower layer VOP size and the lower layer VOP offset. However, illustration is omitted in the drawings to prevent complication.

【0154】演算回路43では、マクロブロック単位で
符号化する画像信号の値と予測参照画像信号の値の差分
信号をDCT回路24に出力する。イントラマクロブロ
ックの場合、演算回路43は符号するマクロブロックの
信号をそのままDCT回路44に出力する。
The arithmetic circuit 43 outputs to the DCT circuit 24 a difference signal between the value of the image signal to be encoded in macroblock units and the value of the predicted reference image signal. In the case of an intra macroblock, the arithmetic circuit 43 outputs the macroblock signal to be encoded to the DCT circuit 44 as it is.

【0155】DCT回路44では、DCT(離散コサイ
ン変換)処理され、DCT係数に変換される。このDC
T係数は、量子化回路45に入力され、送信バッファ4
7のデータ蓄積量(バッファ蓄積量)に対応した量子化
ステップで量子化された後、量子化データが可変長符号
化回路46に入力される。
In the DCT circuit 44, DCT (Discrete Cosine Transform) processing is performed, and the data is converted into DCT coefficients. This DC
The T coefficient is input to the quantization circuit 45, and the transmission buffer 4
After being quantized in the quantization step corresponding to the data storage amount (buffer storage amount) of No. 7, the quantized data is input to the variable length coding circuit 46.

【0156】可変長符号化回路46は、量子化回路45
より供給される量子化ステップ(スケール)に対応し
て、量子化回路45より供給される量子化データ(いま
の場合、Iピクチャのデータ)を、例えばハフマン符号
などの可変長符号に変換し、符号化データを送信バッフ
ァ47に出力する。なお、可変長符号化回路46には、
下位レイヤ符号化回路5からのフラグCODが供給さ
れ、可変長符号化する際に利用される。
The variable length coding circuit 46 includes a quantization circuit 45
The quantization data (in this case, I-picture data) supplied from the quantization circuit 45 is converted into a variable-length code such as a Huffman code in accordance with the supplied quantization step (scale). The encoded data is output to the transmission buffer 47. The variable length coding circuit 46 has:
The flag COD from the lower layer coding circuit 5 is supplied and used when performing variable length coding.

【0157】可変長符号化回路46にはまた、量子化回
路45より量子化ステップ(スケール)、動きベクトル
検出回路42より予測モード(画像内予測、前方予測、
後方予測、両方向予測または画素単位予測のいずれが設
定されたかを示すモード)および動きベクトルが入力さ
れており、これらも可変長符号化される。
The variable length coding circuit 46 also includes a quantization step (scale) from the quantization circuit 45 and a prediction mode (intra-picture prediction, forward prediction,
A mode indicating which of backward prediction, bidirectional prediction, and pixel-based prediction has been set) and a motion vector are input, and these are also variable-length coded.

【0158】可変長符号化回路46はまた、上位レイヤ
の画像(VOP)の大きさを示すフラグ(上位レイヤV
OPサイズ)および絶対座標における位置を示すフラグ
(上位レイヤVOPオフセット)が入力されており、こ
れらも符号化される。
The variable length coding circuit 46 also includes a flag (upper layer V) indicating the size of the image (VOP) of the upper layer.
An OP size) and a flag (upper layer VOP offset) indicating a position in absolute coordinates are input, and these are also encoded.

【0159】可変長符号化回路46はまた、下位レイヤ
の解像度に対して上位レイヤの解像度が何倍であるかを
示すフラグFRが入力されており、これも符号化され
る。
The variable-length encoding circuit 46 also receives a flag FR indicating how many times the resolution of the upper layer is higher than the resolution of the lower layer, and this is also encoded.

【0160】送信バッファ47は、入力された符号化デ
ータを一時蓄積し、その蓄積量に対応するデータを量子
化回路45に出力する。
The transmission buffer 47 temporarily stores the input coded data, and outputs data corresponding to the stored amount to the quantization circuit 45.

【0161】送信バッファ47は、その蓄積量(蓄積可
能なデータ残量)が許容上限値まで増量すると、量子化
制御信号によって量子化回路45の量子化スケールを大
きくすることにより、量子化データのデータ量を低下さ
せる。また、これとは逆に、蓄積量(蓄積可能なデータ
残量)が許容下限値まで減少すると、送信バッファ47
は、量子化制御信号によって量子化回路45の量子化ス
ケールを小さくすることにより、量子化データのデータ
量を増大させる。このようにして、送信バッファ47の
オーバフローまたはアンダフローが防止される。
The transmission buffer 47 increases the quantization scale of the quantization circuit 45 by the quantization control signal when the storage amount (remaining amount of storable data) increases to the permissible upper limit value. Decrease the amount of data. Conversely, when the storage amount (the remaining amount of data that can be stored) decreases to the allowable lower limit, the transmission buffer 47
Increases the data amount of the quantized data by reducing the quantization scale of the quantization circuit 45 by the quantization control signal. In this way, overflow or underflow of the transmission buffer 47 is prevented.

【0162】そして、送信バッファ47に蓄積されたデ
ータは、所定のタイミングで読み出され、伝送路に出力
される。
The data stored in the transmission buffer 47 is read at a predetermined timing and output to the transmission path.

【0163】一方、量子化回路45より出力された量子
化データは、逆量子化回路48にも入力され、ここで量
子化回路45より供給される量子化ステップに対応して
逆量子化される。逆量子化回路48の出力信号(逆量子
化により得られたDCT係数)は、IDCT(逆DC
T)回路49に入力され、ここで逆DCT処理された
後、出力信号(画像信号若しくは差分信号)が演算回路
50に送られる。
On the other hand, the quantized data output from the quantization circuit 45 is also input to the inverse quantization circuit 48, where it is inversely quantized according to the quantization step supplied from the quantization circuit 45. . An output signal of the inverse quantization circuit 48 (DCT coefficient obtained by inverse quantization) is IDCT (inverse DCT).
T) The signal is input to the circuit 49, where the output signal (image signal or difference signal) is sent to the arithmetic circuit 50 after the inverse DCT processing.

【0164】この演算回路50では、IDCT回路49
の出力信号が差分信号である場合、動き補償回路52の
画像信号とIDCT回路49の差分信号とを加算して画
像信号を復元する。なお、IDCT回路49の出力信号
がイントラマクロブロックである場合は、IDCT回路
50からの画像信号がそのまま出力される。この画像信
号はフレームメモリ51に記憶される。
In the arithmetic circuit 50, the IDCT circuit 49
Is an differential signal, the image signal of the motion compensation circuit 52 and the differential signal of the IDCT circuit 49 are added to restore the image signal. When the output signal of the IDCT circuit 49 is an intra macro block, the image signal from the IDCT circuit 50 is output as it is. This image signal is stored in the frame memory 51.

【0165】図1に戻って上位レイヤ符号化回路3およ
び下位レイヤ符号化回路5のそれぞれ出力ビットストリ
ームである上位レイヤのビットストリームと下位レイヤ
のビットストリームは、多重化回路6に入力される。多
重化回路6は下位レイヤおよび上位レイヤのビットスト
リームを多重化し、ビットストリームとして出力する。
そして、このビットストリームは、伝送路7を介して受
信装置に伝送されるか、若しくは図示しない記録装置に
供給され、記録媒体8に記録される。なお、この際、他
に分離された画像信号がある場合には、さらに多重化さ
れて記録される。
Returning to FIG. 1, the upper layer bit stream and the lower layer bit stream which are the output bit streams of the upper layer coding circuit 3 and the lower layer coding circuit 5, respectively, are input to the multiplexing circuit 6. The multiplexing circuit 6 multiplexes the bit streams of the lower layer and the upper layer and outputs the multiplexed bit stream.
Then, this bit stream is transmitted to the receiving device via the transmission path 7 or supplied to a recording device (not shown) and recorded on the recording medium 8. At this time, if there is another separated image signal, it is further multiplexed and recorded.

【0166】次ぎに図12には、図1に示した画像信号
符号化装置に対応する実施の形態における画像信号復号
装置の一例を示す。
Next, FIG. 12 shows an example of an image signal decoding apparatus according to an embodiment corresponding to the image signal encoding apparatus shown in FIG.

【0167】この図12において、伝送路86を介して
供給されたビットストリームを図示しない受信装置で受
信するか、記録媒体87に記録されているビットストリ
ームを図示しない再生装置で再生する。そして、このビ
ットストリームはまず逆多重化回路81に入力される。
逆多重化回路81では、上記ビットストリームを逆多重
化、すなわち上位レイヤのビットストリームと下位レイ
ヤのビットストリームに分離して出力する。
In FIG. 12, the bit stream supplied via the transmission line 86 is received by a receiving device (not shown), or the bit stream recorded on the recording medium 87 is reproduced by a reproducing device (not shown). Then, this bit stream is first input to the demultiplexing circuit 81.
The demultiplexing circuit 81 demultiplexes the bit stream, that is, separates and outputs the bit stream of the upper layer and the bit stream of the lower layer.

【0168】下位レイヤのビットストリームはそのまま
下位レイヤ復号回路85に供給される。また上位レイヤ
のビットストリームは遅延回路82を介して上位レイヤ
復号回路83に供給される。
The bit stream of the lower layer is supplied to the lower layer decoding circuit 85 as it is. The bit stream of the upper layer is supplied to the upper layer decoding circuit 83 via the delay circuit 82.

【0169】遅延回路82では下位レイヤ復号回路85
で1画像(1VOP分)を復号するのに要する時間だけ
遅延した後、上位レイヤ復号回路83に上位レイヤのビ
ットストリームを供給する。
In the delay circuit 82, the lower layer decoding circuit 85
Then, after delaying the time required to decode one image (for one VOP), the upper-layer bit stream is supplied to the upper-layer decoding circuit 83.

【0170】下位レイヤ復号回路85の具体的な構成を
図13を用いて説明する。
The specific configuration of the lower layer decoding circuit 85 will be described with reference to FIG.

【0171】下位レイヤビットストリームは、受信バッ
ファ91に一時記憶された後、符号化データとして可変
長復号回路92に供給される。可変長復号回路92は、
受信バッファ91より供給された符号化データを可変長
復号化し、動きベクトルと予測モードとを動き補償回路
97に、また、量子化ステップを逆量子化回路93にそ
れぞれ出力すると共に、可変長復号された量子化データ
を逆量子化回路93に出力する。
After the lower layer bit stream is temporarily stored in the reception buffer 91, it is supplied to the variable length decoding circuit 92 as encoded data. The variable length decoding circuit 92
The encoded data supplied from the reception buffer 91 is variable-length decoded, and the motion vector and the prediction mode are output to the motion compensation circuit 97, and the quantization step is output to the inverse quantization circuit 93. The quantized data is output to the inverse quantization circuit 93.

【0172】可変長復号回路92はまた、下位レイヤの
画像(VOP)の大きさを示すフラグ(下位レイヤVO
Pサイズ)及び絶対座標における位置を示すフラグ(下
位レイヤVOPオフセット)を復号し、動き補償回路9
7とフレームメモリ96で利用されるために出力する。
これらのフラグ及び動きベクトルと予測モードはまた図
12の上位レイヤ復号回路83に供給される。さらに、
可変長復号回路92は、スキップマクロブロックである
かどうかを示すフラグCODを復号し、下位レイヤCO
Dとして動き補償回路97及び図12の上位レイヤ復号
回路83に供給する。
The variable length decoding circuit 92 further includes a flag (lower layer VO) indicating the size of the lower layer image (VOP).
P size) and a flag (lower layer VOP offset) indicating the position in the absolute coordinates are decoded.
7 and output for use by the frame memory 96.
These flags, the motion vector, and the prediction mode are also supplied to the upper layer decoding circuit 83 in FIG. further,
The variable length decoding circuit 92 decodes a flag COD indicating whether or not the block is a skip macro block, and
D is supplied to the motion compensation circuit 97 and the upper layer decoding circuit 83 in FIG.

【0173】逆量子化回路93は、可変長復号回路92
より供給された量子化データを、同じく可変長復号化回
路92より供給された量子化ステップに従って逆量子化
し、出力信号IDCT回路94に出力する。逆量子化回
路93より出力された出力信号(DCT係数)は、ID
CT回路94で逆DCT処理された後、その出力信号
(画像信号若しくは差分画像信号)が演算回路95に供
給される。
The inverse quantization circuit 93 includes a variable length decoding circuit 92
The supplied quantized data is inversely quantized according to the quantization step also supplied from the variable length decoding circuit 92, and is output to the output signal IDCT circuit 94. The output signal (DCT coefficient) output from the inverse quantization circuit 93 has ID
After the inverse DCT processing is performed by the CT circuit 94, the output signal (image signal or difference image signal) is supplied to the arithmetic circuit 95.

【0174】IDCT回路94の出力信号(差分画像信
号)はまた、図12の上位レイヤの復号回路85に供給
され記憶される。
The output signal (difference image signal) of the IDCT circuit 94 is also supplied to and stored in the decoding circuit 85 of the upper layer in FIG.

【0175】IDCT回路94より供給された画像信号
が、Iピクチャのデータである場合、その画像信号は演
算回路95よりそのまま出力され、演算回路95に対し
て後に入力される差分画像信号(PまたはBピクチャの
データ)の予測参照画像信号の生成のために、フレーム
メモリ96に供給されて記憶される。また、この画像信
号は、そのまま、再生画像として外部に出力される。
When the image signal supplied from the IDCT circuit 94 is I-picture data, the image signal is output as it is from the arithmetic circuit 95, and the differential image signal (P or The data is supplied to and stored in the frame memory 96 for generating a predicted reference image signal of (B picture data). This image signal is output as it is to the outside as a reproduced image.

【0176】入力ビットストリームがPまたはBピクチ
ャの場合、動き補償回路97は可変長復号回路92より
供給される動きベクトルおよび予測モードに従って、予
測参照画像を生成し、予測参照画像信号を演算回路95
に出力する。演算回路95ではIDCT回路94より入
力される差分画像信号と動き補償回路97より供給され
る予測参照画像信号を加算して、出力再生画像として出
力する。またPピクチャの場合、演算回路95からの画
像信号はまた、フレームメモリ96に入力され記憶さ
れ、次に復号する画像信号の参照画像とされる。
When the input bit stream is a P or B picture, the motion compensating circuit 97 generates a predicted reference image according to the motion vector and the prediction mode supplied from the variable length decoding circuit 92, and calculates the predicted reference image signal by the operation circuit 95.
Output to The arithmetic circuit 95 adds the difference image signal input from the IDCT circuit 94 and the predicted reference image signal supplied from the motion compensation circuit 97, and outputs the result as an output reproduced image. In the case of a P-picture, the image signal from the arithmetic circuit 95 is also input to and stored in the frame memory 96, and is used as a reference image of an image signal to be decoded next.

【0177】図12に戻って、逆多重化回路81におい
て逆多重化された上位レイヤのビットストリームは、遅
延回路82を介して上位レイヤ復号回路83に供給され
る。図14を用いて上位レイヤ復号回路83の具体的構
成を説明する。
Returning to FIG. 12, the upper layer bit stream demultiplexed by the demultiplexing circuit 81 is supplied to the upper layer decoding circuit 83 via the delay circuit. A specific configuration of the upper layer decoding circuit 83 will be described with reference to FIG.

【0178】上位レイヤのビットストリームは、受信バ
ッファ101に一時記憶された後、符号化データとして
可変長復号回路102に供給される。可変長復号回路1
02は、受信バッファ101より供給された符号化デー
タを可変長復号化し、動きベクトルと予測モードを動き
補償回路107に、また、量子化ステップを逆量子化回
路103にそれぞれ出力するとともに、可変長復号され
た量子化データを逆量子化回路103に出力する。
The bit stream of the upper layer is temporarily stored in the reception buffer 101 and then supplied to the variable length decoding circuit 102 as encoded data. Variable length decoding circuit 1
Numeral 02 decodes the coded data supplied from the reception buffer 101 into a variable length, outputs the motion vector and the prediction mode to the motion compensation circuit 107, and outputs the quantization step to the inverse quantization circuit 103. The decoded quantized data is output to the inverse quantization circuit 103.

【0179】可変長復号回路102はまた、上位レイヤ
の画像(VOP)の大きさを示すフラグ(上位レイヤV
OPサイズ)及び絶対座標における位置を示すフラグ
(上位レイヤVOPオフセット)を復号し、動き補償回
路107とフレームメモリ106で利用するために出力
する。
The variable-length decoding circuit 102 also provides a flag (upper layer V) indicating the size of the image (VOP) of the upper layer.
An OP size) and a flag (upper layer VOP offset) indicating a position in absolute coordinates are decoded and output for use by the motion compensation circuit 107 and the frame memory 106.

【0180】可変長復号回路102はまた、下位レイヤ
の画像(VOP)に対する上位レイヤの画像(VOP)
の大きさ(解像度)の倍率を示すフラグFRを復号し、
動き補償回路107及び、図12における解像度変換回
路84に出力する。
The variable length decoding circuit 102 also provides an upper layer image (VOP) with respect to a lower layer image (VOP).
Decoding the flag FR indicating the magnification of the size (resolution) of
The signal is output to the motion compensation circuit 107 and the resolution conversion circuit 84 in FIG.

【0181】図12における解像度変換回路84は、復
号された下位レイヤの画像(VOP)の画像信号及びキ
ー(key)信号を、倍率を示すフラグFRに従ってフィ
ルタリングにより解像度変換し、上位レイヤ復号回路8
3中のフレームメモリ119に供給する。
The resolution conversion circuit 84 in FIG. 12 converts the decoded image signal of the lower layer image (VOP) and key signal by filtering according to the flag FR indicating the magnification, and converts the resolution into the upper layer decoding circuit 8.
3 is supplied to the frame memory 119 of FIG.

【0182】可変長復号回路102はまた、予測の参照
に用いるレイヤを示すフラグ(ref_layer_id)及び(ref_s
elect_code)を復号し、動き補償回路107に出力す
る。
The variable length decoding circuit 102 also sets flags (ref_layer_id) and (ref_s
elect_code) and outputs it to the motion compensation circuit 107.

【0183】逆量子化回路103は、可変長復号回路1
02より供給された量子化データを、同じく可変長復号
化回路102より供給された量子化ステップに従って逆
量子化し、出力信号IDCT回路104に出力する。逆
量子化回路103より出力された出力信号(DCT係
数)は、IDCT回路104で逆DCT処理され、その
出力信号(画像信号若しくは差分画像信号)が演算回路
105に供給される。
The inverse quantization circuit 103 includes the variable length decoding circuit 1
02 is inversely quantized in accordance with the quantization step also supplied from the variable length decoding circuit 102, and is output to the output signal IDCT circuit 104. The output signal (DCT coefficient) output from the inverse quantization circuit 103 is subjected to inverse DCT processing in the IDCT circuit 104, and the output signal (image signal or difference image signal) is supplied to the arithmetic circuit 105.

【0184】IDCT回路104より供給された画像信
号が、Iピクチャである場合、その画像信号は演算回路
105よりそのまま出力され、演算回路105に後に入
力される差分画像信号(PまたはBピクチャのデータ)
の予測参照画像の生成のために、フレームメモリ106
に供給されて記憶される。また、この画像信号は、その
まま再生画像として外部に出力される。
When the image signal supplied from the IDCT circuit 104 is an I picture, the image signal is output as it is from the arithmetic circuit 105, and the differential image signal (P or B picture data) inputted later to the arithmetic circuit 105 )
Frame memory 106 for generating a predicted reference image of
And stored. This image signal is output to the outside as a reproduced image as it is.

【0185】入力ビットストリームがPまたはBピクチ
ャの場合、動き補償回路107は可変長復号回路102
より供給される動きベクトルおよび予測モード及び下位
レイヤCOD及び参照するレイヤを示すフラグ(ref_la
yer_id),(ref_select_code)に従って、予測参照画
像をフレームメモリ106からの画像信号とフレームメ
モリ119からの画像信号より生成し、予測参照画像信
号を演算回路105に出力する。また、この時、上位レ
イヤVOPサイズ及び上位レイヤVOPオフセット、下
位レイヤVOPサイズ及び下位レイヤVOPオフセット
が利用される。演算回路105ではIDCT回路104
より入力される差分画像信号と動き補償回路107より
供給される予測参照画像信号を加算して、出力再生画像
として出力する。またPピクチャの場合、演算回路10
5からの画像信号はまた、フレームメモリ106に入力
され記憶され、次に復号する画像信号の予測参照画像と
される。
When the input bit stream is a P or B picture, the motion compensation circuit 107
A flag (ref_la indicating the motion vector, prediction mode, lower layer COD, and reference layer supplied from the
yer_id) and (ref_select_code), a predicted reference image is generated from the image signal from the frame memory 106 and the image signal from the frame memory 119, and the predicted reference image signal is output to the arithmetic circuit 105. At this time, the upper layer VOP size and the upper layer VOP offset, the lower layer VOP size and the lower layer VOP offset are used. In the arithmetic circuit 105, the IDCT circuit 104
The difference image signal input from the motion compensation circuit 107 and the prediction reference image signal supplied from the motion compensation circuit 107 are added and output as an output reproduction image. In the case of a P picture, the arithmetic circuit 10
5 is also input to and stored in the frame memory 106, and is used as a predicted reference image of an image signal to be decoded next.

【0186】図12の上位レイヤ復号回路83では、符
号化回路において前記図6の予測画像PVを生成した方
法と同様に予測参照画像を生成し、図14におけるフレ
ームメモリ112に記憶する。
The upper layer decoding circuit 83 of FIG. 12 generates a prediction reference image in the same manner as the method of generating the prediction image PV of FIG. 6 in the encoding circuit, and stores it in the frame memory 112 of FIG.

【0187】図13の下位レイヤ復号回路85における
IDCT回路94の出力信号(画像信号若しくは差分画
像信号)は上位レイヤ復号回路83に供給され、図14
におけるフレームメモリ110に供給される。しきい値
回路111は、図4の符号化回路におけるしきい値回路
62と同様に、フレームメモリ110に記録された信号
の絶対値があるしきい値SLを越えるどうかを調べ、し
きい値SL以下の場合に0を出力し、しきい値SLより
大きい場合にフレームメモリ110の信号をそのまま出
力する。
The output signal (image signal or difference image signal) of the IDCT circuit 94 in the lower layer decoding circuit 85 of FIG. 13 is supplied to the upper layer decoding circuit 83,
Is supplied to the frame memory 110 at The threshold circuit 111 checks whether the absolute value of the signal recorded in the frame memory 110 exceeds a certain threshold SL, like the threshold circuit 62 in the encoding circuit of FIG. In the following cases, 0 is output, and when it is larger than the threshold value SL, the signal of the frame memory 110 is output as it is.

【0188】フレームメモリ112に記録される予測参
照画像信号は、フレームメモリ110に記録されている
対応する位置の差分画像信号の値がしきい値SLより大
きいかどうかに応じてフレームメモリ106またはフレ
ームメモリ119からコピーして生成される。しきい値
回路111の対応する位置の出力が0である場合、即ち
フレーム間差分が少ない場合、上位レイヤの画像信号即
ちフレームメモリ106からコピーされる。この時、図
12の下位レイヤ復号回路85から供給される動きベク
トルを用い、動き補償を行う。
The predicted reference image signal recorded in the frame memory 112 is transmitted to the frame memory 106 or the frame memory depending on whether the value of the differential image signal at the corresponding position recorded in the frame memory 110 is larger than the threshold value SL. It is generated by copying from the memory 119. If the output of the corresponding position of the threshold circuit 111 is 0, that is, if the difference between frames is small, the image signal of the upper layer, that is, the frame signal 106 is copied. At this time, motion compensation is performed using the motion vector supplied from the lower layer decoding circuit 85 in FIG.

【0189】また、下位レイヤ復号回路83から供給さ
れる動きベクトルは、スケール回路114によって2倍
される。2倍された動きベクトルは動き補償回路113
に供給される。動き補償回路113では、フレームメモ
リ106から画素をコピーする場合、スケール回路11
4より供給される動きベクトルにしたがって、動き補償
を行い、画素をコピーする。
Further, the motion vector supplied from the lower layer decoding circuit 83 is doubled by the scale circuit 114. The doubled motion vector is supplied to the motion compensation circuit 113.
Supplied to In the motion compensation circuit 113, when copying pixels from the frame memory 106, the scale circuit 11
According to the motion vector supplied from No. 4, motion compensation is performed and pixels are copied.

【0190】フレームメモリ112に記録する予測参照
画像信号を生成する際に、しきい値回路111の対応す
る出力が0以外である場合、下位レイヤの画像即ちフレ
ームメモリ119に記録されている画像信号の同一位置
の画素をコピーする(動き補償は行わない)。
When generating a predicted reference image signal to be recorded in the frame memory 112, if the corresponding output of the threshold circuit 111 is other than 0, the image of the lower layer, that is, the image signal recorded in the frame memory 119 Is copied (the motion compensation is not performed).

【0191】このようにして生成された予測参照画像信
号はフレームメモリ112に記録され、フレームメモリ
106、119の画像とともに予測に用いられる。
The prediction reference image signal generated in this manner is recorded in the frame memory 112 and used for prediction together with the images in the frame memories 106 and 119.

【0192】動き補償回路107は倍率を示すフラグが
1でありかつフラグ(ref_select_code=="00")である
場合、下位レイヤの同時刻の画像(VOP)から供給さ
れる動きベクトルおよび予測モードを用いて予測参照画
像信号を生成し、演算回路105に出力する。
When the flag indicating the magnification is 1 and the flag (ref_select_code == "00"), the motion compensation circuit 107 determines the motion vector and the prediction mode supplied from the same time image (VOP) of the lower layer. A prediction reference image signal is generated using the signal and output to the arithmetic circuit 105.

【0193】次に、スケーラブル符号化のシンタクスの
一例について説明する。なお、以下、シンタクスの説明
に関して、本発明に関係する部分のみ説明して、それ以
外はここでは省略する。
Next, an example of the syntax of the scalable coding will be described. In the following, regarding the description of the syntax, only a portion related to the present invention will be described, and other portions will be omitted here.

【0194】図15には、ビットストリームの構成を示
す。VS(Video Session Class)は一つ又は複数のVO
(Video Object Class)から構成される、ビットストリー
ムの集合である。
FIG. 15 shows the structure of a bit stream. VS (Video Session Class) is one or more VOs
(Video Object Class) is a set of bit streams.

【0195】VSのシンタクスを以下に示す。なお、こ
のシンタクスはいわゆるC++に準拠している。
The syntax of the VS is shown below. This syntax conforms to the so-called C ++.

【0196】 Syntax No.of bits Mnemonic VideoSession(){ video_session_start_code sc+8=32 do*{ Videoobject() }while (nextbits_bytealigned()== video_object_start_code) next_start_code() video_session_end_code sc+8=32 } 次ぎに、VO(Video Object Class) のシンタクスを以
下に示す。
Syntax No. of bits Mnemonic VideoSession () {video_session_start_code sc + 8 = 32 do * {Videoobject ()} while (nextbits_bytealigned () == video_object_start_code) next_start_code () video_session_end_code sc + 8 = 32} Next, VO ( The syntax of Video Object Class) is shown below.

【0197】 Syntax No.of bits Mnemonic Videoobject(){ video_object_start_code sc+3=27 video_object_id 5 do{ VideoObjectLayer() } while(nextbits_bytealigned()== video_object_layer_start_code) next_start_code() } VOは画像全体または画像中の一部の物体のビットスト
リームである。VOL(Video Object Layer Class)はス
ケーラビリティのためのクラスである。
Syntax No. of bits Mnemonic Videoobject () {video_object_start_code sc + 3 = 27 video_object_id 5 do {VideoObjectLayer ()} while (nextbits_bytealigned () == video_object_layer_start_code) next_start_code ()} VO is the whole image or a part of the image Is a bit stream of the object. VOL (Video Object Layer Class) is a class for scalability.

【0198】VOLのシンタクスを以下に示す。The syntax of VOL is shown below.

【0199】 Syntax No.of bits Mnemonic VideoObjectLayer(){ video_object_layer_start_code sc+4=28 video_object_layer_id 4 video_object_layer_shape 2 if (video_object_layer_shape=="00"){ video_object_layer_width 10 video_object_layer_height 10 } video_object_layer_shape_effects 4 if((video_object_layer_shape_effects=="0001") ||(video_object_layer_shape_effects=="0011") ||(video_object_layer_shape_effects=="0100") ||(video_object_layer_shape_effects=="0101") video_object_layer_feather_dist 3 if((video_Object_layer_shape_effects=="0100") ||(video_object_layer_shape_effects=="0101"){ for(i=0;i<video_object_layer_feather_dist;i++) feathering_filter(); 8*15 } video_object_layer_sprite_usage 2 if(video_object_layer_sprite_usage!= SPRITE_NOT_USED){ if(video_object_layer_sprite_usage== ON-LINE_SPRITE){ sprite_hdim 13 sprite_vdim 13 } no_of_sprite_points 6 for(i=0;i<no_of_sprite_points;i++){ sprite_point [i]_x_coordinate 13 sprite_point [i]_y_coordinate 13 } lighting_change_in_sprite 1 } video_object_layer_quant_type 1 if(video_object_layer_quant_type){ load_intra_quant_mat 1 if(load_intra_quant_mat intra_quant_mat[64] 8*64 load_nonintra_quant_mat 1 if(load_nonintra_quant_mat nonintra_quant_mat[64] 8*64 } Error_resilient_disable 1 Intra_acdc_pred_disable 1 video_object_layer_fcode_forward 2 video_object_layer_fcode_backward 2 Separate_motion_shape_texture 1 if(video_object_layer_sprire_usage== STATIC_SPRITE) sprite_shape_texture() Scalability 1 if(scalability){ ref_layer_id 4 ref_layer_sampling_direc 1 hor_sampling_factor_n 5 hor_sampling_factor_m 5 vert_sampling_factor_n 5 vert_sampling_factor_m 5 enhancement_type 1 } do{ VideoObjectPlane() }while(nextbits_bytealigned()== video_object_plane_start_code) next_start_code() } VOLは識別子(video_object_layer_id)に示される
番号によって識別される。例えば、(video_object_lay
er_id=0)である VOL0は下位レイヤであり、例え
ば(video_object_layer_id=1)であるVOL1は上
位レイヤである。スケーラブルのレイヤの数は任意で良
い。
Syntax No.of bits Mnemonic VideoObjectLayer () {video_object_layer_start_code sc + 4 = 28 video_object_layer_id 4 video_object_layer_shape 2 if (video_object_layer_shape == "00") {video_object_layer_width 10 video_object_layer_width_layer_shape_effects_layer () || (video_object_layer_shape_effects == "0011") || (video_object_layer_shape_effects == "0100") || (video_object_layer_shape_effects == "0101") video_object_layer_feather_dist 3 if ((video_Object_layer_shape_effects == "0100") || (video_object_layer = ") {for (i = 0; i <video_object_layer_feather_dist; i ++) feathering_filter (); 8 * 15} video_object_layer_sprite_usage 2 if (video_object_layer_sprite_usage! = SPRITE_NOT_USED) {if (video_object_layer_sprite_usage_ = sprite_usage_sprite_usage == ON-LINE_SPRIvrite_sprite_usage_ = sprite_usage 13 for (i = 0; i <no_of_sprite_points; i ++) {sprite_point [i] _x_coordinate 13 sprite_point [i] _y_coordinate 13} lighting_change_in_sprite 1} v ideo_object_layer_quant_type 1 if (video_object_layer_quant_type) {load_intra_quant_mat 1 if (load_intra_quant_mat intra_quant_mat [64] 8 * 64 load_nonintra_quant_mat 1 if (load_nonintra_quant_mat nonintra_quant_mat [64] 8 * 64} Error_resilient_disable 1 Intra_acdc_pred_disable 1 video_object_layer_fcode_forward 2 video_object_layer_fcode_backward 2 Separate_motion_shape_texture 1 if (video_object_layer_sprire_usage == STATIC_SPRITE) sprite_shape_texture () Scalability 1 if (scalability) {ref_layer_id 4 ref_layer_sampling_direc 1 hor_sampling_factor_n 5 hor_sampling_factor_m 5 vert_sampling_factor_n 5 vert_sampling_factor_m 5 enhancement_type 1} do {VideoObjectPlane () _ start_video (_) _ start_video () Identified by the number shown. For example, (video_object_lay
VOL0 where er_id = 0) is a lower layer, and VOL1 where (video_object_layer_id = 1) is an upper layer, for example. The number of scalable layers may be arbitrary.

【0200】スケーラビリティ(scalability)は1ビ
ットのフラグでそのVOLが下位レイヤであるか上位レ
イヤであるかを示す。(scalability=1)である場
合、そのVOLは下位レイヤであり、それ以外の場合上
位レイヤである。
The scalability is a 1-bit flag indicating whether the VOL is a lower layer or an upper layer. If (scalability = 1), the VOL is a lower layer, otherwise it is an upper layer.

【0201】識別子(ref_layer_id)はそのVOL自身
以外のVOLを参照画像として用いる場合の参照画像V
OLの番号を示すフラグである。これは上位レイヤにの
み伝送される。
The identifier (ref_layer_id) is a reference image V when a VOL other than the VOL itself is used as a reference image.
This is a flag indicating the OL number. It is transmitted only to upper layers.

【0202】識別子(hor_sampling_factor_n),(hor
_sampling_factor_m)は下位レイヤの水平方向の長さに
対して上位レイヤの水平方向の長さが何倍であるかを示
す(水平方向の解像度の倍率を示す)。下位レイヤに対
する上位レイヤの水平方向の大きさは以下の式で与えら
れる。
The identifiers (hor_sampling_factor_n), (hor
_sampling_factor_m) indicates how many times the horizontal length of the upper layer is greater than the horizontal length of the lower layer (indicating the magnification of the horizontal resolution). The horizontal dimension of the upper layer relative to the lower layer is given by the following equation.

【0203】 hor_sampling_factor_n / hor_sampling_factor_m 識別子(ver_sampling_factor_n),(ver_sampling_fa
ctor_m)は下位レイヤの垂直方向の長さに対して上位レ
イヤの垂直方向の長さが何倍であるかを示す(垂直方向
の解像度の倍率を示す)。下位レイヤに対する上位レイ
ヤの垂直方向の大きさは以下の式で与えられる。
Hor_sampling_factor_n / hor_sampling_factor_m identifier (ver_sampling_factor_n), (ver_sampling_fa
ctor_m) indicates how many times the vertical length of the upper layer is greater than the vertical length of the lower layer (indicating the magnification of the vertical resolution). The vertical dimension of the upper layer relative to the lower layer is given by the following equation.

【0204】ver_sampling_factor_n / ver_sampling_f
actor_m VOP(Video Object Plane Class)のシンタクスを以下
に示す。
Ver_sampling_factor_n / ver_sampling_f
actor_m The syntax of VOP (Video Object Plane Class) is shown below.

【0205】 Syntax No.of bits Mnemonic VideoObjectPlane(){ VOP_start_code sc+8=32 do{ modulo_time_base 1 }while(modulo_time_base!="0") VOP_time_increment 10 VOP_prediction_type 2 if ( ( video_object_layer_sprite_usege != SPRITE_NOT_USED ) && (VOP_prediction_type == SPRITE) ) { if (no_of_sprite_points > 0) { encode VOP_points () } if (lighting_change_in_sprite) { lighting_change_factor_encode () } if (video_object_layer_sprite_useage == STATIC_SPRITE ) { return() } else if ( video_object_layer_sprite_usage == ON- LINE_SPRITE) { blending_factor 8 } } if(video_object_layer_shape !="00") { VOP_width 10 VOP_heigth 10 VOP_horizontal_mc_spatial_ref 10 marker_bit 1 VOP_vertical_mc_spatial_ref 10 if (scalability && enhancement_type) background_composition 1 } disable_sadct 1 if (VOP_prediction_type=="10") VOP_dbquant 2 else VOP_quant 5 if ((video_object_layer_shape_effects == "0010")|| (video_object_layer_shape_effects == "0011")|| (video_object_layer_shape_effects == "0101")){ VOP_constant_alpha 1 if (VOP_constant_alpha) VOP_constant_alpha_value 8 } if (!scalability){ if (!separate_motion_shape_texture) if(error_resilience_disable) combined_motion_shape_texture_coding() else do{ do{ combined_motion_shape_texture_coding() } while (nextbits_bytealigned() != 0000 0000 0000 0000) if (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) { next_resync_marker() resync_marker 17 macroblock_number 1-12 quant_scale 5 } } while (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) else{ if(video_object_layer_shape !="00"){ do{ first_shape_code 1-3 } while (count of macroblocks != total number of macroblocks) } if(error_resilience_disable) { motion_coding() if (video_object_layer_shape != "00") shape_coding() texture_coding() } else do{ do{ motion_coding() }while (next_bits()!="1010 0000 0000 0000 1") motion_marker 17 if (video_object_layer_shape !="00") shape_coding() do{ texture_coding() }while (nextbits_bytealigned()!= "0000 0000 0000 0000") if (nextbits_bytealigned()!= "000 0000 0000 0000 0000 0000){ next_resync_marker() resync_marker 17 macroblock_number 1-12 quant_scale 5 } }while (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) } } else{ if(background_composition){ load_backward_shape 1 if(load_backward_shape){ backward_shape_coding() load_foward_shape 1 if(load_foward_shape) foward_shape_coding() } } ref_select_code 2 if(VOP_prediction_type=="01"||VOP_prediction_type== "10"){ forward_temporal_ref 10 if(VOP_prediction_type=="10"){ marker_bit 1 backwaed_temporal_ref 10 } } combined_motion_shape_texture_coding() } next_state_code() } 識別子(VOP_width)および(VOP_height)はそのVO
Pの大きさを示すフラグ(VOPサイズ)である。
Syntax No. of bits Mnemonic VideoObjectPlane () {VOP_start_code sc + 8 = 32 do {modulo_time_base 1} while (modulo_time_base! = "0") VOP_time_increment 10 VOP_prediction_type 2 if ((video_object_layer_sprite_usege! = SPRITE_NOT_USED_V___________________________________ described above SPRITE)) {if (no_of_sprite_points> 0) {encode VOP_points ()} if (lighting_change_in_sprite) {lighting_change_factor_encode ()} if (video_object_layer_sprite_useage == STATIC_SPRITE) {return ()} else if (video_object_layer_sprite_us = 8) }} if (video_object_layer_shape! = "00") {VOP_width 10 VOP_heigth 10 VOP_horizontal_mc_spatial_ref 10 marker_bit 1 VOP_vertical_mc_spatial_ref 10 if (scalability && enhancement_type) background_composition 1} disable_sadct 1 if (VOP_prediction) VOP_predictionquantity = type (video_object_layer_shape_effects == "0011") || (video_object_layer_shape_effects == "0101")) {VOP_const ant_alpha 1 if (VOP_constant_alpha) VOP_constant_alpha_value 8} if (! scalability) {if (! separate_motion_shape_texture) if (error_resilience_disable) combined_motion_shape_texture_coding () else do {do {combined_motion_shape_texture_coding ()} 0000 () ext. nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000) {next_resync_marker () resync_marker 17 macroblock_number 1-12 quant_scale 5}} while (nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000) else {if (video_object_layer_shape! = "00" ) {do {first_shape_code 1-3} while (count of macroblocks! = total number of macroblocks)} if (error_resilience_disable) {motion_coding () if (video_object_layer_shape! = "00") shape_coding () texture_coding ()} else do {do {motion_coding ()} while (next_bits ()! = "1010 0000 0000 0000 1") motion_marker 17 if (video_object_layer_shape! = "00") shape_coding () do {texture_coding ()} while (nextbits_bytealigned ()! = "0000 0000 0000 0000 ") if (nextbits_bytealigned ()! = "000 0000 0000 0000 0000 0000) {next_resync_marker () resync_marker 17 macroblock_number 1-12 quant_scale 5}} while (nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000 0000)}} else {if (background_composition) {load_backward_shape 1 if (load_backward ) {backward_shape_coding () load_foward_shape 1 if (load_foward_shape) foward_shape_coding ()}} ref_select_code 2 if (VOP_prediction_type == "01" || VOP_prediction_type == "10") {forward_temporal_ref 10 if (VOP_prediction_type = marker) backwaed_temporal_ref 10}} combined_motion_shape_texture_coding ()} next_state_code ()} The identifier (VOP_width) and (VOP_height) are the VO
This is a flag (VOP size) indicating the size of P.

【0206】識別子(ref_select_code)は前方(フォ
ワード)および後方(バックワード)予測において識別
子(ref_layer_id)に基づき、どのレイヤの画像を参照
画像として用いるかを示すフラグである。図10に示し
た表および図11に示した表にその詳細が示されてい
る。
The identifier (ref_select_code) is a flag indicating which layer image is to be used as a reference image based on the identifier (ref_layer_id) in forward (forward) and backward (backward) prediction. The details are shown in the table shown in FIG. 10 and the table shown in FIG.

【0207】図16はIおよびPピクチャ(画像VO
P)におけるマクロブロックのシンタクスを示す。(CO
D)はこれ以後そのマクロブロックのデータが存在するか
どうかを示すフラグである。(COD=1)の場合、これ以
後、そのマクロブロックのデータが存在しないことを示
す(即ちスキップマクロブロック)。(COD=0)の場合、
さらにフラグが伝送される。(MCBCP)はそのマクロブロ
ックのタイプを示すフラグで、これに従って所定のフラ
グおよびデータが伝送される。
FIG. 16 shows I and P pictures (image VO).
9 shows the syntax of a macroblock in P). (CO
D) is a flag indicating whether or not the data of the macro block exists thereafter. In the case of (COD = 1), it indicates that there is no data of the macro block thereafter (ie, a skip macro block). (COD = 0),
Further, a flag is transmitted. (MCBCP) is a flag indicating the type of the macroblock, and predetermined flags and data are transmitted according to the flag.

【0208】図17はBピクチャ(VOP)におけるマ
クロブロックのシンタクスを示す。もし、最も最近に復
号されたIまたはPピクチャ(画像VOP)の対応する
マクロブロックがスキップマクロブロックであった場合
(COD=1)、Bピクチャ(画像VOP)におけるそのマ
クロブロックもスキップマクロブロックとなる。
FIG. 17 shows the syntax of a macroblock in a B picture (VOP). If the corresponding macroblock of the most recently decoded I or P picture (picture VOP) is a skip macroblock (COD = 1), then that macroblock in the B picture (picture VOP) is also a skip macroblock. Become.

【0209】(MODB)はBピクチャ(VOP)においてマ
クロブロックのタイプを示すフラグである。(MODB)の可
変長符号を図18に示す。(MODB=0)の場合、それ以上マ
クロブロックのデータが存在しないことを示す。(MODB=
10)の場合、(CBPB)は伝送されず、(MBTYPE)が伝送され
る。(MODB=11)の場合、(CBPB)および(MBTYPE)が伝送さ
れる。なお、図中のxは、現在のマクロブロックを示
す。
(MODB) is a flag indicating the type of macroblock in the B picture (VOP). FIG. 18 shows the variable length code of (MODB). If (MODB = 0), it indicates that there is no more macroblock data. (MODB =
In the case of 10), (CBPB) is not transmitted, and (MBTYPE) is transmitted. In the case of (MODB = 11), (CBPB) and (MBTYPE) are transmitted. Note that x in the drawing indicates the current macroblock.

【0210】(CBPB)は6ビットのフラグでマクロブロッ
ク中の各ブロックにDCT係数が存在するかどうかを示
すフラグである。(CBPB)が伝送されない場合、(CBPB)は
0であると解釈され、そのマクロブロックではDCT係
数は伝送されない。
(CBPB) is a 6-bit flag indicating whether or not a DCT coefficient exists in each block in the macroblock. If (CBPB) is not transmitted, (CBPB) is interpreted as 0, and no DCT coefficient is transmitted in the macroblock.

【0211】(MBTYPE)はBピクチャにおける各マクロブ
ロックの予測モードを示すフラグである。下位レイヤの
(MBTYPE)を図19に示す。(MBTYPE)に応じて図19に示
す通り、そのマクロブロックで伝送されるフラグが決定
される。なお、図中のxは、現在のマクロブロックを示
す。
[0211] (MBTYPE) is a flag indicating the prediction mode of each macroblock in the B picture. Lower layer
(MBTYPE) is shown in FIG. As shown in FIG. 19, the flag transmitted in the macroblock is determined according to (MBTYPE). Note that x in the drawing indicates the current macroblock.

【0212】上位レイヤにおける(MBTYPE)を図20に示
す。(MBTYPE="1")の時、画素単位予測モードとなる。こ
の場合、動きベクトルは伝送されない。
FIG. 20 shows (MBTYPE) in the upper layer. When (MBTYPE = "1"), the pixel unit prediction mode is set. In this case, no motion vector is transmitted.

【0213】下位レイヤにおけるスキップマクロブロッ
クの条件は以下の通りである。
The conditions for the skip macroblock in the lower layer are as follows.

【0214】(A)Pピクチャ(VOP) (1)COD=="1"である場合 この場合、マクロブロックはスキップマクロブロックと
して扱われる。DCT係数は全て0であり、動きベクト
ルも0として扱われる。
(A) P picture (VOP) (1) When COD = “1” In this case, the macro block is treated as a skip macro block. The DCT coefficients are all 0, and the motion vector is also treated as 0.

【0215】Pピクチャ(VOP)の場合、スキップマ
クロブロックの条件は下位レイヤと同様である。
In the case of a P picture (VOP), the conditions for a skipped macroblock are the same as those of the lower layer.

【0216】(B)Bピクチャ(VOP) (1)最も最近に復号されたIまたはPピクチャ(VO
P)の対応するマクロブロックがスキップマクロブロッ
クである(COD=1)である場合。
(B) B picture (VOP) (1) The most recently decoded I or P picture (VOP)
The case where the corresponding macroblock of P) is a skip macroblock (COD = 1).

【0217】この場合、スキップマクロブロックとされ
る。予測はPピクチャ(VOP)と同様に行われ動きベ
クトルは0として扱われる。
In this case, a skip macro block is set. The prediction is performed in the same way as for a P picture (VOP), and the motion vector is treated as 0.

【0218】(2)(1)以外の場合でかつMODB=="0"
の場合 この場合、スキップマクロブロックとして扱われ、この
マクロブロックの(MBTYPE)はダイレクト(Direct(H.2
63))となり、H.263のPBピクチャと同様に符号
化される。このとき動きベクトルは直前に復号されたP
ピクチャ(VOP)において同じ位置のマクロブロック
の動きベクトルが用いられる。
(2) In cases other than (1) and MODB == "0"
In this case, the macro block is treated as a skip macro block, and the (MBTYPE) of this macro block is set to Direct (H.2
63)). H.263 is encoded in the same manner as the PB picture. At this time, the motion vector is P
Motion vectors of macroblocks at the same position in a picture (VOP) are used.

【0219】上位レイヤ (scalability = 1)におけるス
キップマクロブロックの条件は以下の通りである。
The conditions for a skipped macroblock in the upper layer (scalability = 1) are as follows.

【0220】(A)Pピクチャ(VOP) (1)COD=="1"である場合 この場合、マクロブロックはスキップマクロブロックと
して扱われる。DCT係数は全て0であり、動きベクト
ルも0として扱われる。
(A) P picture (VOP) (1) When COD = “1” In this case, the macro block is treated as a skip macro block. The DCT coefficients are all 0, and the motion vector is also treated as 0.

【0221】Pピクチャ(VOP)の場合、スキップマ
クロブロックの条件は下位レイヤと同様である。
In the case of a P picture (VOP), the conditions for a skipped macroblock are the same as in the lower layer.

【0222】(B)ピクチャ(VOP) スキップマクロブロックにおいては、その予測モードや
参照画像を最も一般的に効率が良いモードに設定してお
くべきである。したがって、空間スケーラビリティの場
合の上位レイヤのマクロブロックにおいては画素単位予
測モードとするのが効率が良い。
(B) Picture (VOP) In a skip macroblock, its prediction mode and reference image should be set to the most generally efficient mode. Therefore, in the macroblock of the upper layer in the case of spatial scalability, it is efficient to use the pixel unit prediction mode.

【0223】本実施の形態においては、上位レイヤのB
ピクチャ(VOP)のスキップマクロブロックの条件は
以下の通りである。
In the present embodiment, the upper layer B
The conditions of the skip macroblock of the picture (VOP) are as follows.

【0224】(1)ref_select_code =="00"であり、か
つMOBD=="0"である場合。
(1) When ref_select_code == "00" and MOBD == "0".

【0225】識別子(ref_select_code =="00")の場
合、最も最近に復号されたIまたはPピクチャ(VO
P)の対応するマクロブロックがスキップマクロブロッ
クであるかどうか(CODの値)によらず、常にそれ以後
のデータを伝送する。このとき次に符号化される(MODB)
が0の場合スキップマクロブロックとなり、それ以上の
データは伝送されない。この時予測は 画素単位予測モ
ードとなり、動きベクトルは0として扱われる。
In the case of the identifier (ref_select_code = “00”), the most recently decoded I or P picture (VO
Regardless of whether the corresponding macroblock of P) is a skip macroblock (COD value), the subsequent data is always transmitted. At this time, it is encoded next (MODB)
Is 0, the block becomes a skipped macroblock, and no further data is transmitted. At this time, the prediction is in the pixel unit prediction mode, and the motion vector is treated as 0.

【0226】(2)ref_select_code !="00"であり、か
つ最も最近に復号されたIまたはPピクチャ(VOP)
の対応するマクロブロックがスキップマクロブロックで
ある(COD=1)である場合。
(2) ref_select_code! = “00” and most recently decoded I or P picture (VOP)
The corresponding macroblock is a skip macroblock (COD = 1).

【0227】この場合、スキップマクロブロックとされ
る。予測はPピクチャ(VOP)と同様に行われ動きベ
クトルは0として扱われる。
In this case, a skip macro block is set. The prediction is performed in the same way as for a P picture (VOP), and the motion vector is treated as 0.

【0228】(3)ref_select_code !="00"でありか
つ、MODB=="0"の場合 この場合、スキップマクロブロックとして扱われ、この
マクロブロックの(MBTYPE)はダイレクト(H.263)
となり、H.263のPBピクチャと同様に符号化され
る。このとき動きベクトルは(ref_select_code)によ
って示されるVOLの直前に復号されたPピクチャ(V
OP)において同じ位置のマクロブロックの動きベクト
ルが用いられる。
(3) ref_select_code! = "00" and MODB == "0" In this case, the macroblock is treated as a skip macroblock, and the (MBTYPE) of this macroblock is direct (H.263).
And H. H.263 is encoded in the same manner as the PB picture. At this time, the motion vector is a P picture (V) decoded immediately before the VOL indicated by (ref_select_code).
In OP), the motion vector of the macroblock at the same position is used.

【0229】[0229]

【発明の効果】本発明の画像信号符号化装置及び方法に
おいては、下位階層の画像信号を参照画像信号を用いて
符号化して第1の符号化データを生成し、上位階層の画
像信号を参照画像信号を用いて符号化して第2の符号化
データを生成し、第1の符号化データを復号して第1の
参照画像信号を生成し、第2の符号化データを復号して
第2の参照画像信号を生成し、第1の参照画像信号と第
2の参照画像信号を各画素毎に適応的に切り替えて生成
された第3の参照画像信号を用いて符号化することによ
り、予測効率を改善し、符号化効率を向上することが可
能である。
According to the image signal encoding apparatus and method of the present invention, the lower layer image signal is encoded using the reference image signal to generate first encoded data, and the upper layer image signal is referred to. The second encoded data is generated by encoding using the image signal, the first encoded data is decoded to generate the first reference image signal, and the second encoded data is decoded to generate the second encoded data. Is generated using the third reference image signal generated by adaptively switching between the first reference image signal and the second reference image signal for each pixel, thereby performing prediction. It is possible to improve the efficiency and the coding efficiency.

【0230】また、本発明の画像信号復号装置及び方法
においては、それぞれ参照画像信号を用いて符号化され
た下位階層の画像信号と上位階層の画像信号からなる符
号化データを受信し、その符号化された下位階層の画像
信号を参照画像信号を用いて復号し、符号化された上位
階層の画像信号を参照画像信号を用いて復号し、復号さ
れた下位階層の画像信号は第1の参照画像信号として利
用され、復号された上位階層の画像信号は第2の参照画
像信号として利用され、第1の参照画像信号と第2の参
照画像信号を各画素毎に適応的に切り替えることにより
生成された第3の参照画像信号を用いて復号することに
より、良好な復号画像信号を得ることが可能である。
Further, in the image signal decoding apparatus and method of the present invention, coded data composed of a lower layer image signal and an upper layer image signal coded by using a reference image signal, respectively, is received. The decoded lower layer image signal is decoded using the reference image signal, the encoded upper layer image signal is decoded using the reference image signal, and the decoded lower layer image signal is converted to the first reference image signal. An image signal of a higher layer that is used as a decoded image signal is used as a second reference image signal, and is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel. By decoding using the obtained third reference image signal, it is possible to obtain a good decoded image signal.

【0231】さらに、本発明の記録媒体は、符号化され
た下位階層の画像信号と符号化された上位階層の画像信
号とからなる符号化データを含んで記録してなり、符号
化データは、下位階層の画像信号を参照画像信号を用い
て符号化して第1の符号化データを生成し、上位階層の
画像信号を参照画像信号を用いて符号化して第2の符号
化データを生成し、第1の符号化データを復号して第1
の参照画像信号を生成し、第2の符号化データを復号し
て第2の参照画像信号を生成し、第1の参照画像信号と
第2の参照画像信号を各画素毎に適応的に切り替えて生
成された第3の参照画像信号を用いて符号化してなるこ
とにより、この記録媒体を再生復号すれば良好な画像信
号を得ることが可能である。
Further, the recording medium of the present invention is recorded so as to include encoded data composed of an encoded lower layer image signal and an encoded upper layer image signal. Encoding the lower layer image signal using the reference image signal to generate first encoded data, encoding the upper layer image signal using the reference image signal to generate second encoded data, The first encoded data is decoded to obtain the first
Is generated, the second encoded data is decoded, a second reference image signal is generated, and the first reference image signal and the second reference image signal are adaptively switched for each pixel. By encoding using the third reference image signal generated as described above, it is possible to obtain a good image signal by reproducing and decoding this recording medium.

【0232】すなわち本発明は、各層の画像信号を予測
参照画像を用いて符号化する装置及び方法において、各
層の画像信号を符号化した信号を復号して各層毎の参照
画像を生成し、各種の参照画像の各画素を適応的に切り
替えた予測参照画像をも生成し、この予測参照画像を利
用して上位階層の画像信号を符号化することにより、空
間スケーラブル符号化方法において、予測効率を改善
し、符号化効率を向上することが可能となる。
That is, the present invention relates to an apparatus and a method for encoding an image signal of each layer using a predicted reference image, wherein a signal obtained by encoding the image signal of each layer is decoded to generate a reference image for each layer, Also, a prediction reference image in which each pixel of the reference image is adaptively switched is generated, and an image signal of an upper layer is encoded by using the prediction reference image, so that the prediction efficiency is improved in the spatial scalable encoding method. It is possible to improve the coding efficiency.

【0233】なお、上述したように、入力画像信号が分
離された動き物体画像の場合には、キー(key)信号
が入力されるが、入力画像信号が分離された背景画像の
場合は、キー(key)信号は入力されない。
As described above, a key signal is input when the input image signal is a separated moving object image, but a key signal is input when the input image signal is a separated background image. No (key) signal is input.

【0234】また、入力画像信号は分離された背景画像
の場合は、キー(key)信号の符号化及び復号処理は
省略されることになる。
In the case where the input image signal is a separated background image, the encoding and decoding of the key signal are omitted.

【0235】さらに、本発明は、ある画像信号を複数の
画像(背景画像及び動き物体画像)信号に分離して、そ
れぞれの画像毎に符号化するような場合の他に、通常の
動画像信号が入力画像信号として供給されてもよい。こ
の場合、キー(key)信号の符号化及び復号処理は、
省略されることになる。
Further, according to the present invention, in addition to the case where a certain image signal is separated into a plurality of image signals (background image and moving object image) and encoded for each image, a normal moving image signal May be supplied as an input image signal. In this case, the encoding and decoding of the key signal
Will be omitted.

【0236】なお、本発明の主旨を逸脱しない範囲にお
いて、様々な変形や応用例が考えられる。したがって、
本発明の要旨は、実施の形態に限定されるものではな
い。
Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore,
The gist of the present invention is not limited to the embodiments.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像信号符号化装置及び方法を実現す
る実施の形態の画像信号符号化装置の概略構成を示すブ
ロック回路図である。
FIG. 1 is a block circuit diagram showing a schematic configuration of an image signal encoding device according to an embodiment for realizing the image signal encoding device and method of the present invention.

【図2】下位レイヤの画像と上位レイヤの画像の配置例
を示す図である。
FIG. 2 is a diagram illustrating an example of arrangement of an image of a lower layer and an image of an upper layer.

【図3】画像信号符号化装置の下位レイヤ符号化回路の
具体的構成を示すブロック回路図である。
FIG. 3 is a block circuit diagram showing a specific configuration of a lower layer encoding circuit of the image signal encoding device.

【図4】画像信号符号化装置の上位レイヤ符号化回路の
具体的構成を示すブロック回路図である。
FIG. 4 is a block circuit diagram illustrating a specific configuration of an upper layer encoding circuit of the image signal encoding device.

【図5】空間スケーラビリティの場合の符号化の説明に
用いる図である。
FIG. 5 is a diagram used to explain encoding in the case of spatial scalability.

【図6】上位レイヤのPおよびBピクチャの参照画像の
説明に用いる図である。
FIG. 6 is a diagram used for describing reference images of P and B pictures in an upper layer.

【図7】予測参照画像の各画素と差分画像の各画素の対
応の一例を示す図である。
FIG. 7 is a diagram illustrating an example of a correspondence between each pixel of a prediction reference image and each pixel of a difference image.

【図8】予測参照画像の一例を示す図である。FIG. 8 is a diagram illustrating an example of a prediction reference image.

【図9】予測参照画像を生成する方法の流れを示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating a flow of a method of generating a prediction reference image.

【図10】Pピクチャにおけるフラグ(ref_select_cod
e)の表を示す図である。
FIG. 10 shows a flag (ref_select_cod) in a P picture.
It is a figure showing the table of e).

【図11】Bピクチャにおけるフラグ(ref_select_cod
e)の表を示す図である。
FIG. 11 shows a flag (ref_select_cod) in a B picture.
It is a figure showing the table of e).

【図12】本発明の画像信号復号装置及び方法を実現す
る実施の形態の画像信号復号装置の概略構成を示すブロ
ック回路図である。
FIG. 12 is a block circuit diagram showing a schematic configuration of an image signal decoding device according to an embodiment for realizing the image signal decoding device and method of the present invention.

【図13】画像信号復号装置の下位レイヤ復号回路の具
体的構成を示すブロック回路図である。
FIG. 13 is a block circuit diagram showing a specific configuration of a lower layer decoding circuit of the image signal decoding device.

【図14】画像信号復号装置の上位レイヤ復号回路の具
体的構成を示すブロック回路図である。
FIG. 14 is a block circuit diagram showing a specific configuration of an upper layer decoding circuit of the image signal decoding device.

【図15】ビデオシンタクスの階層構造の説明に用いる
図である。
FIG. 15 is a diagram used for describing a hierarchical structure of video syntax.

【図16】IおよびPピクチャにおけるマクロブロック
のシンタクスを示す図である。
FIG. 16 is a diagram illustrating the syntax of a macroblock in I and P pictures.

【図17】Bピクチャにおけるマクロブロックのシンタ
クスを示す図である。
FIG. 17 is a diagram illustrating the syntax of a macroblock in a B picture.

【図18】Bピクチャにおいてマクロブロックのタイプ
を示すフラグであるMODBの可変長符号を示す図である。
FIG. 18 is a diagram illustrating a MODB variable length code which is a flag indicating a macroblock type in a B picture.

【図19】下位レイヤのBピクチャにおける各マクロブ
ロックの予測モードを示すフラグであるMBTYPEを示す図
である。
FIG. 19 is a diagram illustrating MBTYPE which is a flag indicating a prediction mode of each macroblock in a B picture of a lower layer.

【図20】上位レイヤにおけるMBTYPEを示す図である。FIG. 20 is a diagram illustrating an MBTYPE in an upper layer.

【図21】MPEG方式のMP@MLの従来のエンコー
ダの概略構成例を示すブロック回路図である。
FIG. 21 is a block circuit diagram illustrating a schematic configuration example of a conventional MP @ ML encoder of the MPEG system.

【図22】MPEGのMP@MLの従来のデコーダの概
略構成例を示すブロック回路図である。
FIG. 22 is a block circuit diagram illustrating a schematic configuration example of a conventional decoder of MPEG MP @ ML.

【図23】空間スケーラビリティの従来のエンコーダの
構成例を示すブロック回路図である。
FIG. 23 is a block circuit diagram showing a configuration example of a conventional encoder having spatial scalability.

【図24】空間スケーラビリティの従来のデコーダの構
成例を示すブロック回路である。
FIG. 24 is a block circuit showing a configuration example of a conventional decoder of spatial scalability.

【符号の説明】[Explanation of symbols]

1 画像階層化回路、 2 遅延回路、 3 上位レイ
ヤ符号化回路、 4解像度変換回路、 5 下位レイヤ
符号化回路、 6 多重化回路、 81 逆多重化回
路、 82 遅延回路、 83 上位レイヤ復号回路、
94 解像度変換回路、 95 下位レイヤ復号回路
1 image layering circuit, 2 delay circuit, 3 upper layer coding circuit, 4 resolution conversion circuit, 5 lower layer coding circuit, 6 multiplexing circuit, 81 demultiplexing circuit, 82 delay circuit, 83 upper layer decoding circuit,
94 resolution conversion circuit, 95 lower layer decoding circuit

Claims (56)

【特許請求の範囲】[Claims] 【請求項1】 所定の画像信号をそれぞれ表す下位階層
の画像信号と上位階層の画像信号を符号化する画像信号
符号化装置において、 上記下位階層の画像信号を参照画像信号を用いて符号化
して、第1の符号化データを出力する第1の符号化手段
と、 上記上位階層の画像信号を参照画像信号を用いて符号化
して、第2の符号化データを出力する第2の符号化手段
と、 上記第1の符号化データを復号して、第1の参照画像信
号を生成する第1の復号手段と、 上記第2の符号化データを復号して、第2の参照画像信
号を生成する第2の復号手段とを有し、 上記第2の符号化手段は、上記第1の参照画像信号と上
記第2の参照画像信号を各画素毎に適応的に切り替える
ことにより生成された第3の参照画像信号を用いて符号
化することを特徴とする画像信号符号化装置。
An image signal encoding apparatus for encoding a lower layer image signal and an upper layer image signal respectively representing a predetermined image signal, wherein the lower layer image signal is encoded using a reference image signal. First encoding means for outputting first encoded data, and second encoding means for encoding the upper layer image signal using a reference image signal and outputting second encoded data. First decoding means for decoding the first encoded data to generate a first reference image signal; and decoding the second encoded data to generate a second reference image signal. And a second decoding unit configured to adaptively switch the first reference image signal and the second reference image signal for each pixel. Encoding using the reference image signal of No. 3 Picture signal encoding apparatus.
【請求項2】 上記第2の符号化手段は、ブロック毎に
上記第1、第2及び第3の参照画像信号のうち、符号化
する上位階層の画像信号との予測誤差が最小となる参照
画像信号を選択し、その選択された参照画像信号を用い
て符号化することを特徴とする請求項1記載の画像信号
符号化装置。
2. The method according to claim 1, wherein the second encoding unit includes a reference unit that minimizes a prediction error between the first, second, and third reference image signals and an image signal of an upper layer to be encoded. 2. The image signal encoding apparatus according to claim 1, wherein the image signal is selected and encoded using the selected reference image signal.
【請求項3】 上記第3の参照画像信号は、上記第1の
符号化データを復号して得られた値に基づいて、上記第
1の参照画像信号と上記第2の参照画像信号を各画素毎
に適応的に切り替えることにより生成されることを特徴
とする請求項1記載の画像信号符号化装置。
3. The third reference image signal is obtained by decoding the first reference image signal and the second reference image signal based on a value obtained by decoding the first encoded data. 2. The image signal encoding device according to claim 1, wherein the image signal encoding device is generated by switching adaptively for each pixel.
【請求項4】 上記第3の参照画像信号は、上記第1の
符号化データを復号して得られた値に基づいて、上記第
1の参照画像信号と上記第2の参照画像信号を各画素毎
に適応的に切り替えることにより生成されることを特徴
とする請求項2記載の画像信号符号化装置。
4. The third reference image signal is obtained by decoding the first reference image signal and the second reference image signal based on a value obtained by decoding the first encoded data. 3. The image signal encoding apparatus according to claim 2, wherein the image signal encoding apparatus is generated by switching adaptively for each pixel.
【請求項5】 上記第1の符号化データを復号して得ら
れた値は、上記下位階層の画像信号とその下位階層の画
像信号の符号化に用いた予測参照画像信号との差分値で
あることを特徴とする請求項3記載の画像信号符号化装
置。
5. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 4. The image signal encoding apparatus according to claim 3, wherein:
【請求項6】 上記第1の符号化データを復号して得ら
れた値は、上記下位階層の画像信号とその下位階層の画
像信号の符号化に用いた予測参照画像信号との差分値で
あることを特徴とする請求項4記載の画像信号符号化装
置。
6. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 5. The image signal encoding apparatus according to claim 4, wherein:
【請求項7】 上記上位階層の画像信号の解像度が上記
下位階層の画像信号の解像度より高いときに、上記第3
の参照画像信号は、上記差分値が所定のしきい値以下で
あるならば上記第2の参照画像信号の画素を選択し、上
記差分値が上記所定のしきい値を越えるならば上記第1
の参照画像信号の画素を選択することにより生成される
ことを特徴とする請求項5記載の画像信号符号化装置。
7. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third
Selects the pixel of the second reference image signal if the difference value is equal to or less than a predetermined threshold value, and selects the first pixel if the difference value exceeds the predetermined threshold value.
6. The image signal encoding apparatus according to claim 5, wherein the image signal is generated by selecting a pixel of the reference image signal.
【請求項8】 上記上位階層の画像信号の解像度が上記
下位階層の画像信号の解像度より高いときに、上記第3
の参照画像信号は、上記差分値が所定のしきい値以下で
あるならば上記第2の参照画像信号の画素を選択し、上
記差分値が上記所定のしきい値を越えるならば上記第1
の参照画像信号の画素を選択することにより生成される
ことを特徴とする請求項6記載の画像信号符号化装置。
8. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third
Selects the pixel of the second reference image signal if the difference value is equal to or less than a predetermined threshold value, and selects the first pixel if the difference value exceeds the predetermined threshold value.
7. The image signal encoding apparatus according to claim 6, wherein the image signal is generated by selecting a pixel of the reference image signal.
【請求項9】 上記上位階層の画像信号の解像度が上記
下位階層の画像信号の解像度より高いことを特徴とする
請求項1記載の画像信号符号化装置。
9. The image signal encoding apparatus according to claim 1, wherein the resolution of the upper layer image signal is higher than the resolution of the lower layer image signal.
【請求項10】 上記第1の参照画像信号は、上記第1
の符号化データを復号して得られた画像信号を解像度変
換することにより、上記上位階層の画像信号の解像度に
合わせた画像信号であることを特徴とする請求項9記載
の画像信号符号化装置。
10. The method according to claim 1, wherein the first reference image signal is
10. The image signal encoding apparatus according to claim 9, wherein the image signal obtained by decoding the encoded data of (i) is converted into an image signal in accordance with the resolution of the image signal of the upper layer. .
【請求項11】 選択された参照画像信号を示すフラグ
情報と上記第1及び第2の符号化データとを伝送する伝
送手段を有することを特徴とする請求項2記載の画像信
号符号化装置。
11. The image signal encoding apparatus according to claim 2, further comprising transmission means for transmitting flag information indicating the selected reference image signal and said first and second encoded data.
【請求項12】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照画
像信号が選択されることを特徴とする請求項3記載の画
像信号符号化装置。
12. When encoding the upper and lower layer image signals in block units, and when transmitting block data of a lower layer image signal corresponding to a predetermined block of the upper layer image signal to be encoded. 4. The apparatus according to claim 3, wherein the first reference image signal is selected.
【請求項13】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照画
像信号が選択されることを特徴とする請求項4記載の画
像信号符号化装置。
13. A method for coding the upper and lower layer image signals in block units and a method for transmitting block data of a lower layer image signal corresponding to a predetermined block of an upper layer image signal to be coded. 5. The apparatus according to claim 4, wherein the first reference image signal is selected.
【請求項14】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項3記載の画像信号符号化装置。
14. The first reference image signal is a lower layer image signal at the same time as the upper layer image signal to be coded, and the second reference image signal is an upper layer image to be coded. The image signal encoding apparatus according to claim 3, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項15】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項4記載の画像信号符号化装置。
15. The first reference image signal is an image signal of a lower layer at the same time as an image signal of an upper layer to be encoded, and the second reference image signal is an image of an upper layer to be encoded. The image signal encoding apparatus according to claim 4, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項16】 所定の画像信号をそれぞれ表す下位階
層の画像信号と上位階層の画像信号を符号化する画像信
号符号化方法において、 上記下位階層の画像信号を参照画像信号を用いて符号化
して、第1の符号化データを出力する第1の符号化ステ
ップと、 上記上位階層の画像信号を参照画像信号を用いて符号化
して、第2の符号化データを出力する第2の符号化ステ
ップと、 上記第1の符号化データを復号して、第1の参照画像信
号を生成する第1の復号ステップと、 上記第2の符号化データを復号して、第2の参照画像信
号を生成する第2の復号ステップとを有し、 上記第2の符号化ステップは、上記第1の参照画像信号
と上記第2の参照画像信号を各画素毎に適応的に切り替
えることにより生成された第3の参照画像信号を用いて
符号化することを特徴とする画像信号符号化方法。
16. An image signal encoding method for encoding a lower layer image signal and an upper layer image signal respectively representing a predetermined image signal, wherein the lower layer image signal is encoded using a reference image signal. A first encoding step of outputting first encoded data, and a second encoding step of encoding the upper layer image signal using a reference image signal and outputting second encoded data. A first decoding step of decoding the first encoded data to generate a first reference image signal; and decoding the second encoded data to generate a second reference image signal. A second decoding step, wherein the second encoding step includes a step of adaptively switching the first reference image signal and the second reference image signal for each pixel. 3 using the reference image signal Picture signal encoding method characterized by reduction.
【請求項17】 上記第2の符号化ステップは、ブロッ
ク毎に上記第1、第2及び第3の参照画像信号のうち、
符号化する上位階層の画像信号との予測誤差が最小とな
る参照画像信号を選択し、その選択された参照画像信号
を用いて符号化することを特徴とする請求項16記載の
画像信号符号化方法。
17. The method according to claim 17, wherein the second encoding step includes the step of, among the first, second, and third reference image signals, for each block.
17. The image signal encoding method according to claim 16, wherein a reference image signal having a minimum prediction error with respect to an image signal of an upper layer to be encoded is selected, and encoding is performed using the selected reference image signal. Method.
【請求項18】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項16記載の画像信号符号化方法。
18. The method according to claim 18, wherein the third reference image signal is the first reference image signal.
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of An image signal encoding method according to claim 16.
【請求項19】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項17記載の画像信号符号化方法。
19. The method according to claim 19, wherein the third reference image signal is the first reference image signal.
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of The image signal encoding method according to claim 17.
【請求項20】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項18記載の画像信号符号
化方法。
20. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 19. The image signal encoding method according to claim 18, wherein:
【請求項21】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項19記載の画像信号符号
化方法。
21. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 20. The image signal encoding method according to claim 19, wherein:
【請求項22】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項20記載の画像信号符号化方
法。
22. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal has a difference value equal to or smaller than a predetermined threshold value. Selecting a pixel of the second reference image signal,
21. The image signal encoding method according to claim 20, wherein if the difference value exceeds the predetermined threshold value, the difference value is generated by selecting a pixel of the first reference image signal.
【請求項23】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項21記載の画像信号符号化方
法。
23. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal has a difference value equal to or smaller than a predetermined threshold value. Selecting a pixel of the second reference image signal,
22. The image signal encoding method according to claim 21, wherein if the difference value exceeds the predetermined threshold value, the difference value is generated by selecting a pixel of the first reference image signal.
【請求項24】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いことを特徴とす
る請求項16記載の画像信号符号化方法。
24. The image signal encoding method according to claim 16, wherein the resolution of the upper layer image signal is higher than the resolution of the lower layer image signal.
【請求項25】 上記第1の参照画像信号は、上記第1
の符号化データを復号して得られた画像信号を解像度変
換することにより、上記上位階層の画像信号の解像度に
合わせた画像信号であることを特徴とする請求項24記
載の画像信号符号化方法。
25. The first reference image signal, comprising:
25. The image signal encoding method according to claim 24, wherein the resolution of the image signal obtained by decoding the encoded data is converted to an image signal adapted to the resolution of the image signal of the upper layer. .
【請求項26】 選択された参照画像信号を示すフラグ
情報と第1及び第2の符号化データとを伝送する伝送ス
テップを有することを特徴とする請求項17記載の画像
信号符号化方法。
26. The image signal encoding method according to claim 17, further comprising a transmission step of transmitting flag information indicating the selected reference image signal and first and second encoded data.
【請求項27】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照画
像信号が選択されることを特徴とする請求項18記載の
画像信号符号化方法。
27. When the upper and lower layer image signals are encoded in block units, and when the block data of the lower layer image signal corresponding to a predetermined block of the upper layer image signal to be encoded is transmitted. 19. The method according to claim 18, wherein the first reference image signal is selected.
【請求項28】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照画
像信号が選択されることを特徴とする請求項19記載の
画像信号符号化方法。
28. When the upper and lower layer image signals are encoded in block units, and when the block data of the lower layer image signal corresponding to a predetermined block of the upper layer image signal to be encoded is transmitted. 20. The image signal encoding method according to claim 19, wherein the first reference image signal is selected.
【請求項29】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項18記載の画像信号符号化方法。
29. The first reference image signal is a lower layer image signal at the same time as the upper layer image signal to be coded, and the second reference image signal is an upper layer image to be coded. 19. The image signal encoding method according to claim 18, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項30】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項19記載の画像信号符号化方法。
30. The first reference image signal is an image signal of a lower layer at the same time as an image signal of an upper layer to be encoded, and the second reference image signal is an image of an upper layer to be encoded. 20. The image signal encoding method according to claim 19, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項31】 符号化された下位階層の画像信号と符
号化された上位階層の画像信号からなる符号化データを
受信し、その符号化データを復号する画像信号復号装置
において、 符号化された下位階層の画像信号と符号化された上位階
層の画像信号はそれぞれ参照画像信号を用いて符号化さ
れており、 上記符号化データを受信する受信手段と、 上記符号化された下位階層の画像信号を参照画像信号を
用いて復号して、当該復号された下位階層の画像信号を
出力する第1の復号手段と、 上記符号化された上位階層の画像信号を参照画像信号を
用いて復号して、当該復号された上位階層の画像信号を
出力する第2の復号手段とを有し、 上記第1の復号手段で復号された下位階層の画像信号は
第1の参照画像信号として利用され、上記第2の復号手
段で復号された上位階層の画像信号は第2の参照画像信
号として利用され、 上記第2の復号手段は、上記第1の参照画像信号と上記
第2の参照画像信号を各画素毎に適応的に切り替えるこ
とにより生成された第3の参照画像信号を用いて復号す
ることを特徴とする画像信号復号装置。
31. An image signal decoding apparatus for receiving encoded data including an encoded lower layer image signal and an encoded upper layer image signal, and decoding the encoded data. The lower-layer image signal and the encoded upper-layer image signal are each encoded using a reference image signal, and receiving means for receiving the encoded data; and the encoded lower-layer image signal By using a reference image signal, and outputting the decoded lower-layer image signal using the reference image signal. And second decoding means for outputting the decoded upper-layer image signal. The lower-layer image signal decoded by the first decoding means is used as a first reference image signal. Second decryption The upper layer image signal decoded in the stage is used as a second reference image signal, and the second decoding means adapts the first reference image signal and the second reference image signal for each pixel. An image signal decoding apparatus for decoding by using a third reference image signal generated by performing the switching.
【請求項32】 上記符号化データはフラグ情報を含ん
でおり、上記フラグ情報は、上記第1、第2及び第3の
参照画像信号のうち、上位階層の画像信号を復号するた
めに使用されるべき参照画像信号をブロック単位で示し
ており、 上記第2の復号手段は、上記フラグ情報によって示され
る参照画像信号を用いて復号することを特徴とする請求
項31記載の画像信号復号装置。
32. The encoded data includes flag information, and the flag information is used for decoding an image signal of an upper layer among the first, second, and third reference image signals. 32. The image signal decoding apparatus according to claim 31, wherein a reference image signal to be displayed is indicated in block units, and wherein the second decoding means decodes using a reference image signal indicated by the flag information.
【請求項33】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項31記載の画像信号復号装置。
33. The method according to claim 31, wherein the third reference image signal is the first reference image signal.
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of The image signal decoding device according to claim 31.
【請求項34】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項32記載の画像信号復号装置。
34. The method according to claim 34, wherein the third reference image signal is the first reference image signal.
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of 33. The image signal decoding device according to claim 32.
【請求項35】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項33記載の画像信号復号
装置。
35. A value obtained by decoding the first coded data is a difference value between the lower layer image signal and a prediction reference image signal used for coding the lower layer image signal. The image signal decoding device according to claim 33, wherein:
【請求項36】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項34記載の画像信号復号
装置。
36. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 35. The image signal decoding device according to claim 34, wherein:
【請求項37】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項35記載の画像信号復号装
置。
37. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal is provided if the difference value is equal to or less than a predetermined threshold value. Selecting a pixel of the second reference image signal,
36. The image signal decoding apparatus according to claim 35, wherein if the difference value exceeds the predetermined threshold value, the difference value is generated by selecting a pixel of the first reference image signal.
【請求項38】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項36記載の画像信号復号装
置。
38. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal is provided if the difference value is equal to or less than a predetermined threshold value. Selecting a pixel of the second reference image signal,
37. The image signal decoding apparatus according to claim 36, wherein if the difference value exceeds the predetermined threshold value, the difference value is generated by selecting a pixel of the first reference image signal.
【請求項39】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いことを特徴とす
る請求項31記載の画像信号復号装置。
39. The image signal decoding apparatus according to claim 31, wherein the resolution of the upper layer image signal is higher than the resolution of the lower layer image signal.
【請求項40】 上記第1の参照画像信号は、上記復号
された下位階層の画像信号を解像度変換することにより
上記上位階層の画像信号の解像度に合わせた画像信号で
あることを特徴とする請求項39記載の画像信号復号装
置。
40. The first reference image signal, wherein the resolution of the decoded lower-layer image signal is converted to an image signal adapted to the resolution of the upper-layer image signal. Item 40. The image signal decoding device according to Item 39.
【請求項41】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照信
号が選択されることを特徴とする請求項32記載の画像
信号復号装置。
41. When the upper and lower layer image signals are encoded in block units, and when the block data of the lower layer image signal corresponding to a predetermined block of the upper layer image signal to be encoded is transmitted. 33. The image signal decoding apparatus according to claim 32, wherein the first reference signal is selected.
【請求項42】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項32記載の画像信号復号装置。
42. The first reference image signal is a lower-layer image signal at the same time as the upper-layer image signal to be coded, and the second reference image signal is an upper-layer image signal to be coded. 33. The image signal decoding device according to claim 32, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項43】 符号化された下位階層の画像信号と符
号化された上位階層の画像信号からなる符号化データを
受信し、その符号化データを復号する画像信号復号方法
において、 符号化された下位階層の画像信号と符号化された上位階
層の画像信号はそれぞれ参照画像信号を用いて符号化さ
れており、 上記符号化データを受信する受信ステップと、 上記符号化された下位階層の画像信号を参照画像信号を
用いて復号して、当該復号された下位階層の画像信号を
出力する第1の復号ステップと、 上記符号化された上位階層の画像信号を参照画像信号を
用いて復号して、当該復号された上位階層の画像信号を
出力する第2の復号ステップとを有し、 上記第1の復号ステップで復号された下位階層の画像信
号は第1の参照画像信号として利用され、上記第2の復
号ステップで復号された上位階層の画像信号は第2の参
照画像信号として利用され、 上記第2の復号ステップは、上記第1の参照画像信号と
上記第2の参照画像信号を各画素毎に適応的に切り替え
ることにより生成された第3の参照画像信号を用いて復
号することを特徴とする画像信号復号方法。
43. An image signal decoding method for receiving encoded data including an encoded lower layer image signal and an encoded upper layer image signal, and decoding the encoded data. The lower-layer image signal and the encoded upper-layer image signal are each encoded using a reference image signal, a receiving step of receiving the encoded data, and the encoded lower-layer image signal A first decoding step of decoding the decoded lower-layer image signal using a reference image signal, and decoding the encoded higher-layer image signal using a reference image signal. And a second decoding step of outputting the decoded upper layer image signal. The lower layer image signal decoded in the first decoding step is used as a first reference image signal. The image signal of the upper layer decoded in the second decoding step is used as a second reference image signal, and the second decoding step includes combining the first reference image signal and the second reference image signal. An image signal decoding method, wherein decoding is performed using a third reference image signal generated by adaptively switching each pixel.
【請求項44】 上記符号化データはフラグ情報を含ん
でおり、上記フラグ情報は、上記第1、第2及び第3の
参照画像信号のうち、上位階層の画像信号を復号するた
めに使用されるべき参照画像信号をブロック単位で示し
ており、 上記第2の復号ステップは、上記フラグ情報によって示
される参照画像信号を用いて復号することを特徴とする
請求項43記載の画像信号復号方法。
44. The encoded data includes flag information, and the flag information is used to decode an image signal of an upper layer among the first, second, and third reference image signals. 44. The image signal decoding method according to claim 43, wherein a reference image signal to be displayed is indicated in block units, and wherein the second decoding step performs decoding using a reference image signal indicated by the flag information.
【請求項45】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項43記載の画像信号復号方法。
45. The third reference image signal, wherein:
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of An image signal decoding method according to claim 43.
【請求項46】 上記第3の参照画像信号は、上記第1
の符号化データを復号して得られた値に基づいて、上記
第1の参照画像信号と上記第2の参照画像信号を各画素
毎に適応的に切り替えることにより生成されることを特
徴とする請求項44記載の画像信号復号方法。
46. The third reference image signal, wherein the third reference image signal is
Is generated by adaptively switching the first reference image signal and the second reference image signal for each pixel based on a value obtained by decoding the encoded data of The image signal decoding method according to claim 44.
【請求項47】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項45記載の画像信号復号
方法。
47. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 46. The image signal decoding method according to claim 45, wherein:
【請求項48】 上記第1の符号化データを復号して得
られた値は、上記下位階層の画像信号とその下位階層の
画像信号の符号化に用いた予測参照画像信号との差分値
であることを特徴とする請求項46記載の画像信号復号
方法。
48. A value obtained by decoding the first encoded data is a difference value between the lower layer image signal and a prediction reference image signal used for encoding the lower layer image signal. 47. The image signal decoding method according to claim 46, wherein:
【請求項49】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項47記載の画像信号復号方
法。
49. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal is provided if the difference value is equal to or smaller than a predetermined threshold value. Selecting a pixel of the second reference image signal,
48. The image signal decoding method according to claim 47, wherein the image signal is generated by selecting a pixel of the first reference image signal if the difference value exceeds the predetermined threshold value.
【請求項50】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いときに、上記第
3の参照画像信号は、上記差分値が所定のしきい値以下
であるならば上記第2の参照画像信号の画素を選択し、
上記差分値が上記所定のしきい値を越えるならば上記第
1の参照画像信号の画素を選択することにより生成され
ることを特徴とする請求項48記載の画像信号復号方
法。
50. When the resolution of the image signal of the upper layer is higher than the resolution of the image signal of the lower layer, the third reference image signal has a difference value equal to or smaller than a predetermined threshold value. Selecting a pixel of the second reference image signal,
49. The image signal decoding method according to claim 48, wherein if the difference value exceeds the predetermined threshold, the difference value is generated by selecting a pixel of the first reference image signal.
【請求項51】 上記上位階層の画像信号の解像度が上
記下位階層の画像信号の解像度より高いことを特徴とす
る請求項43記載の画像信号復号方法。
51. The image signal decoding method according to claim 43, wherein the resolution of the upper layer image signal is higher than the resolution of the lower layer image signal.
【請求項52】 上記第1の参照画像信号は、上記復号
された下位階層の画像信号を解像度変換することにより
上記上位階層の画像信号の解像度に合わせた画像信号で
あることを特徴とする請求項51記載の画像信号復号方
法。
52. The image processing apparatus according to claim 52, wherein the first reference image signal is an image signal adapted to the resolution of the upper layer image signal by performing resolution conversion on the decoded lower layer image signal. Item 52. The image signal decoding method according to Item 51.
【請求項53】 上記上位及び下位階層の画像信号をブ
ロック単位で符号化するときと、符号化する上位階層の
画像信号の所定のブロックに対応する下位階層の画像信
号のブロックデータを伝送するとき、上記第1の参照信
号が選択されることを特徴とする請求項44記載の画像
信号復号方法。
53. When encoding the upper and lower layer image signals in block units, and when transmitting block data of a lower layer image signal corresponding to a predetermined block of the upper layer image signal to be encoded. The method according to claim 44, wherein the first reference signal is selected.
【請求項54】 上記第1の参照画像信号は、符号化す
る上位階層の画像信号と同一時刻の下位階層の画像信号
であり、上記第2の参照画像信号は、符号化する上位階
層の画像信号と同階層に存在する画像信号であることを
特徴とする請求項44記載の画像信号復号方法。
54. The first reference image signal is a lower-layer image signal at the same time as the upper-layer image signal to be encoded, and the second reference image signal is an upper-layer image signal to be encoded. The image signal decoding method according to claim 44, wherein the image signal is an image signal existing in the same hierarchy as the signal.
【請求項55】 画像信号復号装置によって復号可能な
記録媒体において、 符号化された下位階層の画像信号と符号化された上位階
層の画像信号とからなる符号化データを含んだ信号を記
録してなり、 上記符号化データは、上記下位階層の画像信号を参照画
像信号を用いて符号化して第1の符号化データを出力す
る第1の符号化ステップと、上記上位階層の画像信号を
参照画像信号を用いて符号化して第2の符号化データを
出力する第2の符号化ステップと、上記第1の符号化デ
ータを復号して第1の参照画像信号を生成する第1の復
号ステップと、上記第2の符号化データを復号して第2
の参照画像信号を生成する第2の復号ステップとからな
り、上記第2の符号化ステップは、上記第1の参照画像
信号と上記第2の参照画像信号を各画素毎に適応的に切
り替えることにより生成された第3の参照画像信号を用
いて符号化してなることを特徴とする記録媒体。
55. A recording medium that can be decoded by an image signal decoding device, wherein a signal including encoded data including an encoded lower layer image signal and an encoded upper layer image signal is recorded. A first encoding step of encoding the lower layer image signal using a reference image signal and outputting first encoded data; and encoding the upper layer image signal as a reference image. A second encoding step of encoding using a signal to output second encoded data, and a first decoding step of decoding the first encoded data to generate a first reference image signal. , And decodes the second encoded data to produce a second
A second decoding step of generating a reference image signal of the second reference image signal, wherein the second encoding step adaptively switches the first reference image signal and the second reference image signal for each pixel. A recording medium characterized by being encoded by using a third reference image signal generated by the above-mentioned method.
【請求項56】 上記符号化データはフラグ情報を含ん
でおり、上記フラグ情報は上記第1、第2及び第3の参
照画像信号のうち、上位階層の画像信号を復号するため
に使用されるべき参照画像信号をブロック単位で示して
いることを特徴とする請求項55記載の記録媒体。
56. The encoded data includes flag information, and the flag information is used to decode an image signal of an upper layer among the first, second, and third reference image signals. 56. The recording medium according to claim 55, wherein a reference image signal to be indicated is indicated in block units.
JP1161098A 1997-01-24 1998-01-23 Image signal encoding apparatus and method, image signal decoding apparatus and method Expired - Fee Related JP3301375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1161098A JP3301375B2 (en) 1997-01-24 1998-01-23 Image signal encoding apparatus and method, image signal decoding apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-11635 1997-01-24
JP1163597 1997-01-24
JP1161098A JP3301375B2 (en) 1997-01-24 1998-01-23 Image signal encoding apparatus and method, image signal decoding apparatus and method

Publications (2)

Publication Number Publication Date
JPH10271512A true JPH10271512A (en) 1998-10-09
JP3301375B2 JP3301375B2 (en) 2002-07-15

Family

ID=26347064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1161098A Expired - Fee Related JP3301375B2 (en) 1997-01-24 1998-01-23 Image signal encoding apparatus and method, image signal decoding apparatus and method

Country Status (1)

Country Link
JP (1) JP3301375B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007081133A1 (en) * 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
US7944966B2 (en) 2000-11-23 2011-05-17 Trident Microsystems (Far East) Ltd. Video decoding method and corresponding decoder
JP2011151839A (en) * 2003-09-07 2011-08-04 Microsoft Corp Advanced bi-directional predictive coding of interlaced video
US8917768B2 (en) 2003-07-18 2014-12-23 Microsoft Corporation Coding of motion vector information

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7944966B2 (en) 2000-11-23 2011-05-17 Trident Microsystems (Far East) Ltd. Video decoding method and corresponding decoder
US9148668B2 (en) 2003-07-18 2015-09-29 Microsoft Technology Licensing, Llc Coding of motion vector information
US8917768B2 (en) 2003-07-18 2014-12-23 Microsoft Corporation Coding of motion vector information
JP2011151839A (en) * 2003-09-07 2011-08-04 Microsoft Corp Advanced bi-directional predictive coding of interlaced video
US8264968B2 (en) 2006-01-09 2012-09-11 Lg Electronics Inc. Inter-layer prediction method for video signal
AU2007205337B2 (en) * 2006-01-09 2010-04-22 Lg Electronics Inc. Inter-layer prediction method for video signal
WO2007081133A1 (en) * 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
US8345755B2 (en) 2006-01-09 2013-01-01 Lg Electronics, Inc. Inter-layer prediction method for video signal
US8494060B2 (en) 2006-01-09 2013-07-23 Lg Electronics Inc. Inter-layer prediction method for video signal
US8619872B2 (en) 2006-01-09 2013-12-31 Lg Electronics, Inc. Inter-layer prediction method for video signal
WO2007100187A1 (en) * 2006-01-09 2007-09-07 Lg Electronics Inc. Inter-layer prediction method for video signal
WO2007081138A1 (en) * 2006-01-09 2007-07-19 Lg Electronics Inc. Inter-layer prediction method for video signal
US9497453B2 (en) 2006-01-09 2016-11-15 Lg Electronics Inc. Inter-layer prediction method for video signal

Also Published As

Publication number Publication date
JP3301375B2 (en) 2002-07-15

Similar Documents

Publication Publication Date Title
US6173013B1 (en) Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
KR100323489B1 (en) Method and device for transcoding bitstream with video data
US6427027B1 (en) Picture encoding and/or decoding apparatus and method for providing scalability of a video object whose position changes with time and a recording medium having the same recorded thereon
Puri et al. Video coding using the H. 264/MPEG-4 AVC compression standard
US6343098B1 (en) Efficient rate control for multi-resolution video encoding
EP2384002B1 (en) Moving picture decoding method using additional quantization matrices
US6031575A (en) Method and apparatus for encoding an image signal, method and apparatus for decoding an image signal, and recording medium
KR100934290B1 (en) MPEG-2 4: 2: 2-Method and Architecture for Converting a Profile Bitstream to a Main-Profile Bitstream
US6608935B2 (en) Picture encoding method and apparatus, picture decoding method and apparatus and furnishing medium
US7194032B1 (en) Circuit and method for modifying a region of an encoded image
US8630342B2 (en) Picture coding method and picture decoding method
Puri Video coding using the MPEG-2 compression standard
EP1587327A2 (en) Video transcoding
US20020075956A1 (en) Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
US6535558B1 (en) Picture signal encoding method and apparatus, picture signal decoding method and apparatus and recording medium
US20040028129A1 (en) Picture encoding method and apparatus, picture decoding method and apparatus and furnishing medium
US6498816B1 (en) Circuit and method for formatting each of a series of encoded video images into respective regions
JP2002152759A (en) Image information converter and image information conversion method
Haskell et al. Mpeg video compression basics
JP3263901B2 (en) Image signal encoding method and apparatus, image signal decoding method and apparatus
JP3371191B2 (en) Image signal encoding method and decoding method, and encoding apparatus and decoding apparatus
KR100364748B1 (en) Apparatus for transcoding video
JP3301375B2 (en) Image signal encoding apparatus and method, image signal decoding apparatus and method
US6556714B2 (en) Signal processing apparatus and method
JP3318707B2 (en) Image signal encoding device and image signal encoding method, image signal decoding device and image signal decoding method, image signal transmission method, and image signal recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020326

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080426

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090426

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090426

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100426

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100426

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110426

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120426

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130426

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140426

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees