JP3263901B2 - Image signal encoding method and apparatus, image signal decoding method and apparatus - Google Patents
Image signal encoding method and apparatus, image signal decoding method and apparatusInfo
- Publication number
- JP3263901B2 JP3263901B2 JP2412097A JP2412097A JP3263901B2 JP 3263901 B2 JP3263901 B2 JP 3263901B2 JP 2412097 A JP2412097 A JP 2412097A JP 2412097 A JP2412097 A JP 2412097A JP 3263901 B2 JP3263901 B2 JP 3263901B2
- Authority
- JP
- Japan
- Prior art keywords
- circuit
- image signal
- image
- resolution
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、動画像信号を例え
ば光磁気ディスクや磁気テープなどの記録媒体に記録
し、これを再生してディスプレイ装置などに表示した
り、テレビ会議システム、テレビ電話システム、放送用
機器、マルチメディアデータベース検索システムなど、
動画像信号を伝送路を介して送信側から受信側に伝送
し、受信側において、これを受信し、表示する場合や、
動画像信号を編集し記録する場合などに用いて好適な画
像信号符号化方法及び画像信号符号化装置、画像信号復
号方法および画像信号復号装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image signal recorded on a recording medium such as a magneto-optical disk or a magnetic tape, reproduced and displayed on a display device, a video conference system, a video telephone system, and the like. , Broadcasting equipment, multimedia database search system, etc.
When a moving image signal is transmitted from a transmission side to a reception side via a transmission path, and the reception side receives and displays the signal,
The present invention relates to an image signal encoding method and an image signal encoding device, an image signal decoding method, and an image signal decoding device suitable for use in editing and recording a moving image signal.
【0002】[0002]
【従来の技術】例えば、テレビ会議システム、テレビ電
話システムなどのように、動画像信号を遠隔地に伝送す
るシステムにおいては、伝送路を効率良く利用するた
め、映像信号のライン相関やフレーム間相関を利用し
て、画像信号を圧縮符号化するようになされている。2. Description of the Related Art For example, in a system for transmitting a moving image signal to a remote place, such as a video conference system and a video telephone system, in order to efficiently use a transmission path, line correlation or inter-frame correlation of a video signal is required. Is used to compress and encode an image signal.
【0003】動画像の高能率符号化方式として代表的な
ものとしていわゆるMPEG(蓄積用動画像符号化)方
式がある。これはISO−IEC/JTC1/SC2/
WG11にて議論され標準案として提案されたものであ
り、動き補償予測符号化とDCT(Discrete Cosine Tr
ansform)符号化を組み合わせたハイブリッド方式が採
用されている。MPEGでは様々なアプリケーションや
機能に対応するために、いくつかのプロファイルおよび
レベルが定義されている。最も基本となるのが、メイン
プロファイルメインレベル(MP@ML)である。A typical high-efficiency moving picture coding method is the so-called MPEG (moving picture coding for storage) method. This is ISO-IEC / JTC1 / SC2 /
It is discussed at WG11 and proposed as a standard. Motion compensated predictive coding and DCT (Discrete Cosine Tr
ansform) A hybrid system combining coding is adopted. In MPEG, several profiles and levels are defined to support various applications and functions. The most basic is the main profile main level (MP @ ML).
【0004】図20を参照して、MPEG方式のMP@
MLのエンコーダの構成例について説明する。[0004] Referring to FIG. 20, the MP @
A configuration example of the ML encoder will be described.
【0005】入力画像信号は、先ずフレームメモリ20
1に入力され、その後このフレームメモリ201から読
み出されて、後段の構成に送られて所定の順番で符号化
されることになる。An input image signal is first sent to a frame memory 20.
1 and thereafter read from the frame memory 201, sent to the subsequent configuration, and encoded in a predetermined order.
【0006】すなわち符号化されるべき画像データは、
マクロブロック単位で上記フレームメモリ201から読
み出され、動きベクトル検出(ME)回路202に入力
される。動きベクトル検出回路202は、予め設定され
ている所定のシーケンスに従って、各フレームの画像デ
ータを、Iピクチャ、Pピクチャ、またはBピクチャと
して処理する。シーケンシャルに入力される各フレーム
の画像を、I,P,Bのいずれのピクチャとして処理す
るかは、予め定められている(例えば、I,B,P,
B,P,・・・B,Pの順番にて処理される)。That is, the image data to be encoded is
The data is read from the frame memory 201 in macroblock units and input to the motion vector detection (ME) circuit 202. The motion vector detection circuit 202 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame input sequentially is processed as one of I, P, and B pictures is predetermined (for example, I, B, P,
B, P,... B, P are processed in this order).
【0007】ここで、動きベクトル検出回路202は、
予め定められた所定の参照フレームを参照し、動き補償
を行い、その動きベクトルを検出する。動き補償(フレ
ーム間予測)には前方向予測、後方向予測、両方向予測
の3種類の予測モードがある。Pピクチャの予測モード
は前方向予測のみであり、Bピクチャの予測モードは前
方向予測、後方向予測、両方向予測の3種類である。動
きベクトル検出回路202は、予測誤差を最小にする予
測モードを選択しその際の動きベクトルを発生する。Here, the motion vector detecting circuit 202
The motion compensation is performed by referring to a predetermined reference frame, and the motion vector is detected. Motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The prediction mode of a P picture is only forward prediction, and the prediction mode of a B picture is of three types: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 202 selects a prediction mode that minimizes a prediction error, and generates a motion vector at that time.
【0008】このとき、予測誤差は例えば符号化するマ
クロブロックの分散値と比較され、マクロブロックの分
散値の方が小さい場合には、そのマクロブロックでは予
測は行わず、フレーム内符号化が行われる。この場合、
予測モードは画像内符号化(イントラ)となる。At this time, the prediction error is compared with, for example, the variance value of the macroblock to be coded. If the variance value of the macroblock is smaller, the prediction is not performed on that macroblock and the intra-frame coding is performed. Will be in this case,
The prediction mode is intra-picture coding (intra).
【0009】動きベクトルおよび上記予測モードの情報
は、可変長符号化(VLC)回路206および動き補償
(MC)回路212に入力される。The motion vector and the information on the prediction mode are input to a variable length coding (VLC) circuit 206 and a motion compensation (MC) circuit 212.
【0010】動き補償回路212では所定の動きベクト
ルに基づいて予測参照画像を生成し、この予測参照画像
信号を演算回路203に入力する。演算回路203で
は、上記フレームメモリ201からの符号化するマクロ
ブロックの値と、上記動き補償回路212からの予測参
照画像のマクロブロックの値との差分信号を求め、その
差分信号をDCT回路204に出力する。イントラマク
ロブロック(画像内符号化されるマクロブロック)の場
合、演算回路203は上記符号化するマクロブロックの
信号をそのままDCT回路204に出力する。The motion compensation circuit 212 generates a predicted reference image based on a predetermined motion vector, and inputs the predicted reference image signal to the arithmetic circuit 203. The arithmetic circuit 203 obtains a difference signal between the value of the macroblock to be encoded from the frame memory 201 and the value of the macroblock of the predicted reference image from the motion compensation circuit 212, and sends the difference signal to the DCT circuit 204. Output. In the case of an intra macroblock (a macroblock to be intra-coded), the arithmetic circuit 203 outputs the macroblock signal to be coded to the DCT circuit 204 as it is.
【0011】DCT回路204では、上記演算回路20
3からの差分信号がDCT(離散コサイン変換)処理さ
れ、DCT係数に変換される。このDCT係数は、量子
化回路205に入力され、ここで送信バッファ207の
データ蓄積量(バッファに蓄積可能なデータ残量)に対
応した量子化ステップで量子化された後、可変長符号化
回路206に入力される。In the DCT circuit 204, the arithmetic circuit 20
3 is subjected to DCT (Discrete Cosine Transform) processing and converted into DCT coefficients. The DCT coefficient is input to the quantization circuit 205, where it is quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 207 (the remaining amount of data that can be stored in the buffer), and then the variable length coding circuit 206 is input.
【0012】可変長符号化回路206は、量子化(Q)
回路205より供給される量子化ステップ(量子化スケ
ール)に対応して、量子化回路205より供給される画
像データ(今の場合は、Iピクチャのデータ)を、例え
ばハフマン符号などの可変長符号に変換し、この符号を
送信バッファ207に出力する。The variable length coding circuit 206 performs quantization (Q)
In accordance with the quantization step (quantization scale) supplied from the circuit 205, the image data (in this case, I-picture data) supplied from the quantization circuit 205 is converted into a variable length code such as a Huffman code. , And outputs this code to the transmission buffer 207.
【0013】可変長符号化回路206にはまた、量子化
回路205からの量子化ステップ(スケール)と、さら
に動きベクトル検出回路202からの予測モード(画像
内予測、前方向予測、後方向予測、または両方向予測の
いずれが設定されたかを示す予測モード)および動きベ
クトルとが入力されており、これらも可変長符号化され
る。The variable length coding circuit 206 also includes a quantization step (scale) from the quantization circuit 205 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, Or, a prediction mode indicating which of the bidirectional predictions is set) and a motion vector are input, and these are also subjected to variable-length coding.
【0014】送信バッファ207は、入力されたデータ
を一時蓄積し、またその蓄積量に対応するデータを量子
化制御信号として量子化回路205に出力(バッファフ
ィードバック)する。すなわち、送信バッファ207
は、そのデータ蓄積量(蓄積可能なデータ残量)が許容
上限値まで増量すると、上記量子化制御信号によって量
子化回路205の量子化スケールを大きくさせることに
より、量子化回路205から出力される量子化データの
データ量を低下させる。また、これとは逆に、データ蓄
積量(蓄積可能なデータ残量)が許容下限値まで減少す
ると、送信バッファ207は、量子化制御信号によって
量子化回路205の量子化スケールを小さくすることに
より、量子化回路205から出力される量子化データの
データ量を増大させる。このようにして、送信バッファ
207のオーバフローまたはアンダフローが防止され
る。The transmission buffer 207 temporarily stores the input data and outputs (buffer feedback) data corresponding to the stored amount to the quantization circuit 205 as a quantization control signal. That is, the transmission buffer 207
Is output from the quantization circuit 205 by increasing the quantization scale of the quantization circuit 205 by the quantization control signal when the data storage amount (remaining amount of storable data) increases to an allowable upper limit value. The data amount of the quantized data is reduced. Conversely, when the data storage amount (remaining amount of data that can be stored) decreases to the permissible lower limit, the transmission buffer 207 reduces the quantization scale of the quantization circuit 205 by using the quantization control signal. , The amount of quantized data output from the quantization circuit 205 is increased. In this way, overflow or underflow of the transmission buffer 207 is prevented.
【0015】そして、送信バッファ207に蓄積された
データは、所定のタイミングで読み出され、伝送路にビ
ットストリームとして出力される。[0015] The data stored in the transmission buffer 207 is read at a predetermined timing and output as a bit stream to a transmission path.
【0016】一方、量子化回路205より出力されたデ
ータは、逆量子化(IQ)回路208にも入力される。
この逆量子化回路208では、上記量子化回路205よ
り供給されたデータを、同じく量子化回路205より供
給される量子化ステップに対応して逆量子化する。この
逆量子化回路208の出力は、IDCT(逆DCT)回
路209に入力され、ここで逆DCT処理された後、演
算回路210に送られる。この演算回路210では、I
DCT回路209の出力と動き補償回路212の出力と
を加算して画像信号を復元する。この画像信号は、フレ
ームメモリ211に記憶される。動き補償回路212
は、フレームメモリ211の画像と動きベクトルと予測
モードとを用いて、予測参照画像を生成する。On the other hand, the data output from the quantization circuit 205 is also input to an inverse quantization (IQ) circuit 208.
In the inverse quantization circuit 208, the data supplied from the quantization circuit 205 is inversely quantized according to the quantization step also supplied from the quantization circuit 205. The output of the inverse quantization circuit 208 is input to an IDCT (inverse DCT) circuit 209, where it is subjected to inverse DCT processing, and then sent to an arithmetic circuit 210. In this arithmetic circuit 210, I
An image signal is restored by adding the output of the DCT circuit 209 and the output of the motion compensation circuit 212. This image signal is stored in the frame memory 211. Motion compensation circuit 212
Generates a prediction reference image using the image in the frame memory 211, the motion vector, and the prediction mode.
【0017】次に、図21を用いて、MPEGのMP@
MLのデコーダの構成例を説明する。Next, referring to FIG.
A configuration example of the ML decoder will be described.
【0018】伝送路を介して伝送されてきた符号化され
た画像データ(ビットストリーム)は、図示せぬ受信回
路で受信されたり、再生装置で再生され、受信バッファ
221に一時記憶された後、可変長復号(IVLC)回
路222に供給される。可変長復号回路222は、受信
バッファ221より供給されたデータを可変長復号し、
得られた動きベクトルと予測モードを動き補償回路22
7に、また、量子化ステップを逆量子化回路223に、
それぞれ出力すると共に、復号された画像データを逆量
子化(IQ)回路223に出力する。The encoded image data (bit stream) transmitted via the transmission path is received by a receiving circuit (not shown) or reproduced by a reproducing device, and temporarily stored in a receiving buffer 221. It is supplied to a variable length decoding (IVLC) circuit 222. The variable length decoding circuit 222 performs variable length decoding on the data supplied from the reception buffer 221,
The obtained motion vector and the prediction mode are stored in the motion compensation circuit 22.
7, and the quantization step to the inverse quantization circuit 223,
In addition to outputting them, the decoded image data is output to an inverse quantization (IQ) circuit 223.
【0019】逆量子化回路223は、可変長復号回路2
22より供給された画像データを、同じく可変長復号回
路222より供給された量子化ステップに従って逆量子
化し、IDCT回路224に出力する。逆量子化回路2
23より出力されたデータ(DCT係数)は、IDCT
回路224により逆DCT処理され、演算回路225に
供給される。The inverse quantization circuit 223 includes the variable length decoding circuit 2
The image data supplied from 22 is inversely quantized according to the quantization step also supplied from the variable length decoding circuit 222, and is output to the IDCT circuit 224. Inverse quantization circuit 2
The data (DCT coefficient) output from IDT 23 is
The inverse DCT processing is performed by the circuit 224, and the result is supplied to the arithmetic circuit 225.
【0020】ここでIDCT回路224より供給された
画像データが、Iピクチャのデータである場合、そのデ
ータは演算回路225よりそのまま出力され、この演算
回路225に対して後に入力される画像データ(Pまた
はBピクチャのデータ)の予測参照画像データ生成のた
めに、フレームメモリ226に供給されて記憶される。
また、この演算回路225からの出力データは、そのま
ま再生画像として外部に出力される。If the image data supplied from the IDCT circuit 224 is I-picture data, the data is output as it is from the arithmetic circuit 225, and the image data (P Alternatively, the data is supplied to and stored in the frame memory 226 in order to generate predicted reference image data of B picture data).
The output data from the arithmetic circuit 225 is directly output as a reproduced image to the outside.
【0021】一方、入力ビットストリームがPまたはB
ピクチャの場合、動き補償回路227は、可変長復号回
路222より供給される動きベクトルおよび予測モード
に従って、予測参照画像を生成し、その予測参照画像を
演算回路225に出力する。演算回路225では、ID
CT回路224より入力される画像データと、動き補償
回路227より供給される予測参照画像データとを加算
し出力画像とする。またPピクチャの場合、演算回路2
25の出力はまた、フレームメモリ226に入力され記
憶され、次に復号する画像信号の参照画像とされる。On the other hand, if the input bit stream is P or B
In the case of a picture, the motion compensation circuit 227 generates a predicted reference image according to the motion vector and the prediction mode supplied from the variable length decoding circuit 222, and outputs the predicted reference image to the arithmetic circuit 225. In the arithmetic circuit 225, the ID
The image data input from the CT circuit 224 and the predicted reference image data supplied from the motion compensation circuit 227 are added to generate an output image. In the case of a P picture, the arithmetic circuit 2
The output of 25 is also input to and stored in the frame memory 226, and is used as a reference image of an image signal to be decoded next.
【0022】MPEGでは、MP@MLの他に様々なプ
ロファイルおよびレベルが定義され、また各種ツールが
用意されている。以下に述べるスケーラビリティもMP
EGのこうしたツールの1つである。In MPEG, various profiles and levels are defined in addition to MP @ ML, and various tools are prepared. The scalability described below is also MP
This is one of the EG's tools.
【0023】MPEGでは、異なる画像サイズやフレー
ムレートに対応するスケーラビリティを実現するスケー
ラブル符号化方式が導入されている。例えば空間スケー
ラビリティの場合、下位レイヤのビットストリームのみ
を復号する場合は、画像サイズの小さい画像信号を復号
し、下位レイヤおよび上位レイヤのビットストリームを
復号する場合は、画像サイズの大きい画像信号を復号す
る。In MPEG, a scalable encoding method for realizing scalability corresponding to different image sizes and frame rates has been introduced. For example, in the case of spatial scalability, when decoding only the lower layer bit stream, an image signal with a small image size is decoded, and when decoding the lower layer and upper layer bit streams, an image signal with a large image size is decoded. I do.
【0024】図22を用いて空間スケーラビリティのエ
ンコーダを説明する。空間スケーラビリティの場合、下
位レイヤは画像サイズの小さい画像信号、また上位レイ
ヤは画像サイズの大きい画像信号に対応する。An encoder for spatial scalability will be described with reference to FIG. In the case of spatial scalability, the lower layer corresponds to an image signal with a small image size, and the upper layer corresponds to an image signal with a large image size.
【0025】下位レイヤの画像信号は、先ずフレームメ
モリ261に入力され、後段の構成により、前述したM
P@MLと同様に符号化される。The image signal of the lower layer is first input to the frame memory 261 and the above-described M
Encoded in the same way as P @ ML.
【0026】すなわち、マクロブロック単位で上記フレ
ームメモリ261から読み出されたデータは、動きベク
トル検出回路262に入力される。動きベクトル検出回
路262は、予め設定されている所定のシーケンスに従
って、各フレームの画像データを、Iピクチャ、Pピク
チャ、またはBピクチャとして処理する。That is, the data read from the frame memory 261 in macroblock units is input to the motion vector detection circuit 262. The motion vector detection circuit 262 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance.
【0027】動きベクトル検出回路262は、予め定め
られた所定の参照フレーム(すなわち前方原画像、後方
原画像、原画像)を参照し、動き補償を行い、その動き
ベクトルを検出する。動き補償(フレーム間予測)には
前方向予測、後方向予測、両方向予測の3種類の予測モ
ードがある。動きベクトル検出回路262は、予測誤差
を最小にする予測モードを選択しその際の動きベクトル
を発生する。上記動きベクトルおよび上記予測モードの
情報は、可変長符号化回路266および動き補償回路2
72に入力される。The motion vector detecting circuit 262 refers to a predetermined reference frame (ie, a front original image, a rear original image, and an original image), performs motion compensation, and detects the motion vector. Motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 262 selects a prediction mode that minimizes a prediction error, and generates a motion vector at that time. The information on the motion vector and the prediction mode is stored in the variable length coding circuit 266 and the motion compensation circuit 2.
72.
【0028】動き補償回路272では所定の動きベクト
ルに基づいて予測参照画像を生成し、この予測参照画像
信号を演算回路263に入力する。演算回路263で
は、上記フレームメモリ261からの符号化するマクロ
ブロックの値と、上記動き補償回路272からの予測参
照画像のマクロブロックの値との差分信号を求め、その
差分信号をDCT回路264に出力する。なお、イント
ラマクロブロック(画像内符号化されるマクロブロッ
ク)の場合、演算回路263は符号化するマクロブロッ
クの信号をそのままDCT回路264に出力する。The motion compensation circuit 272 generates a predicted reference image based on a predetermined motion vector, and inputs this predicted reference image signal to the arithmetic circuit 263. The arithmetic circuit 263 obtains a difference signal between the value of the macroblock to be encoded from the frame memory 261 and the value of the macroblock of the predicted reference image from the motion compensation circuit 272, and sends the difference signal to the DCT circuit 264. Output. In the case of an intra macroblock (a macroblock to be intra-coded), the arithmetic circuit 263 outputs the macroblock signal to be encoded to the DCT circuit 264 as it is.
【0029】DCT回路264では、上記演算回路26
3からの差分信号がDCT処理され、DCT係数に変換
される。このDCT係数は、量子化回路265に入力さ
れ、ここで送信バッファ267のデータ蓄積量(バッフ
ァに蓄積可能なデータ残量)に対応した量子化ステップ
で量子化された後、可変長符号化回路266に入力され
る。In the DCT circuit 264, the operation circuit 26
3 is subjected to DCT processing and converted into DCT coefficients. The DCT coefficient is input to the quantization circuit 265, where it is quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 267 (the remaining amount of data that can be stored in the buffer), and then the variable length coding circuit 266.
【0030】可変長符号化回路266は、量子化回路2
65より供給される量子化ステップ(量子化スケール)
に対応して、量子化回路265より供給される画像デー
タを、例えばハフマン符号などの可変長符号に変換し、
この符号を送信バッファ267に出力する。The variable length coding circuit 266 is
Quantization step (quantization scale) supplied from 65
, The image data supplied from the quantization circuit 265 is converted into a variable-length code such as a Huffman code,
This code is output to the transmission buffer 267.
【0031】可変長符号化回路266にはまた、量子化
回路265からの量子化ステップ(スケール)と、さら
に動きベクトル検出回路262からの予測モード(画像
内予測、前方向予測、後方向予測、または両方向予測の
いずれが設定されたかを示す予測モード)および動きベ
クトルとが入力されており、これらも可変長符号化され
る。The variable length coding circuit 266 also includes a quantization step (scale) from the quantization circuit 265 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, Or, a prediction mode indicating which of the bidirectional predictions is set) and a motion vector are input, and these are also subjected to variable-length coding.
【0032】送信バッファ267は、入力されたデータ
を一時蓄積し、またその蓄積量に対応するデータを量子
化制御信号として量子化回路265に出力(バッファフ
ィードバック)する。これにより、当該送信バッファ2
67のオーバフローまたはアンダフローが防止される。The transmission buffer 267 temporarily stores the input data, and outputs (buffer feedback) data corresponding to the storage amount to the quantization circuit 265 as a quantization control signal. Thereby, the transmission buffer 2
The overflow or underflow of 67 is prevented.
【0033】そして、送信バッファ267に蓄積された
データは、所定のタイミングで読み出され、伝送路にビ
ットストリームとして出力される。The data stored in the transmission buffer 267 is read out at a predetermined timing and output to a transmission path as a bit stream.
【0034】一方、量子化回路265より出力されたデ
ータは、逆量子化回路268にも入力される。この逆量
子化回路268では、上記量子化回路265より供給さ
れたデータを、同じく量子化回路265より供給される
量子化ステップに対応して逆量子化する。この逆量子化
回路268の出力は、IDCT回路269に入力され、
ここで逆DCT処理された後、演算回路270に送られ
る。この演算回路270では、IDCT回路269の出
力と動き補償回路272の出力とを加算して画像信号を
復元する。この画像信号は、フレームメモリ271に記
憶される。動き補償回路272は、フレームメモリ27
1の画像と動きベクトルと予測モードとを用いて、予測
参照画像を生成する。On the other hand, the data output from the quantization circuit 265 is also input to the inverse quantization circuit 268. In the inverse quantization circuit 268, the data supplied from the quantization circuit 265 is inversely quantized according to the quantization step also supplied from the quantization circuit 265. The output of the inverse quantization circuit 268 is input to the IDCT circuit 269,
Here, after the inverse DCT processing, the signal is sent to the arithmetic circuit 270. The arithmetic circuit 270 restores an image signal by adding the output of the IDCT circuit 269 and the output of the motion compensation circuit 272. This image signal is stored in the frame memory 271. The motion compensation circuit 272 includes the frame memory 27
A prediction reference image is generated using one image, a motion vector, and a prediction mode.
【0035】ただし、この下位レイヤの構成例におい
て、演算回路270の出力は、上記フレームメモリ27
1に供給されて下位レイヤの参照画像として用いられる
だけでなく、アップサンプリングにより画像拡大を行う
画像拡大回路243によって上位レイヤの画像サイズと
同一の画像サイズに拡大された後、上位レイヤの参照画
像にも用いられる。However, in the configuration example of the lower layer, the output of the arithmetic circuit 270 is
1 is not only used as the reference image of the lower layer but also used as a reference image of the lower layer, and after being enlarged to the same image size as the image size of the upper layer by the image enlargement circuit 243 that enlarges the image by upsampling, It is also used for
【0036】すなわち演算回路270の出力は、上記の
通りフレームメモリ271および画像拡大回路243に
入力される。画像拡大回路243では演算回路270に
よって生成された画像信号を拡大して上位レイヤの画像
サイズと同一の大きさにして重み付加回路244に出力
する。That is, the output of the arithmetic circuit 270 is input to the frame memory 271 and the image enlargement circuit 243 as described above. The image enlargement circuit 243 enlarges the image signal generated by the arithmetic circuit 270 to have the same size as the image size of the upper layer and outputs the same to the weighting circuit 244.
【0037】重み付加回路244では、画像拡大回路2
43の出力に重み(1−W)を乗算し、演算回路258
に出力する。In the weighting circuit 244, the image enlargement circuit 2
43 is multiplied by a weight (1-W), and an arithmetic circuit 258
Output to
【0038】一方、上位レイヤの画像信号は、先ずフレ
ームメモリ245に入力される。動きベクトル検出回路
246は、前述したMP@MLと同様に、動きベクトル
および予測モードを決定する。On the other hand, the image signal of the upper layer is first input to the frame memory 245. The motion vector detection circuit 246 determines a motion vector and a prediction mode, similarly to the above-described MP @ ML.
【0039】ここで、この上位レイヤの構成において、
動き補償回路256は、動きベクトル検出回路246に
よって決定された動きベクトルおよび予測モードに従っ
て予測参照画像を生成するが、この予測参照画像信号
は、重み付加回路257に供給される。この重み付加回
路257では、上記予測参照画像に対して重みW(重み
計数W)を乗算し演算回路258に出力する。Here, in the configuration of the upper layer,
The motion compensation circuit 256 generates a prediction reference image according to the motion vector determined by the motion vector detection circuit 246 and the prediction mode. The prediction reference image signal is supplied to the weighting circuit 257. The weighting circuit 257 multiplies the predicted reference image by a weight W (weight count W) and outputs the result to the arithmetic circuit 258.
【0040】演算回路258は、重み付加回路244お
よび257の出力を加算し、得られた画像信号を予測参
照画像として演算回路247に出力する。演算回路25
8の出力はまた、演算回路254にも入力され逆DCT
回路253の出力と加算された後、フレームメモリ25
5に入力されこの後に符号化される画像信号の参照画像
として用いられる。The arithmetic circuit 258 adds the outputs of the weighting circuits 244 and 257, and outputs the obtained image signal to the arithmetic circuit 247 as a predicted reference image. Arithmetic circuit 25
8 is also input to the arithmetic circuit 254 and the inverse DCT
After being added to the output of the circuit 253, the frame memory 25
5 and is used as a reference image of an image signal to be encoded thereafter.
【0041】演算回路247は、フレームメモリ245
からの符号する画像信号と上記演算回路258の出力と
の差分を計算して出力する。ただし、フレーム内符号化
マクロブロックの場合、演算回路247は上記符号する
画像信号をそのままDCT回路248に出力する。The arithmetic circuit 247 includes a frame memory 245
From the image signal to be encoded and the output of the arithmetic circuit 258, and outputs the calculated difference. However, in the case of the intra-coded macroblock, the arithmetic circuit 247 outputs the image signal to be encoded to the DCT circuit 248 as it is.
【0042】DCT回路248は演算回路247の出力
をDCT(離散コサイン変換)処理し、DCT係数を生
成し、量子化回路249に出力する。量子化回路249
ではMP@MLの場合と同様に送信バッファ251のデ
ータ蓄積量などに基づいて決定された量子化スケールに
したがってDCT係数を量子化し、可変長符号化回路2
50に出力する。可変長符号化回路250は、量子化さ
れたDCT係数を可変長符号化した後、送信バッファ2
51を介して上位レイヤのビットストリームを出力す
る。The DCT circuit 248 performs a DCT (Discrete Cosine Transform) process on the output of the arithmetic circuit 247, generates DCT coefficients, and outputs the DCT coefficients to the quantization circuit 249. Quantization circuit 249
In the same manner as in the case of MP @ ML, the DCT coefficients are quantized according to the quantization scale determined based on the data storage amount of the transmission buffer 251 and the like, and the variable length coding circuit 2
Output to 50. The variable-length coding circuit 250 performs variable-length coding on the quantized DCT coefficients,
The bit stream of the upper layer is output via 51.
【0043】量子化回路249の出力はまた、逆量子化
回路252にて上記量子化回路249で用いた量子化ス
ケールによって逆量子化され、さらに逆DCT回路25
3で逆量子化された後、演算回路254に入力される。
演算回路254では、演算回路258と逆DCT回路2
53の出力を加算し、得られた画像信号をフレームメモ
リ255に入力する。The output of the quantization circuit 249 is inversely quantized by the inverse quantization circuit 252 using the quantization scale used in the quantization circuit 249, and
After being dequantized by 3, the signal is input to the arithmetic circuit 254.
In the arithmetic circuit 254, the arithmetic circuit 258 and the inverse DCT circuit 2
The outputs of 53 are added, and the obtained image signal is input to the frame memory 255.
【0044】可変長符号化回路250ではまた、動きベ
クトル検出回路246で検出された動きベクトルおよび
予測モードと、量子化回路249で用いた量子化スケー
ルと、重み付加回路244および257で用いた重みW
が入力され、それぞれ符号化され伝送される。The variable length coding circuit 250 also includes the motion vector and prediction mode detected by the motion vector detection circuit 246, the quantization scale used by the quantization circuit 249, and the weights used by the weighting circuits 244 and 257. W
Are input, respectively encoded and transmitted.
【0045】次に、図23を用いて空間スケーラビリテ
ィのデコーダの一例を説明する。Next, an example of a spatial scalability decoder will be described with reference to FIG.
【0046】下位レイヤのビットストリームは、受信バ
ッファ301に入力された後、MP@MLと同様に復号
される。すなわち、受信バッファ301から読み出され
たデータは、可変長復号回路302に送られる。可変長
復号回路302は、受信バッファ301より供給された
データを可変長復号し、動きベクトルと予測モードを動
き補償回路307に、また、量子化ステップを逆量子化
回路303に、それぞれ出力すると共に、復号された画
像データを逆量子化回路303に出力する。After the bit stream of the lower layer is input to the reception buffer 301, it is decoded like MP @ ML. That is, the data read from the reception buffer 301 is sent to the variable length decoding circuit 302. The variable length decoding circuit 302 performs variable length decoding on the data supplied from the reception buffer 301, and outputs the motion vector and the prediction mode to the motion compensation circuit 307, and outputs the quantization step to the inverse quantization circuit 303, respectively. , And outputs the decoded image data to the inverse quantization circuit 303.
【0047】逆量子化回路303は、可変長復号回路3
02より供給された画像データを、同じく可変長復号回
路302より供給された量子化ステップに従って逆量子
化し、IDCT回路304に出力する。逆量子化回路3
03より出力されたデータ(DCT係数)は、IDCT
回路304で逆DCT処理され、演算回路305に供給
される。The inverse quantization circuit 303 includes a variable length decoding circuit 3
02 is inversely quantized according to the quantization step also supplied from the variable length decoding circuit 302, and is output to the IDCT circuit 304. Inverse quantization circuit 3
03 (DCT coefficient) is the IDCT
The circuit 304 performs an inverse DCT process and supplies the result to the arithmetic circuit 305.
【0048】ここでIDCT回路304より供給された
画像データが、Iピクチャのデータである場合、そのデ
ータは演算回路305より出力され、演算回路305に
後に入力される画像データ(PまたはBピクチャのデー
タ)の予測参照画像データ生成のために、フレームメモ
リ306に供給されて記憶される。また、このデータ
は、そのまま再生画像として外部に出力される。If the image data supplied from the IDCT circuit 304 is I-picture data, the data is output from the arithmetic circuit 305 and the image data (P or B-picture The data is supplied to and stored in the frame memory 306 to generate predicted reference image data of the data. This data is output to the outside as a reproduced image as it is.
【0049】一方、入力ビットストリームがPまたはB
ピクチャの場合、動き補償回路307は、可変長復号回
路302より供給される動きベクトルおよび予測モード
に従って、予測参照画像を生成し、その予測参照画像を
演算回路305に出力する。演算回路305では、ID
CT回路304より入力される画像データと、動き補償
回路307より供給される予測参照画像データとを加算
し出力画像とする。また、Pピクチャの場合、演算回路
305の出力はまた、フレームメモリ306に入力され
記憶され、次に復号する画像信号の予測参照画像とされ
る。On the other hand, if the input bit stream is P or B
In the case of a picture, the motion compensation circuit 307 generates a predicted reference image according to the motion vector and the prediction mode supplied from the variable length decoding circuit 302, and outputs the predicted reference image to the arithmetic circuit 305. In the arithmetic circuit 305, the ID
The image data input from the CT circuit 304 and the predicted reference image data supplied from the motion compensation circuit 307 are added to generate an output image. In the case of a P picture, the output of the arithmetic circuit 305 is also input to and stored in the frame memory 306, and is used as a predicted reference image of an image signal to be decoded next.
【0050】ただし、この図23の構成では、上述のよ
うに演算回路305の出力は外部に出力され、またフレ
ームメモリ306に蓄えられて、これ以後復号する画像
信号の予測参照画像として用いられるだけでなく、画像
拡大回路327により上位レイヤの画像信号と同一の画
像サイズに拡大された後、上位レイヤの予測参照画像と
しても用いられる。However, in the configuration of FIG. 23, the output of the arithmetic circuit 305 is output to the outside as described above, and is stored in the frame memory 306, and is used only as a prediction reference image of an image signal to be decoded thereafter. Instead, after being enlarged by the image enlargement circuit 327 to the same image size as the image signal of the upper layer, it is also used as a prediction reference image of the upper layer.
【0051】すなわち、演算回路305の出力は、上述
のように下位レイヤ再生画像として出力され、またフレ
ームメモリ306に出力されると同時に、画像拡大回路
327により上位レイヤの画像サイズと同一の画像サイ
ズに拡大された後、重み付加回路328に出力される。That is, the output of the arithmetic circuit 305 is output as a lower layer reproduced image as described above, and is also output to the frame memory 306. At the same time, the image enlargement circuit 327 outputs the same image size as that of the upper layer. , And output to the weighting circuit 328.
【0052】重み付加回路328では、画像拡大回路3
27の出力に対して上記復号された重みWを用いて計算
した(1−W)を乗算し、この値を演算回路317に出
力する。In the weighting circuit 328, the image enlargement circuit 3
27 is multiplied by (1−W) calculated using the decoded weight W, and this value is output to the arithmetic circuit 317.
【0053】一方、上位レイヤのビットストリームは、
受信バッファ309を介して可変長復号回路310に供
給さ、ここで可変長符号が復号され、DCT係数ととも
に量子化スケール、動きベクトル、予測モードおよび重
み係数が復号される。可変長復号回路310により復号
されたDCT係数は、同じく復号された量子化スケール
を用いて逆量子化回路311において逆量子化された
後、逆DCT回路312により逆DCT処理され、さら
にその後、演算回路313に供給される。On the other hand, the bit stream of the upper layer is
The data is supplied to the variable length decoding circuit 310 via the reception buffer 309, where the variable length code is decoded, and the quantization scale, the motion vector, the prediction mode, and the weight coefficient are decoded together with the DCT coefficient. The DCT coefficient decoded by the variable length decoding circuit 310 is inversely quantized by the inverse quantization circuit 311 using the same quantization scale, and then subjected to inverse DCT processing by the inverse DCT circuit 312, and further thereafter, the operation The signal is supplied to the circuit 313.
【0054】動き補償回路315は、上記復号された動
きベクトルおよび予測モードにしたがって予測参照画像
を生成し、この予測参照画像を重み付加回路316に入
力する。重み付加回路316では、上記復号された重み
Wを動き補償回路315の出力に乗算し、この乗算結果
を演算回路317に出力する。The motion compensation circuit 315 generates a predicted reference image according to the decoded motion vector and the prediction mode, and inputs the predicted reference image to the weighting circuit 316. The weighting circuit 316 multiplies the output of the motion compensation circuit 315 by the decoded weight W, and outputs the multiplication result to the arithmetic circuit 317.
【0055】演算回路317は、重み付加回路328お
よび316の出力を加算し、得られた画像信号を演算回
路313に出力する。演算回路313では、逆DCT回
路312の出力と演算回路317の出力を加算して上位
レイヤの再生画像として出力し、またフレームメモリ3
14に供給してこの後復号する画像信号の予測参照画像
とする。The arithmetic circuit 317 adds the outputs of the weighting circuits 328 and 316, and outputs the obtained image signal to the arithmetic circuit 313. The arithmetic circuit 313 adds the output of the inverse DCT circuit 312 and the output of the arithmetic circuit 317 and outputs the result as a reproduced image of the upper layer.
14 to be used as a predicted reference image of an image signal to be decoded thereafter.
【0056】なお、以上の説明は、輝度信号の処理につ
いての説明であるが、色差信号の処理も同様に行われ
る。但し、この場合、動きベクトルは、輝度信号用のも
のを垂直方向および水平方向に1/2にしたものが用い
られる。Although the above description is for the processing of the luminance signal, the processing of the chrominance signal is similarly performed. However, in this case, a motion vector obtained by halving the luminance vector for the luminance signal in the vertical and horizontal directions is used.
【0057】以上、MPEG方式について説明したが、
この他にも様々な動画像の高能率符号化方式が標準化さ
れている。例えば、いわゆるITU−T(Internationa
l Telecommunication Union−Telecommunication secto
r:国際電気通信連合の電気通信標準化部門)では、主に
通信用の符号化方式として、H.261やH.263と
いう方式を規定している。このH.261やH.263
も基本的にはMPEG方式と同様に動き補償予測符号化
とDCT変換符号化を組み合わせたものであり、ヘッダ
情報などの詳細は異なるが、符号化装置や復号装置は同
様となる。The MPEG system has been described above.
In addition, various high-efficiency coding schemes for moving images have been standardized. For example, a so-called ITU-T (Internationa
l Telecommunication Union-Telecommunication secto
r: Telecommunications Standardization Sector of the International Telecommunications Union), mainly uses H.264 as an encoding method for communications. 261 and H.E. 263 is defined. This H. 261 and H.E. 263
Is basically a combination of motion-compensated predictive coding and DCT transform coding as in the MPEG system. Although details such as header information are different, the coding apparatus and the decoding apparatus are the same.
【0058】[0058]
【発明が解決しようとする課題】MPEG2においては
空間スケーラビリティが既に標準化されているが、その
符号化効率は十分であるとは言い難い。したがって、M
PEG4方式やその他の新規符号化方式においては空間
スケーラビリティの符号化効率を向上することが課題と
なっている。In MPEG2, spatial scalability has already been standardized, but its coding efficiency is hardly sufficient. Therefore, M
In the PEG4 system and other new coding systems, it is an issue to improve the coding efficiency of spatial scalability.
【0059】MPEG2方式における空間スケーラビリ
ティについて、ここで少し詳しく説明する。同スケーラ
ブル符号化方式においては、下位レイヤは通常の符号化
方式、すなわちMPEG2の場合はMP@MLと同様に
符号化する。上位レイヤは、同じ時刻の下位レイヤの画
像、および同じレイヤの直前に復号された画像を、参照
画像として用いる。この時、下位レイヤと上位レイヤの
予測モードはまったく独立に決定される。したがって、
下位レイヤにおいて情報を伝送したにもかかわらず、上
位レイヤでそれがまったく使われずに、上位レイヤの復
号画像から予測を行って符号化してしまうことがある。
これは、上位レイヤと下位レイヤで共有可能な情報をま
ったく独立に伝送していることに等しい。The spatial scalability in the MPEG2 system will now be described in some detail. In the scalable coding method, the lower layer is coded in the same manner as a normal coding method, that is, MP @ ML in the case of MPEG2. The upper layer uses an image of the lower layer at the same time and an image decoded immediately before the same layer as a reference image. At this time, the prediction modes of the lower layer and the upper layer are determined completely independently. Therefore,
Despite the information being transmitted in the lower layer, there is a case where the information is not used at all in the upper layer, but is predicted from the decoded image in the upper layer and encoded.
This is equivalent to transmitting information that can be shared between the upper layer and the lower layer completely independently.
【0060】したがって、上記のような情報伝送の重複
をできるだけ少なくし、符号化効率を向上させることが
課題となっている。Therefore, it is an object to minimize the duplication of information transmission as described above and to improve the coding efficiency.
【0061】また、MPEG2方式ではマクロブロック
単位でしか符号化モードを指定することができない。こ
れは比較的均一な領域の画像を扱う場合は問題無いが、
複雑な動きをするシーケンスや、異なる性質の画像(例
えば、静止領域と動領域)が一つのマクロブロックに含
まれる場合には符号化効率の低下の原因となっている。In the MPEG2 system, the coding mode can be specified only on a macroblock basis. This is fine when dealing with images in relatively uniform areas,
When one macroblock contains a sequence that moves in a complicated manner or an image having a different property (for example, a still area and a moving area), it causes a reduction in coding efficiency.
【0062】そこで、本発明は、このような実情に鑑み
てなされたものであり、空間スケーラブル符号化方法に
おいて、予測効率を改善し、符号化効率を向上すること
を可能にする、動画像信号符号化方法及び装置、動画像
信号復号方法及び装置を提供することを目的とするもの
である。Accordingly, the present invention has been made in view of such circumstances, and in a spatial scalable encoding method, it is possible to improve a prediction efficiency and to improve a coding efficiency by improving a moving picture signal. It is an object of the present invention to provide an encoding method and apparatus, and a moving image signal decoding method and apparatus.
【0063】[0063]
【課題を解決するための手段】本発明は、上述した課題
を解決するために提案されたものであり、画像信号を高
解像度と低解像度の少なくとも2層の画像信号に分離階
層化し、これら高解像度と低解像度の画像信号を予測参
照画像を用いて符号化するものであって、高解像度の画
像信号から求めた動き情報を用いて低解像度の画像信号
の変化量を求め、この変化量を所定の閾値と比較し、該
閾値以上のときに当該変化量を高解像度の画像信号を符
号化した信号の復号画像信号に加算して予測参照画像を
生成し、当該生成した予測参照画像を用いて符号化を行
うことを特徴としている。SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above-mentioned problem. An image signal is separated and hierarchized into at least two layers of high-resolution and low-resolution image signals. The method encodes a resolution and a low-resolution image signal using a predicted reference image, and obtains a change amount of a low-resolution image signal using motion information obtained from the high-resolution image signal. Compared with a predetermined threshold, when the difference is equal to or greater than the threshold, a predicted reference image is generated by adding the amount of change to a decoded image signal of a signal obtained by encoding a high-resolution image signal, and the generated predicted reference image is used. It is characterized by performing encoding.
【0064】すなわち本発明は、これまでのMPEG方
式の予測モードに加えて、上位レイヤの参照画像に下位
レイヤの変化量を加算することにより新たな参照画像を
生成し、この新たな参照画像を用いてフレーム間予測符
号化を実現するようにしている。この方法により、空間
スケーラブル符号化の符号化効率を向上させ、画質を改
善することを可能にしている。That is, the present invention generates a new reference image by adding the change amount of the lower layer to the reference image of the upper layer, in addition to the prediction mode of the conventional MPEG system, and generates the new reference image. To realize inter-frame predictive coding. With this method, it is possible to improve the coding efficiency of spatial scalable coding and improve the image quality.
【0065】[0065]
【発明の実施の形態】以下に、本発明を実現する実施の
形態について、図面を参照しながら説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0066】先ず、本発明の実施の形態についての具体
的内容説明を行う前に、本発明の基本的な考え方につい
て、MPEGにおける各参照画像の性質と絡めて説明す
る。First, before giving a detailed description of the embodiments of the present invention, the basic concept of the present invention will be described in connection with the properties of each reference image in MPEG.
【0067】通常、上位レイヤの画像信号は下位レイヤ
の画像信号と比較して画質が良い。したがって、フレー
ム間の変化が少ない場合は、上位レイヤの画像を用いて
動き補償を行った方が、予測誤差が少なくなることが多
い。しかし、フレーム間の変化が大きい場合は、動き補
償の効率が下がるため、同時刻の画像を参照画像とした
方が効率が良い。このようなことから、フレーム間差分
が大きい領域では同時刻の下位レイヤからの画像信号
を、また、フレーム間差分が小さい場合には同じ階層
(上位レイヤ)の画像を、参照画像に用いれば良い。Normally, the image signal of the upper layer has better image quality than the image signal of the lower layer. Therefore, when the change between frames is small, it is often the case that the motion compensation is performed using the image of the upper layer to reduce the prediction error. However, when the change between frames is large, the efficiency of motion compensation is reduced. Therefore, it is more efficient to use an image at the same time as a reference image. For this reason, an image signal from a lower layer at the same time may be used as a reference image in an area where the inter-frame difference is large, and an image of the same layer (upper layer) if the inter-frame difference is small. .
【0068】次ぎに、MPEG方式の空間スケーラブル
符号化の情報の重複について説明する。Next, the duplication of information of the spatial scalable coding of the MPEG system will be described.
【0069】上位レイヤのあるマクロブロックを符号化
する場合を考える。この時、当該上位レイヤのマクロブ
ロックに対応する下位レイヤのマクロブロックにおいて
情報(DCT係数)を伝送した場合に、上位レイヤの同
じ画像を参照して予測を行うと、下位レイヤと上位レイ
ヤとで独立に情報が伝送されることになる。即ち、下位
レイヤで伝送した情報が上位レイヤの符号化に生かされ
ないことになり、効率低下の原因となる。したがって、
上記対応する下位レイヤのマクロブロックでDCT係数
を伝送した場合は、下位レイヤの画像を予測参照画像に
用いた方が、データ伝送の重複が少なくなり、効率が良
い。Consider a case where a macroblock having an upper layer is encoded. At this time, when information (DCT coefficient) is transmitted in a macroblock of a lower layer corresponding to the macroblock of the upper layer, if prediction is performed with reference to the same image of the upper layer, the lower layer and the upper layer will be different. Information will be transmitted independently. That is, the information transmitted in the lower layer is not used for encoding in the upper layer, which causes a reduction in efficiency. Therefore,
When the DCT coefficients are transmitted in the corresponding lower layer macroblock, the use of the lower layer image as the prediction reference image reduces the duplication of data transmission and is more efficient.
【0070】また、MPEG方式のスケーラブル符号化
では、上位レイヤの予測モードとして、上位レイヤの画
像からの予測、下位レイヤからの予測、およびその平均
値、の3つのモードしか存在しない。したがって、例え
ば上位レイヤの画像を参照画像として用いた場合、下位
レイヤにおいて伝送された情報が、全く上位レイヤに生
かされないことになる。In the scalable coding of the MPEG system, there are only three modes of prediction of the upper layer, namely, a prediction from an image of an upper layer, a prediction from a lower layer, and an average value thereof. Therefore, for example, when the image of the upper layer is used as the reference image, the information transmitted in the lower layer is not used at all in the upper layer.
【0071】このようなことから、本発明では、新しい
予測法式を導入することにより、符号化効率を改善す
る。具体的に言うと、本発明の実施の形態では、これま
でのMPEG方式の予測モードに加えて、上位レイヤの
参照画像に下位レイヤの変化量を加算することにより新
たな参照画像を生成し、フレーム間予測符号化を実現す
るようにしている。この方法により、空間スケーラブル
符号化の符号化効率を向上させ、画質を改善することを
可能にしている。改善の効果としては、信号対ノイズ比
(S/N)で従来のものよりも、0.5dB程度の改善
効果がある。As described above, the present invention improves the coding efficiency by introducing a new prediction method. Specifically, in the embodiment of the present invention, a new reference image is generated by adding the change amount of the lower layer to the reference image of the upper layer, in addition to the prediction mode of the conventional MPEG system, Inter-frame prediction coding is realized. With this method, it is possible to improve the coding efficiency of spatial scalable coding and improve the image quality. As an effect of the improvement, there is an effect of improving the signal-to-noise ratio (S / N) by about 0.5 dB as compared with the conventional one.
【0072】図1には本発明の実施の形態としての画像
信号符号化装置の一例を示す。FIG. 1 shows an example of an image signal encoding apparatus according to an embodiment of the present invention.
【0073】この図1において、入力画像信号はまず画
像信号階層化回路1に入力される。この画像信号階層化
回路1は入力画像信号を複数の階層に分離する。なお、
図1には2階層(1つの下位レイヤと1つの上位レイ
ヤ)の場合の構成を示してあるが、同様に複数の階層に
分離することも可能である。簡単のため、ここでは2つ
の階層に分離する場合についてこれ以後説明する。In FIG. 1, an input image signal is first input to an image signal hierarchical circuit 1. This image signal layering circuit 1 separates an input image signal into a plurality of layers. In addition,
FIG. 1 shows the configuration in the case of two layers (one lower layer and one upper layer), but it is also possible to similarly separate into a plurality of layers. For the sake of simplicity, here, the case of separation into two layers will be described hereinafter.
【0074】例えば、空間スケーラビリティの場合、上
記画像信号階層化回路1は、入力画像信号およびキー
(key)信号を解像度変換して、下位レイヤ及び上位
レイヤの画像信号を生成する。For example, in the case of spatial scalability, the image signal layering circuit 1 converts the resolution of an input image signal and a key signal to generate image signals of a lower layer and an upper layer.
【0075】また、例えばテンポラルスケーラビリティ
(時間軸方向のスケーラビリティ)の場合、画像信号階
層化回路1は、時刻に応じて画像信号の出力を下位レイ
ヤおよび上位レイヤに切り替えて出力する。例えば、図
2の場合、順次供給される画像(ピクチャ)VOP0〜
VOP6は、画像VOP0,VOP2,VOP4,VO
P6が下位レイヤに、また画像VOP1,VOP3,V
OP5が上位レイヤに出力される。このテンポラルスケ
ーラビリティの場合は、上記空間スケーラビリティのよ
うに画像信号の拡大や縮小のような解像度変換は行わな
い。Further, for example, in the case of temporal scalability (scalability in the time axis direction), the image signal layering circuit 1 switches the output of the image signal to the lower layer and the upper layer according to the time and outputs. For example, in the case of FIG. 2, sequentially supplied images (pictures) VOP0
VOP6 is composed of images VOP0, VOP2, VOP4, VO
P6 is the lower layer and the images VOP1, VOP3, V
OP5 is output to the upper layer. In the case of the temporal scalability, resolution conversion such as enlargement or reduction of an image signal is not performed unlike the spatial scalability described above.
【0076】さらに例えばいわゆるSNR(Signal to
Noise Retio)スケーラビリティの場合、画像信号階層
化回路1は、入力画像信号とキー信号をそのまま各レイ
ヤに出力する。すなわち、下位レイヤと上位レイヤに同
一の画像信号およびキー信号を出力する。Further, for example, a so-called SNR (Signal to
In the case of Noise Retio) scalability, the image signal layering circuit 1 outputs the input image signal and the key signal as they are to each layer. That is, the same image signal and key signal are output to the lower layer and the upper layer.
【0077】本実施の形態では、上記空間スケーラビリ
ティの場合を例に挙げている。In the present embodiment, the case of the above spatial scalability is taken as an example.
【0078】画像信号階層化回路1は、例えば空間スケ
ーラビリティの場合、入力画像信号およびキー信号を縮
小(解像度変換)した画像信号を、下位レイヤとして出
力し、一方、上位レイヤには入力画像信号をそのまま出
力する。ここでの解像度変換とは、例えば間引きフィル
タによる縮小フィルタリング処理などである。なお、画
像信号階層化回路1では、入力画像信号を拡大(解像度
変換)した画像信号を、上位レイヤとして出力し、入力
画像信号をそのまま下位レイヤに出力するようにしても
よい。この場合の解像度変換は、拡大フィルタなどによ
る拡大フィルタリング処理となる。さらに画像信号階層
化回路1では、独立に生成された2つの画像信号(解像
度は異なる場合と、同一の場合どちらでもよい。)を、
それぞれ上位レイヤおよび下位レイヤに出力するように
してもよい。この場合、どの画像を上位レイヤおよび下
位レイヤに出力するかは、予め決められている。上位レ
イヤの画像信号は、遅延回路2を介して上位レイヤ符号
化回路3に送られ、下位レイヤの画像信号は下位レイヤ
符号化回路5に送られる。For example, in the case of spatial scalability, the image signal layering circuit 1 outputs an image signal obtained by reducing (resolution converting) the input image signal and the key signal as a lower layer, while outputting the input image signal to an upper layer. Output as is. The resolution conversion here is, for example, a reduction filtering process using a thinning filter. The image signal layering circuit 1 may output an image signal obtained by enlarging (resolution converting) the input image signal as an upper layer, and may output the input image signal to a lower layer as it is. The resolution conversion in this case is an enlargement filtering process using an enlargement filter or the like. Further, in the image signal layering circuit 1, two independently generated image signals (which may have different resolutions or have the same resolution) may be used.
Output may be made to the upper layer and the lower layer, respectively. In this case, which image is output to the upper layer and the lower layer is determined in advance. The image signal of the upper layer is sent to the upper layer encoding circuit 3 via the delay circuit 2, and the image signal of the lower layer is sent to the lower layer encoding circuit 5.
【0079】上述のように入力画像信号を解像度変換し
て下位レイヤと上位レイヤに出力する画像信号階層化回
路1はまた、上記下位レイヤの画像に対する上位レイヤ
の画像の解像度の倍率を示すフラグFRをも出力する。
このフラグFRは、遅延回路2を介して解像度変換回路
4および上位レイヤ符号化回路3に送られる。なお、上
記解像度変換回路4は、上記画像信号階層化回路1内に
設けられる解像度変換手段とは別に設けられている。As described above, the image signal layering circuit 1 for converting the resolution of the input image signal and outputting the converted image signal to the lower layer and the upper layer also has a flag FR indicating the magnification of the resolution of the upper layer image with respect to the lower layer image. Is also output.
The flag FR is sent to the resolution conversion circuit 4 and the upper layer encoding circuit 3 via the delay circuit 2. The resolution conversion circuit 4 is provided separately from the resolution conversion means provided in the image signal hierarchical circuit 1.
【0080】ここで、下位レイヤ符号化回路5の具体的
構成を図3を用いて説明する。Here, a specific configuration of the lower layer coding circuit 5 will be described with reference to FIG.
【0081】図3において、下位レイヤ符号化回路5に
供給された下位レイヤの入力画像信号は、まずフレーム
メモリ21に入力され、所定の順番で読み出されて、後
段の構成により符号化される。この符号化されるべき画
像データは、マクロブロック単位でフレームメモリ21
から読み出され、動きベクトル検出回路22に入力され
る。動きベクトル検出回路22は、予め設定されている
所定のシーケンスに従って、各フレームの画像データを
Iピクチャ、Pピクチャ、またはBピクチャとして処理
する。シーケンシャルに入力される各フレームの画像
を、I,P,Bのいずれのピクチャとして処理するか
は、予め定められている(例えば、I,B,P,B,
P,・・・B,Pの順番で処理される)。In FIG. 3, the input image signal of the lower layer supplied to the lower layer coding circuit 5 is first input to the frame memory 21, read out in a predetermined order, and coded by the configuration of the subsequent stage. . The image data to be encoded is stored in a frame memory 21 in macroblock units.
And input to the motion vector detection circuit 22. The motion vector detection circuit 22 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame input sequentially is processed as one of I, P, and B pictures is predetermined (for example, I, B, P, B,
P,..., B, P).
【0082】ここで、動きベクトル検出回路22は、予
め定められた所定の参照フレーム(前方原画像、後方原
画像、原フレームの画像)を参照し、動き補償を行い、
その動きベクトルを検出する。動き補償(フレーム間予
測)には、前方向予測、後方向予測、両方向予測の3種
類の予測モードがある。Pピクチャの予測モードは前方
向予測のみであり、Bピクチャの予測モードは前方向予
測、後方向予測、両方向予測の3種類である。この動き
ベクトル検出回路22は、予測誤差を最小にする予測モ
ードを選択し、その際の予測ベクトルを発生する。Here, the motion vector detection circuit 22 refers to a predetermined reference frame (a forward original image, a backward original image, an original frame image) and performs motion compensation.
The motion vector is detected. The motion compensation (inter-frame prediction) has three types of prediction modes: forward prediction, backward prediction, and bidirectional prediction. The prediction mode of a P picture is only forward prediction, and the prediction mode of a B picture is of three types: forward prediction, backward prediction, and bidirectional prediction. The motion vector detection circuit 22 selects a prediction mode that minimizes a prediction error, and generates a prediction vector at that time.
【0083】このとき、予測誤差は、例えば符号化する
マクロブロックの分散値と比較され、マクロブロックの
分散値の方が小さい場合には、そのマクロブロックでは
予測は行わず、フレーム内符号化が行われる。この場
合、予測モードは画像内符号化(イントラ)となる。動
きベクトルおよび上記予測モードの情報は、可変長符号
化回路26および動き補償回路32に入力される。At this time, the prediction error is compared with, for example, the variance value of the macroblock to be coded. If the variance value of the macroblock is smaller, the prediction is not performed on that macroblock, and the intra-frame coding is not performed. Done. In this case, the prediction mode is intra-picture encoding (intra). The motion vector and the information on the prediction mode are input to the variable length coding circuit 26 and the motion compensation circuit 32.
【0084】動き補償回路32では、所定の動きベクト
ルに基づいて予測参照画像を生成し、この予測参照画像
信号を演算回路23に供給する。演算回路23では、上
記フレームメモリ21からの上記符号化するマクロブロ
ックの値と、上記動き補償回路32からの予測参照画像
の値との差分を求め、この差分信号をDCT回路24に
出力する。イントラマクロブロックの場合、演算回路2
3は、上記符号化するマクロブロックの信号をそのまま
DCT回路24に出力する。The motion compensation circuit 32 generates a predicted reference image based on a predetermined motion vector, and supplies the predicted reference image signal to the arithmetic circuit 23. The arithmetic circuit 23 obtains a difference between the value of the macroblock to be encoded from the frame memory 21 and the value of the predicted reference image from the motion compensation circuit 32, and outputs the difference signal to the DCT circuit 24. In the case of an intra macro block, the arithmetic circuit 2
3 outputs the macroblock signal to be encoded to the DCT circuit 24 as it is.
【0085】DCT回路24では、上記差分出力をDC
T(離散コサイン変換)処理してDCT係数に変換す
る。このDCT係数は、量子化回路25に入力され、送
信バッファ27のデータ蓄積量(バッファに蓄積可能な
データ残量)に対応した量子化ステップで量子化された
後、可変長符号化回路26に入力される。The DCT circuit 24 converts the difference output into a DC
T (Discrete Cosine Transform) processing is performed to convert to DCT coefficients. The DCT coefficient is input to the quantization circuit 25 and is quantized in a quantization step corresponding to the amount of data stored in the transmission buffer 27 (the remaining amount of data that can be stored in the buffer). Is entered.
【0086】可変長符号化回路26は、量子化回路25
より供給される量子化ステップ(量子化スケール)に対
応して、上記量子化回路25より供給される画像データ
(いまの場合、Iピクチャのデータ)を、例えばハフマ
ン符号などの可変長符号に変換し、送信バッファ27に
出力する。The variable-length encoding circuit 26 includes a quantization circuit 25
The image data (in this case, I-picture data) supplied from the quantization circuit 25 is converted into a variable-length code such as a Huffman code in accordance with the supplied quantization step (quantization scale). Then, the data is output to the transmission buffer 27.
【0087】可変長符号化回路26にはまた、量子化回
路25からの量子化ステップ(量子化スケール)と、動
きベクトル検出回路22からの予測モード(画像内予
測、前方向予測、後方向予測、または両方向予測のいず
れが設定されたかを示すモード)および動きベクトル
と、が入力されており、これらも可変長符号化される。The variable length coding circuit 26 also includes a quantization step (quantization scale) from the quantization circuit 25 and a prediction mode (intra-picture prediction, forward prediction, backward prediction) from the motion vector detection circuit 22. , Or a mode indicating which of the bidirectional predictions has been set) and a motion vector, and these are also variable-length coded.
【0088】送信バッファ27は、入力されたデータを
一時蓄積し、その蓄積量に対応するデータを、量子化制
御信号として量子化回路25にフィードバックする。す
なわち、送信バッファ27は、そのデータ蓄積量(蓄積
可能なデータ残量)が許容上限値まで増量すると、上記
量子化制御信号によって量子化回路25の量子化スケー
ルを大きくさせることにより、量子化回路25から出力
される量子化データのデータ量を低下させる。また、こ
れとは逆に、データ蓄積量(蓄積可能なデータ残量)が
許容下限値まで減少すると、送信バッファ27は、量子
化制御信号によって量子化回路25の量子化スケールを
小さくさせることにより、量子化回路25から出力され
る量子化データのデータ量を増大させる。このようにし
て、送信バッファ27のオーバフローまたはアンダフロ
ーが防止される。The transmission buffer 27 temporarily stores the input data, and feeds back data corresponding to the stored amount to the quantization circuit 25 as a quantization control signal. That is, when the data storage amount (remaining amount of data that can be stored) increases to the allowable upper limit, the transmission buffer 27 increases the quantization scale of the quantization circuit 25 by the above-described quantization control signal. 25, the data amount of the quantized data output from the control unit 25 is reduced. Conversely, when the data storage amount (remaining amount of data that can be stored) decreases to the allowable lower limit, the transmission buffer 27 reduces the quantization scale of the quantization circuit 25 by the quantization control signal. , The amount of quantized data output from the quantization circuit 25 is increased. In this way, overflow or underflow of the transmission buffer 27 is prevented.
【0089】そして、送信バッファ27に蓄積されたデ
ータは、所定のタイミングで読み出され、ビットストリ
ームとして伝送路に出力される。The data stored in the transmission buffer 27 is read out at a predetermined timing and output to the transmission path as a bit stream.
【0090】一方、量子化回路25より出力されたデー
タは、逆量子化回路28にも入力される。この逆量子化
回路28では、上記量子化回路25より供給されたデー
タを、同じく量子化回路25より供給される量子化ステ
ップに対応して逆量子化する。この逆量子化回路28の
出力は、IDCT(逆DCT)回路29に入力され、こ
こで逆DCT処理された後、演算回路30に送られる。
この演算回路30では、動き補償回路32の出力とID
CT回路29の出力とを加算して画像信号を復元する。
この画像信号は、フレームメモリ31に供給され記憶さ
れる。動き補償回路32は、フレームメモリ31の画像
と動きベクトルと予測モードとを用いて予測参照画像を
生成する。On the other hand, the data output from the quantization circuit 25 is also input to the inverse quantization circuit 28. In the inverse quantization circuit 28, the data supplied from the quantization circuit 25 is inversely quantized according to the quantization step also supplied from the quantization circuit 25. The output of the inverse quantization circuit 28 is input to an IDCT (inverse DCT) circuit 29, where it is subjected to inverse DCT processing, and then sent to an arithmetic circuit 30.
In this arithmetic circuit 30, the output of the motion compensation circuit 32 and the ID
The image signal is restored by adding the output of the CT circuit 29.
This image signal is supplied to the frame memory 31 and stored. The motion compensation circuit 32 generates a prediction reference image using the image in the frame memory 31, the motion vector, and the prediction mode.
【0091】演算回路30の出力すなわち復号された画
像信号はまた、図1の上位レイヤ符号化回路3に供給さ
れる。The output of the operation circuit 30, that is, the decoded image signal is also supplied to the upper layer encoding circuit 3 of FIG.
【0092】またフレームメモリ31は、図1の上位レ
イヤ符号化回路3での符号化に従い、所定の局所復号画
像を読み出して図1の解像度変換回路4に出力する。The frame memory 31 reads out a predetermined locally decoded image and outputs it to the resolution conversion circuit 4 in FIG. 1 in accordance with the encoding in the upper layer encoding circuit 3 in FIG.
【0093】図1に戻って、解像度変換回路4は、下位
レイヤの画像に対する上位レイヤの画像の解像度の倍率
を示すフラグFRに従い、上記下位レイヤ符号化回路5
から供給された画像信号の解像度を前述のようにフィル
タリング処理(この場合は拡大処理)により変換し、上
位レイヤ符号化回路3に供給する。なお倍率が1の場
合、すなわち上位レイヤと下位レイヤの大きさが等しい
場合は、解像度変換回路4は何もせずにそのまま画像信
号を出力する。Returning to FIG. 1, the resolution conversion circuit 4 performs the above-described lower layer encoding circuit 5 in accordance with the flag FR indicating the magnification of the resolution of the upper layer image with respect to the lower layer image.
Is converted by the filtering process (enlargement process in this case) as described above, and is supplied to the upper layer encoding circuit 3. When the magnification is 1, that is, when the size of the upper layer is equal to the size of the lower layer, the resolution conversion circuit 4 outputs the image signal without any operation.
【0094】また、前記画像信号階層化回路1によって
生成された上位レイヤの画像信号は、遅延回路2を介し
て上位レイヤ符号化回路3に供給される。遅延回路2で
は、下位レイヤ符号化回路5において所定の下位レイヤ
の画像を符号化に要する時間だけ、上記上位レイヤの画
像信号を遅延する。The image signal of the upper layer generated by the image signal layering circuit 1 is supplied to the upper layer encoding circuit 3 via the delay circuit 2. The delay circuit 2 delays the image signal of the upper layer by the time required for encoding the image of the predetermined lower layer in the lower layer encoding circuit 5.
【0095】次に、上位レイヤ符号化回路3の具体的な
構成を図4を用いて説明する。Next, a specific configuration of the upper layer coding circuit 3 will be described with reference to FIG.
【0096】図4において、この上位レイヤ符号化3に
供給された上位レイヤの入力画像信号は、まずフレーム
メモリ41に入力されて記憶され、所定の順番で読み出
されて、後段の構成により符号化される。この符号化さ
れるべき画像データは、マクロブロック単位で当該フレ
ームメモリ41から読み出され、動きベクトル検出回路
42に入力される。動きベクトル検出回路42は、予め
設定されている所定のシーケンスに従って、各フレーム
の画像データを、Iピクチャ、Pピクチャ、またはBピ
クチャとして処理する。シーケンシャルに入力される各
フレームの画像を、I,P,Bのいずれのピクチャとし
て処理するかは、予め定められている(例えば、I,
B,P,B,P,・・・B,Pの順番にて処理され
る)。In FIG. 4, the input image signal of the upper layer supplied to the upper layer coding 3 is first input to and stored in the frame memory 41, read out in a predetermined order, and encoded by the subsequent stage. Be transformed into The image data to be encoded is read from the frame memory 41 in macroblock units, and input to the motion vector detection circuit 42. The motion vector detection circuit 42 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. It is determined in advance whether an image of each sequentially input frame is processed as a picture of I, P, or B (for example, I, P, or B).
B, P, B, P,... B, P are processed in this order).
【0097】ここで、空間スケーラビリティの場合、上
位レイヤと下位レイヤの画像信号は、例えば図5のよう
に符号化されることになる。図5において、上位レイヤ
の最初の画像VOP21MはPピクチャとして符号化さ
れる。この時の参照画像は下位レイヤの同時刻の画像V
OP21Lとなる。2番目以後の上位レイヤの画像VO
P22M〜VOP24MはBピクチャとして符号化され
る。この場合、これらの画像VOP22M〜VOP24M
は、それぞれ直前の上位レイヤの画像および、それぞれ
同時刻の下位レイヤの画像VOP22L,VOP23L,
VOP24Lを参照画像として用いて符号化する。また
この場合、上位レイヤのBピクチャは下位レイヤのPピ
クチャと同様に他の画像VOPを符号化する場合の参照
画像となる。なお、SNRスケーラビリティは、空間ス
ケーラビリティの特例であり、上位レイヤと下位レイヤ
の大きさが等しい場合であって、符号化の手順は同じで
ある。Here, in the case of the spatial scalability, the image signals of the upper layer and the lower layer are coded as shown in FIG. 5, for example. 5, first image VOP21 M of the upper layer is encoded as a P picture. The reference image at this time is an image V of the lower layer at the same time.
OP21 L is obtained. The image VO of the second or higher layer
P22 M ~VOP24 M is encoded as B pictures. In this case, these images VOP22 M ~VOP24 M
Are the images of the immediately preceding upper layer and the lower layer images VOP22 L , VOP23 L ,
It encoded using VOP24 L as the reference image. Also, in this case, the B picture of the upper layer becomes a reference image when encoding another image VOP, like the P picture of the lower layer. Note that SNR scalability is a special case of spatial scalability, in which the size of the upper layer is equal to that of the lower layer, and the coding procedure is the same.
【0098】また、テンポラルスケーラビリティの場合
は、例えば図6のようにして符号化されることになる。
図6において、上位レイヤの画像VOP1はBピクチャ
として符号化され、この画像VOP1は下位レイヤの画
像VOP0および画像VOP2を参照画像とする。ま
た、上位レイヤの画像VOP3の場合は、Bピクチャと
して符号化され、直前の上位レイヤの画像VOP1およ
び下位レイヤの画像VOP4を参照画像とする。また、
上位レイヤの画像VOP5の場合は、Pピクチャとして
符号化され、直前の上位レイヤの画像VOP3を参照画
像として用いる。In the case of temporal scalability, encoding is performed, for example, as shown in FIG.
In FIG. 6, an upper layer image VOP1 is encoded as a B picture, and the lower layer image VOP0 and image VOP2 are used as reference images for this image VOP1. In the case of the image VOP3 of the upper layer, it is encoded as a B picture, and the image VOP1 of the immediately preceding upper layer and the image VOP4 of the lower layer are used as reference images. Also,
In the case of the upper layer image VOP5, it is encoded as a P picture, and the immediately preceding upper layer image VOP3 is used as a reference image.
【0099】以下に、上位レイヤのPおよびBピクチャ
の参照画像について説明する。Hereinafter, reference pictures of P and B pictures in the upper layer will be described.
【0100】上位レイヤの予測の際には、同じレイヤの
画像だけでなく他の階層(スケーラブルレイヤ)の画像
も参照画像として用いることができる。例えば本実施の
形態のように2階層のスケーラビリティの場合、上位レ
イヤは下位レイヤの画像も参照画像として用いることが
できる。In the prediction of the upper layer, not only the image of the same layer but also the image of another layer (scalable layer) can be used as the reference image. For example, in the case of scalability of two layers as in the present embodiment, the upper layer can use the image of the lower layer as a reference image.
【0101】Pピクチャは前方向予測を行うが、その参
照画像として、同じ階層の画像または他の階層の画像を
用いることができる。Bピクチャでは、前方向予測およ
び後方向予測の参照画像としてそれぞれ同じ階層の画像
または他の階層の画像を用いることができる。The P picture is subjected to forward prediction, and an image of the same layer or an image of another layer can be used as a reference image. In a B picture, an image of the same layer or an image of another layer can be used as a reference image for forward prediction and backward prediction.
【0102】ここで、上位レイヤの符号化における予測
モードについて説明する。Here, the prediction mode in the coding of the upper layer will be described.
【0103】予測モードは下位レイヤの符号化と同様
に、マクロブロック単位で決定される。上位レイヤのP
ピクチャのマクロブロックの予測モードには次の2種類
がある。The prediction mode is determined for each macroblock, as in the coding of the lower layer. Upper layer P
There are the following two types of prediction modes for macroblocks of pictures.
【0104】(1)フレーム内(イントラ)符号化マク
ロブロック (2)前方向予測(フォワード)マクロブロック 上記予測モードにおいては、下位レイヤにおけるマクロ
ブロックの予測モードと同様である。(1) Intra-frame (intra) coded macroblock (2) Forward prediction (forward) macroblock The above prediction mode is the same as the prediction mode of the macroblock in the lower layer.
【0105】また、上位レイヤのBピクチャのマクロブ
ロックの予測モードには、以下の種類がある。There are the following types of macroblock prediction modes for B pictures in the upper layer.
【0106】(1) フレーム内予測(イントラ)マク
ロブロック (2) 前方向予測(フォワード)マクロブロック (3) 後方向予測(バックワード)マクロブロック (4) 両方向予測(バイディレクショナル)マクロブ
ロック (5) 2階層予測マクロブロック 上記予測モードのうち、(1)〜(4)にて示した予測
モードは下位レイヤのマクロブロックの予測モードと同
様である。(1) Intra-frame prediction (intra) macroblock (2) Forward prediction (forward) macroblock (3) Backward prediction (backward) macroblock (4) Bidirectional prediction (bidirectional) macroblock 5) Two-layer prediction macroblock Among the above prediction modes, the prediction modes shown in (1) to (4) are the same as the prediction mode of the macroblock of the lower layer.
【0107】(5)に示した2階層予測マクロブロック
について、前記図4及び図7を用いて説明する。The two-layer prediction macroblock shown in (5) will be described with reference to FIGS. 4 and 7.
【0108】図7の画像VOP11,VOP12は下位
レイヤの画像を示し、画像VOP13,VOP14は上
位レイヤの画像を示す。画像VOP11とVOP13は
同時刻の画像であり、また画像VOP12とVOP14
は同時刻の画像であるとする。画像VOP11はIまた
はPピクチャ、画像VOP12はPピクチャである。ま
た画像VOP13はPまたはBピクチャ、画像VOP1
4はBピクチャである。画像vm5およびvm6は下位
レイヤの画像を前記図1の解像度変換回路4によって解
像度変換して拡大した画像である。In FIG. 7, images VOP11 and VOP12 indicate lower layer images, and images VOP13 and VOP14 indicate upper layer images. Images VOP11 and VOP13 are images at the same time, and images VOP12 and VOP14
Are images at the same time. The image VOP11 is an I or P picture, and the image VOP12 is a P picture. The image VOP13 is a P or B picture, and the image VOP1 is
4 is a B picture. The images vm5 and vm6 are images obtained by converting the resolution of the lower layer image by the resolution conversion circuit 4 in FIG.
【0109】前記図4における動きベクトル検出回路4
2は、上記上位レイヤの画像VOP13を参照画像とし
て動きベクトルを検出する。この動きベクトルは、図4
の動き補償回路52及び53に送られ、図7の上位レイ
ヤの動き補償予測画像PM11及び下位レイヤの動き補
償予測画像PM7が形成される。すなわち動き補償回路
52では、上記動きベクトルを用いて上位レイヤの画像
VOP13の所定の画像信号を、上記動き補償予測画像
PM11としてフレームメモリ51から読み出す。ま
た、動き補償回路53では、前記図1の解像度変換回路
4により拡大されてフレームメモリ54に記憶されてい
る拡大画像vm5の所定の画像信号を、同様に上記動き
ベクトルを用いて上記動き補償予測画像PM7として読
み出す。さらに、フレームメモリ54には、前記図1の
解像度変換回路4により拡大された拡大画像vm6も記
憶されている。The motion vector detecting circuit 4 shown in FIG.
2 detects a motion vector using the image VOP13 of the upper layer as a reference image. This motion vector is shown in FIG.
The motion compensation prediction images PM11 and PM7 of the upper layer and the lower layer of FIG. 7 are formed. That is, the motion compensation circuit 52 reads a predetermined image signal of the image VOP13 of the upper layer from the frame memory 51 as the motion compensation predicted image PM11 using the motion vector. In the motion compensation circuit 53, a predetermined image signal of the enlarged image vm5 enlarged by the resolution conversion circuit 4 in FIG. 1 and stored in the frame memory 54 is similarly subjected to the motion compensation prediction using the motion vector. Read as image PM7. Further, the frame memory 54 also stores an enlarged image vm6 enlarged by the resolution conversion circuit 4 of FIG.
【0110】上記動き補償回路53にて動き補償されて
読み出された上記動き補償予測画像PM7は、図4の演
算回路57に送られ、上記フレームメモリ54から読み
出された拡大画像vm6との間で差分が計算される。こ
の演算回路57での差分演算により得られた差分信号D
V8は、閾値比較回路58にて、各画素毎に所定の閾値
THと比較される。なお、図4の例では、上記演算回路
57を動き補償回路53の後段に独立して設けた様子を
示しているが、当該演算回路57の機能を上記動き補償
回路53に持たせることも可能である。The motion-compensated predicted image PM7 read after being motion-compensated by the motion-compensating circuit 53 is sent to the arithmetic circuit 57 of FIG. The difference between them is calculated. The difference signal D obtained by the difference operation in the operation circuit 57
V8 is compared with a predetermined threshold value TH for each pixel by a threshold value comparison circuit 58. In the example of FIG. 4, the operation circuit 57 is provided independently after the motion compensation circuit 53, but the function of the operation circuit 57 may be provided to the motion compensation circuit 53. It is.
【0111】上記閾値比較回路58では、上記差分信号
DV8の各画素が上記閾値TH未満である場合、その差
分信号DV8の画素の値を0として取り出す。逆に、閾
値TH以上である場合は、その差分信号DV8の画素の
値をそのまま取り出す。なお、本実施の形態では、この
閾値THは予めある値に設定しているが、任意の値に設
定可能でもある。上記閾値THが0の場合は、差分信号
DV8の各画素値はそのまま取り出されることになる。
また、閾値は、色によって変えることも可能である。な
お、図4の例では、閾値比較回路58を独立した構成と
して設けているが、当該閾値比較回路58の機能を例え
ば動き補償回路53に持たせるようにすることも可能で
ある。When each pixel of the difference signal DV8 is smaller than the threshold value TH, the threshold value comparison circuit 58 takes out the value of the pixel of the difference signal DV8 as 0. Conversely, if the difference is equal to or greater than the threshold value TH, the value of the pixel of the difference signal DV8 is extracted as it is. In the present embodiment, the threshold TH is set to a certain value in advance, but may be set to an arbitrary value. When the threshold value TH is 0, each pixel value of the difference signal DV8 is extracted as it is.
Further, the threshold value can be changed depending on the color. In the example of FIG. 4, the threshold comparison circuit 58 is provided as an independent configuration. However, the function of the threshold comparison circuit 58 may be provided to, for example, the motion compensation circuit 53.
【0112】また、上記動き補償回路52にて動き補償
されて取り出された動き補償予測画像PM11は、演算
回路59に送られる。この演算回路59では、上記動き
補償予測画像PM11と上記閾値比較回路58からの出
力画像とを画素毎に加算し、画像AV10を生成する。
上記2階層予測マクロブロックでは、上記演算回路59
の出力を、予測参照画像とする。すなわち、閾値TH未
満のときは、動き補償予測画像PM11そのものが予測
参照画像となり、閾値TH以上のときは、動き補償予測
画像PM11に差分画像DV8を加算したものが予測参
照画像となる。なお、図4の例では、上記演算回路59
を動き補償回路52の後段に独立して設けた様子を示し
ているが、当該演算回路59の機能を上記動き補償回路
52に持たせることも可能である。The motion-compensated predicted image PM11 obtained by performing motion compensation in the motion compensation circuit 52 is sent to the arithmetic circuit 59. The arithmetic circuit 59 adds the motion compensated prediction image PM11 and the output image from the threshold value comparison circuit 58 for each pixel to generate an image AV10.
In the two-layer prediction macro block, the arithmetic circuit 59
Is used as the prediction reference image. That is, when the difference is less than the threshold value TH, the motion-compensated predicted image PM11 itself is a prediction reference image. Note that, in the example of FIG.
Is provided independently at the subsequent stage of the motion compensation circuit 52, but the function of the arithmetic circuit 59 can be provided to the motion compensation circuit 52.
【0113】以上の、2階層予測マクロブロックの予測
参照画像生成の流れを図8に示す。FIG. 8 shows a flow of generating a prediction reference image of a two-layer prediction macroblock.
【0114】この図8において、ステップST11で
は、下位レイヤの復号画像の拡大画像vm5と拡大画像
vm6をフレームメモリ54に記憶する。なお、フレー
ムメモリ54は、拡大画像vm5用とvm6用の2つに
分けて設けることも可能である。In FIG. 8, in step ST11, the enlarged image vm5 and the enlarged image vm6 of the decoded image of the lower layer are stored in the frame memory. Note that the frame memory 54 can be provided separately for the enlarged image vm5 and for the vm6.
【0115】ステップST12では、上記動きベクトル
検出回路42において上位レイヤの参照画像を用いて動
きベクトルを計算する。In step ST12, the motion vector detecting circuit 42 calculates a motion vector using the reference image of the upper layer.
【0116】ステップST13では、上位レイヤの動き
ベクトルを用いて、動き補償回路53が下位レイヤの拡
大画像vm5の動き補償を行い、上記動き補償予測画像
PM7を生成し、さらに演算回路57にて、下位レイヤ
の拡大画像vm6と上記動き補償予測画像PM7との間
でフレーム間差分を計算し、得られた差分画像DV8を
出力する。In step ST13, the motion compensation circuit 53 performs motion compensation on the enlarged image vm5 of the lower layer using the motion vector of the upper layer, generates the motion compensated prediction image PM7, and An inter-frame difference is calculated between the enlarged image vm6 of the lower layer and the motion compensated prediction image PM7, and the obtained difference image DV8 is output.
【0117】ステップST14では、上記差分画像DV
8の画素の絶対値と閾値THとの比較を行い、閾値TH
未満のときにはステップST15に、以上にはステップ
ST16に進む。In step ST14, the difference image DV
The threshold value TH is compared with the absolute value of the pixel 8 and the threshold value TH.
If it is less than the above, the process proceeds to step ST15, and if it is above, the process proceeds to step ST16.
【0118】上記差分画像DV8の各画素値の絶対値が
閾値TH未満のときは、上記差分画像DV8の各画素値
が0になされるので、ステップST15では、上記演算
回路59から上記上位レイヤの動き補償した信号すなわ
ち上記動き補償予測画像PM11が予測参照画像として
出力される。When the absolute value of each pixel value of the difference image DV8 is less than the threshold value TH, each pixel value of the difference image DV8 is set to 0. The motion-compensated signal, that is, the motion-compensated predicted image PM11 is output as a predicted reference image.
【0119】一方、上記差分画像DV8の各画素値の絶
対値が閾値TH以上のときは、上記差分画像DV8の各
画素値がそのまま演算回路59に送られるので、ステッ
プST16では、上記上位レイヤの動き補償予測画像P
M11に下位レイヤの上記差分画像DV8が加算された
信号が予測参照画像として出力される。On the other hand, when the absolute value of each pixel value of the difference image DV8 is equal to or larger than the threshold value TH, each pixel value of the difference image DV8 is sent to the arithmetic circuit 59 as it is. Motion compensated prediction image P
A signal obtained by adding the difference image DV8 of the lower layer to M11 is output as a prediction reference image.
【0120】ここで、上記動き補償予測画像PM11す
なわち動き補償された画像VOP13の画像信号をai
とし、上記拡大画像vm6の対応する位置のマクロブロ
ックの画像信号をbiとし、上記動き補償予測画像PM
7すなわち動き補償された拡大画像vm5をciとし、
差分画像DV8をdiffとすると、上記2階層予測マクロ
ブロックの予測参照画像は、以下の式(1)で与えられ
る。Here, the image signal of the motion-compensated predicted image PM11, that is, the image signal of the motion-compensated image VOP13 is represented by a i
And, an image signal of the macroblock in the corresponding position of the enlarged image vm6 and b i, the motion compensated prediction picture PM
7 That enlarged image vm5 which is motion compensated and c i,
Assuming that the difference image DV8 is diff, the prediction reference image of the two-layer prediction macroblock is given by the following equation (1).
【0121】 diff=(bi-ci) ai+(bi−ci),(|diff|≧TH) ai,(|diff|<TH) (1) 上記の通りの、2階層予測マクロブロックを導入するこ
とにより効率が改善する理由を説明する。[0121] diff = (b i- c i) a i + (b i -c i), (| diff | ≧ TH) a i, (| diff | <TH) (1) as described above, two layers The reason why the efficiency is improved by introducing the prediction macroblock will be described.
【0122】前述したように、下位レイヤの画像は上位
レイヤと比較して解像度の低い画像である。したがっ
て、拡大画像vm5およびvm6はそれぞれ上位レイヤ
の画像に対する低周波成分の情報を持っている。したが
って、拡大画像vm5およびvm6の差分(差分画像D
V8)は、上位レイヤの画像VOP13からVOP14
への時間変化における低周波成分の変化量の情報を含ん
でいる。したがって、これら拡大画像vm5とvm6の
差分を用いるということは、単純に画像VOP13を予
測する場合と比較して低周波成分の変化量まで含めて予
測参照画像を生成していることになるため、予測の効率
が向上する。また、拡大画像vm5とvm6の差分(差
分画像DV8)がある値(閾値TH)よりも大きい場合
は、下位レイヤにおいて情報が伝送されたことを意味す
る。この変化量を上位レイヤにおける予測に活用するこ
とにより、上位レイヤと下位レイヤにおける情報の重複
を削減することが可能となり、符号化効率が改善され
る。As described above, the lower layer image has a lower resolution than the upper layer image. Therefore, the enlarged images vm5 and vm6 each have information on low-frequency components with respect to the image of the upper layer. Therefore, the difference between the enlarged images vm5 and vm6 (the difference image D
V8) are images VOP13 to VOP14 of the upper layer.
It contains information on the amount of change in the low-frequency component in the time change to. Therefore, using the difference between these enlarged images vm5 and vm6 means that the predicted reference image is generated including the variation of the low frequency component as compared with the case where the image VOP13 is simply predicted. The efficiency of prediction is improved. If the difference between the enlarged images vm5 and vm6 (the difference image DV8) is larger than a certain value (threshold TH), it means that information has been transmitted in the lower layer. By utilizing this amount of change for prediction in the upper layer, it is possible to reduce duplication of information in the upper layer and the lower layer, thereby improving coding efficiency.
【0123】上記2階層予測マクロブロックでは、前方
向予測マクロブロックと同様に動きベクトルを可変長符
号して伝送する。In the above-mentioned two-layer prediction macroblock, a motion vector is subjected to variable-length coding and transmitted like the forward prediction macroblock.
【0124】次に、前述した上位レイヤのBピクチャに
関する5つのマクロブロックの予測モードでは、予測誤
差を最小とするモードが選択される。予測モードを示す
フラグは可変長符号化回路によって符号化、伝送され
る。Next, in the above-mentioned five macroblock prediction modes for the B picture of the upper layer, the mode that minimizes the prediction error is selected. The flag indicating the prediction mode is encoded and transmitted by the variable length encoding circuit.
【0125】上記の通り、上位レイヤにおける予測で
は、予測参照画像生成のための参照画像として、符号化
する画像と異なるスケーラブルレイヤの画像、例えば解
像度の低い下位レイヤの画像を用いることが可能であ
る。したがって、上位レイヤでは、どのレイヤの画像を
予測参照画像生成のための参照画像として用いたかを示
すフラグを伝送する必要がある。そこで、ここでは、各
スケーラブルレイヤについて同じレイヤ以外のどのレイ
ヤの画像を予測参照画像生成のために用いたのかを示す
フラグ(後述するシンタクスの識別子(ref_layer_i
d))を設定し符号化し、伝送する。また、各画像(前
記VOP)について、上記フラグ(ref_layer_id)に基
づいて、前方向(フォワード)予測および後方向(バッ
クワード)予測をどのレイヤから予測するかを示すフラ
グ(後述するシンタクスの識別子(ref_select_cod
e))を設定し符号化、伝送する。Pピクチャにおける
フラグ(ref_select_code)を図9の表に示す。また、
Bピクチャにおけるフラグ(ref_select_code)を図1
0の表に示す。シンタクスについては詳細を後述する。As described above, in the prediction in the upper layer, an image of a scalable layer different from the image to be coded, for example, an image of a lower layer having a lower resolution can be used as a reference image for generating a predicted reference image. . Therefore, the upper layer needs to transmit a flag indicating which layer image is used as a reference image for generating a predicted reference image. Therefore, here, a flag (a syntax identifier (ref_layer_i to be described later) indicating which layer image other than the same layer has been used for generating a predicted reference image for each scalable layer is used.
d)) is set, encoded, and transmitted. In addition, for each image (the VOP), a flag indicating from which layer the forward (forward) prediction and the backward (backward) prediction are predicted based on the flag (ref_layer_id) (a syntax identifier (described later)). ref_select_cod
e) Set, encode and transmit. The flag (ref_select_code) in the P picture is shown in the table of FIG. Also,
FIG. 1 shows a flag (ref_select_code) in a B picture.
0 is shown in the table. Details of the syntax will be described later.
【0126】上位レイヤと下位レイヤの参照画像は、前
記図5および図2以外にも図9に示す表および図10に
示す表の許す範囲内で自由に設定して良い。また、図9
の表および図10の表のシンタクスにおいては、空間ス
ケーラビリティやテンポラスケーラビリティについて明
示的な区別は無い。Reference images for the upper layer and the lower layer may be set freely within the range permitted by the tables shown in FIGS. 9 and 10 in addition to FIGS. 5 and 2. FIG.
10 and the syntax of the table of FIG. 10, there is no explicit distinction between spatial scalability and temporal scalability.
【0127】ここで、Pピクチャの場合は、フラグ(re
f_select_code)が”11”の場合、フラグ(ref_layer
_id)が示すレイヤの同時刻の画像(VOP)を予測参
照画像生成のための参照画像として用いる。これは空間
スケーラビリティやSNRスケーラビリティに用いられ
る。その他のモードはテンポラルスケーラビリティに用
いられる。Here, in the case of a P picture, the flag (re
When f_select_code) is “11”, the flag (ref_layer
_id) is used as a reference image for generating a predicted reference image at the same time of the layer (VOP). This is used for spatial scalability and SNR scalability. Other modes are used for temporal scalability.
【0128】Bピクチャの場合は、フラグ(ref_select
_code)が”00”の場合、フラグ(ref_layer_id)が
示すレイヤの同時刻の画像(VOP)と同じレイヤの直
前に復号した画像(VOP)を予測参照画像生成のため
の参照画像として用いる。これは空間スケーラビリティ
やSNRスケーラビリティに用いられる。その他のモー
ドはテンポラルスケーラビリティに用いられる。In the case of a B picture, a flag (ref_select
If (_code) is “00”, the image (VOP) decoded immediately before the same layer as the same-time image (VOP) of the layer indicated by the flag (ref_layer_id) is used as a reference image for generating a predicted reference image. This is used for spatial scalability and SNR scalability. Other modes are used for temporal scalability.
【0129】各レイヤの各画像(VOP)は、I、P、
Bピクチャのどのタイプで符号化するかは予め決められ
る。前記図4の動きベクトル検出回路42は予め設定さ
れたピクチャタイプに基づき、フラグ(ref_layer_i
d)、(ref_select_code)を設定し、動き補償回路52
および可変長符号化回路46に出力する。Each image (VOP) of each layer is composed of I, P,
Which type of B picture is to be encoded is determined in advance. The motion vector detection circuit 42 shown in FIG. 4 uses a flag (ref_layer_i) based on a preset picture type.
d), (ref_select_code) is set and the motion compensation circuit 52
And outputs it to the variable length coding circuit 46.
【0130】下位レイヤの画像(VOP)の復号画像信
号は、図1の解像度変換回路4を介して上位レイヤ符号
化回路3に供給され、図4のフレームメモリ54に供給
される。The decoded image signal of the image (VOP) of the lower layer is supplied to the upper layer encoding circuit 3 via the resolution conversion circuit 4 of FIG. 1, and is supplied to the frame memory 54 of FIG.
【0131】動きベクトル検出回路42はまた、予め定
められた所定の参照フレームをフラグ(ref_layer_id)
およびフラグ(ref_select_code)に基づいてフレーム
メモリ41またはフレームメモリ51より参照し、動き
補償を行い、その動きベクトルを検出する。動き補償
(フレーム間予測)には、前方向予測,後方向予測,両
方向予測の3種類のモードがある。Pピクチャの予測モ
ードは前方向予測のみであり、ここでのBピクチャの予
測モードは前方向予測,後方向予測,両方向予測,前記
2階層予測の4種類である。動きベクトル検出回路42
は、予測誤差を最小にする予測モードを選択しその際の
予測ベクトルを発生する。The motion vector detection circuit 42 sets a predetermined reference frame to a flag (ref_layer_id).
Reference is made from the frame memory 41 or the frame memory 51 based on the and the flag (ref_select_code) to perform motion compensation and detect the motion vector. There are three types of motion compensation (inter-frame prediction): forward prediction, backward prediction, and bidirectional prediction. The prediction mode of the P picture is only forward prediction, and the prediction modes of the B picture are four types of forward prediction, backward prediction, bidirectional prediction, and the two-layer prediction. Motion vector detection circuit 42
Selects a prediction mode that minimizes the prediction error and generates a prediction vector at that time.
【0132】2階層予測モードでは、前方向予測と同様
に、フレームメモリ51に記録されている画像信号を参
照して動きベクトルを検出する。In the two-layer prediction mode, similarly to the forward prediction, a motion vector is detected by referring to the image signal recorded in the frame memory 51.
【0133】この際、予測誤差は、例えば符号化するマ
クロブロックの分散と比較され、マクロブロックの分散
の方が小さい場合、そのマクロブロックでは予測は行わ
ず、フレーム内符号化が行われる。この場合、予測モー
ドは画像内符号化(イントラ)となる。動きベクトルお
よび上記予測モードは可変長符号化回路46および動き
補償回路53に入力される。At this time, the prediction error is compared with, for example, the variance of the macroblock to be coded. If the variance of the macroblock is smaller, the prediction is not performed on the macroblock and the intra-frame coding is performed. In this case, the prediction mode is intra-picture encoding (intra). The motion vector and the prediction mode are input to the variable length coding circuit 46 and the motion compensation circuit 53.
【0134】動きベクトル検出回路42にはまた、下位
レイヤに対して上位レイヤの大きさ(解像度)が何倍で
あるかを示すフラグFRが供給される。図10に示した
表より、Bピクチャ(画像VOP)の場合は、フラグ
(ref_select_code=="00")の時空間スケーラビリティ
であり、この時、後方向(バックワード)予測は下位レ
イヤからの予測、前方向(フォワード)予測は同じレイ
ヤの直前に後方向予測を用いて復号した画像(VOP)
からの予測となる。倍率を示すフラグFRが1であり
(下位レイヤと上位レイヤの解像度が等しい)、かつフ
ラグ(ref_select_code=="00")である場合は、空間ス
ケーラビリティの特殊な場合であり、SNRスケーラビ
リティであることを示す。この場合、上位レイヤのフォ
ワード予測には、下位レイヤの同時刻のVOPが用いた
動きベクトルと予測モードとをそのまま用いる。したが
って、この場合、動きベクトル検出回路42は下位レイ
ヤから供給される動きベクトルおよび予測モードを、動
き補償回路52に供給する。この場合、可変長符号化回
路46は動きベクトルを符号化しない。The motion vector detecting circuit 42 is also supplied with a flag FR indicating how many times the size (resolution) of the upper layer is lower than the lower layer. According to the table shown in FIG. 10, in the case of a B picture (image VOP), the spatio-temporal scalability of the flag (ref_select_code == "00") is used. , Forward (forward) prediction is an image (VOP) decoded using backward prediction immediately before the same layer
From the prediction. If the flag FR indicating the magnification is 1 (the resolution of the lower layer is equal to the resolution of the upper layer) and the flag (ref_select_code == "00"), this is a special case of spatial scalability, and SNR scalability Is shown. In this case, for the forward prediction of the upper layer, the motion vector and the prediction mode used by the VOP of the lower layer at the same time are used as they are. Therefore, in this case, the motion vector detection circuit 42 supplies the motion vector and the prediction mode supplied from the lower layer to the motion compensation circuit 52. In this case, the variable length coding circuit 46 does not code the motion vector.
【0135】Bピクチャ(VOP)においては、フラグ
(ref_select_code=="00")の場合にのみ上記2階層予
測モードが用いられる。すなわち、Bピクチャにおいて
は、上位レイヤと同時刻の下位レイヤの画像を参照画像
として用いるときのみ、2階層予測モードが用いられ
る。In a B picture (VOP), the two-layer prediction mode is used only when the flag (ref_select_code == "00") is set. That is, in the B picture, the two-layer prediction mode is used only when the image of the lower layer at the same time as the upper layer is used as the reference image.
【0136】動き補償回路52では、所定の動きベクト
ルに基づいてフレームメモリ51および動き補償回路5
3の出力より予測参照画像を生成し、演算回路43に入
力する。In the motion compensating circuit 52, the frame memory 51 and the motion compensating circuit 5 are operated based on a predetermined motion vector.
Then, a prediction reference image is generated from the output of No. 3 and input to the arithmetic circuit 43.
【0137】演算回路43では、符号するマクロブロッ
クの値と予測参照画像の値の差分信号をDCT回路24
に出力する。イントラマクロブロックの場合、演算回路
43は符号するマクロブロックの信号をそのままDCT
回路44に出力する。The arithmetic circuit 43 converts the difference signal between the value of the macroblock to be coded and the value of the prediction reference image into the DCT circuit 24
Output to In the case of an intra macro block, the arithmetic circuit 43 directly converts the macro block signal to be encoded into a DCT signal.
Output to the circuit 44.
【0138】DCT回路44では、DCT(離散コサイ
ン変換)処理され、DCT係数に変換される。このDC
T係数は、量子化回路45に入力され、送信バッファ4
7のデータ蓄積量(バッファ蓄積量)に対応した量子化
ステップで量子化された後、可変長符号化回路46に入
力される。In the DCT circuit 44, DCT (Discrete Cosine Transform) processing is performed, and the data is converted into DCT coefficients. This DC
The T coefficient is input to the quantization circuit 45, and the transmission buffer 4
After being quantized in a quantization step corresponding to the data storage amount (buffer storage amount) of No. 7, the data is input to the variable length encoding circuit 46.
【0139】可変長符号化回路46は、量子化回路45
より供給される量子化ステップ(スケール)に対応し
て、量子化回路45より供給される画像データ(いまの
場合、Iピクチャのデータ)を、例えばハフマン符号な
どの可変長符号に変換し、送信バッファ47に出力す
る。The variable length coding circuit 46 includes a quantization circuit 45
The image data (in this case, I-picture data) supplied from the quantization circuit 45 is converted into a variable-length code such as a Huffman code in accordance with the supplied quantization step (scale) and transmitted. Output to the buffer 47.
【0140】可変長符号化回路46にはまた、量子化回
路45より量子化ステップ(スケール)、動きベクトル
検出回路42より予測モード(画像内予測、前方向予
測、後方向予測、両方向予測または2階層予測のいずれ
が設定されたかを示すモード)および動きベクトルが入
力されており、これらも可変長符号化される。The variable length coding circuit 46 also receives a quantization step (scale) from the quantization circuit 45 and a prediction mode (intra-picture prediction, forward prediction, backward prediction, bidirectional prediction or 2 prediction) from the motion vector detection circuit 42. A mode indicating which of the hierarchical predictions is set) and a motion vector are input, and these are also subjected to variable-length coding.
【0141】可変長符号化回路46はまた、上位レイヤ
の画像(VOP)の大きさを示すフラグ(後述する識別
子(FSZ_E))および絶対座標における位置を示すフラグ
(後述する識別子(FPOS_E))が入力されており、これら
も符号化される。The variable length coding circuit 46 also includes a flag (identifier (FSZ_E) described later) indicating the size of the image (VOP) of the upper layer and a flag (identifier (FPOS_E) described later) indicating the position in absolute coordinates. Input, and these are also encoded.
【0142】可変長符号化回路46はまた、下位レイヤ
の解像度に対して上位レイヤの解像度が何倍であるかを
示すフラグFRが入力されており、これも符号化され
る。The variable length encoding circuit 46 also receives a flag FR indicating how many times the resolution of the upper layer is higher than the resolution of the lower layer, and this is also encoded.
【0143】送信バッファ47は、入力されたデータを
一時蓄積し、その蓄積量に対応するデータを量子化回路
45に出力する。The transmission buffer 47 temporarily stores the input data, and outputs data corresponding to the stored amount to the quantization circuit 45.
【0144】送信バッファ47は、その蓄積量(蓄積可
能なデータ残量)が許容上限値まで増量すると、量子化
制御信号によって量子化回路45の量子化スケールを大
きくすることにより、量子化データのデータ量を低下さ
せる。また、これとは逆に、蓄積量(蓄積可能なデータ
残量)が許容下限値まで減少すると、送信バッファ47
は、量子化制御信号によって量子化回路45の量子化ス
ケールを小さくすることにより、量子化データのデータ
量を増大させる。このようにして、送信バッファ47の
オーバフローまたはアンダフローが防止される。The transmission buffer 47 increases the quantization scale of the quantization circuit 45 by the quantization control signal when the storage amount (remaining amount of storable data) increases to the permissible upper limit value. Decrease the amount of data. Conversely, when the storage amount (the remaining amount of data that can be stored) decreases to the allowable lower limit, the transmission buffer 47
Increases the data amount of the quantized data by reducing the quantization scale of the quantization circuit 45 by the quantization control signal. In this way, overflow or underflow of the transmission buffer 47 is prevented.
【0145】そして、送信バッファ47に蓄積されたデ
ータは、所定のタイミングで読み出され、伝送路に出力
される。The data stored in the transmission buffer 47 is read at a predetermined timing and output to a transmission path.
【0146】一方、量子化回路45より出力されたデー
タは、逆量子化回路48にも入力され、ここで量子化回
路45より供給される量子化ステップに対応して逆量子
化される。逆量子化回路48の出力は、IDCT(逆D
CT)回路49に入力され、ここで逆DCT処理された
後、フレームメモリ51に記憶される。On the other hand, the data output from the quantization circuit 45 is also input to the inverse quantization circuit 48, where it is inversely quantized in accordance with the quantization step supplied from the quantization circuit 45. The output of the inverse quantization circuit 48 is IDCT (inverse D
CT) circuit 49, where it is subjected to inverse DCT processing and then stored in the frame memory 51.
【0147】図1に戻って上位レイヤ符号化回路3およ
び下位レイヤ符号化回路5の出力ビットストリームは、
多重化回路6に入力される。多重化回路6は下位レイヤ
および上位レイヤのビットストリームを多重化し、ビッ
トストリームとして出力する。Returning to FIG. 1, the output bit streams of the upper layer coding circuit 3 and the lower layer coding circuit 5 are
The signal is input to the multiplexing circuit 6. The multiplexing circuit 6 multiplexes the bit streams of the lower layer and the upper layer and outputs the multiplexed bit stream.
【0148】次ぎに図11には、図1に示した画像信号
符号化装置に対応する実施の形態における画像信号復号
装置の一例を示す。Next, FIG. 11 shows an example of an image signal decoding apparatus according to the embodiment corresponding to the image signal encoding apparatus shown in FIG.
【0149】この図11において、ビットストリームは
まず逆多重化回路81に入力される。逆多重化回路81
では、上記ビットストリームを逆多重化、すなわち上位
レイヤと下位レイヤのビットストリームに分離して出力
する。In FIG. 11, the bit stream is first input to a demultiplexing circuit 81. Demultiplexing circuit 81
Then, the bit stream is demultiplexed, that is, the bit stream is separated into an upper layer and a lower layer bit stream and output.
【0150】下位レイヤのビットストリームはそのまま
下位レイヤ復号回路85に供給される。また上位レイヤ
のビットストリームは遅延回路82を介して上位レイヤ
復号回路83に供給される。The bit stream of the lower layer is supplied to the lower layer decoding circuit 85 as it is. The bit stream of the upper layer is supplied to the upper layer decoding circuit 83 via the delay circuit 82.
【0151】遅延回路82では下位レイヤ復号回路85
で1画像(1VOP分)を復号するのに要する時間だけ
遅延した後、上位レイヤ復号回路83に上位レイヤビッ
トストリームを供給する。In the delay circuit 82, the lower layer decoding circuit 85
Then, after delaying the time required to decode one image (for one VOP), the upper layer decoding circuit 83 is supplied with the upper layer bit stream.
【0152】下位レイヤ復号回路85の具体的な構成を
図12を用いて説明する。The specific configuration of the lower layer decoding circuit 85 will be described with reference to FIG.
【0153】下位レイヤビットストリームは、受信バッ
ファ91に一時記憶された後、可変長復号回路92に供
給される。可変長復号回路92は、受信バッファ91よ
り供給されたデータを可変長復号し、動きベクトルと予
測モードとを動き補償回路97に、また、量子化ステッ
プを逆量子化回路93にそれぞれ出力すると共に、復号
された画像データを逆量子化回路93に出力する。After the lower layer bit stream is temporarily stored in the reception buffer 91, it is supplied to the variable length decoding circuit 92. The variable length decoding circuit 92 performs variable length decoding on the data supplied from the reception buffer 91, outputs the motion vector and the prediction mode to the motion compensation circuit 97, and outputs the quantization step to the inverse quantization circuit 93, respectively. , And outputs the decoded image data to the inverse quantization circuit 93.
【0154】可変長復号回路92はまた、画像(VO
P)の大きさを示すフラグ(後述する識別子(FSZ_B))
を復号し、動き補償回路97とフレームメモリ96に出
力する。フラグ(FSZ_B)はまた図11の上位レイヤ復
号回路83に供給される。The variable length decoding circuit 92 also outputs the image (VO
Flag indicating the size of P) (identifier (FSZ_B) described later)
Is decoded and output to the motion compensation circuit 97 and the frame memory 96. The flag (FSZ_B) is also supplied to the upper layer decoding circuit 83 in FIG.
【0155】逆量子化回路93は、可変長復号回路92
より供給された画像データを、同じく可変長復号回路9
2より供給された量子化ステップに従って逆量子化し、
IDCT回路94に出力する。逆量子化回路93より出
力されたデータ(DCT係数)は、IDCT回路94で
逆DCT処理された後、演算回路95に供給される。The inverse quantization circuit 93 includes a variable length decoding circuit 92
The image data supplied from the variable length decoding circuit 9
Inverse quantization according to the quantization step supplied from 2,
Output to the IDCT circuit 94. The data (DCT coefficient) output from the inverse quantization circuit 93 is subjected to inverse DCT processing in the IDCT circuit 94 and then supplied to the arithmetic circuit 95.
【0156】IDCT回路94より供給された画像デー
タが、Iピクチャのデータである場合、そのデータは演
算回路95より出力され、演算回路95に対して後に入
力される画像データ(PまたはBピクチャのデータ)の
予測参照画像データ生成のために、フレームメモリ96
に供給されて記憶される。また、このデータは、そのま
ま、再生画像として外部に出力される。When the image data supplied from the IDCT circuit 94 is I-picture data, the data is output from the arithmetic circuit 95, and the image data (P or B picture Frame memory 96 for generating predicted reference image data
And stored. This data is output to the outside as a reproduced image as it is.
【0157】入力ビットストリームがPまたはBピクチ
ャの場合、動き補償回路97は可変長復号回路92より
供給される動きベクトルおよび予測モードに従って、予
測参照画像を生成し、演算回路95に出力する。演算回
路95ではIDCT回路94より入力される画像データ
と動き補償回路97より供給される予測参照画像データ
を加算し出力画像とする。またPピクチャの場合、演算
回路95の出力はまた、フレームメモリ96に入力され
記憶され、次に復号する画像信号の参照画像とされる。When the input bit stream is a P or B picture, the motion compensation circuit 97 generates a prediction reference image according to the motion vector and the prediction mode supplied from the variable length decoding circuit 92, and outputs it to the arithmetic circuit 95. The arithmetic circuit 95 adds the image data input from the IDCT circuit 94 and the predicted reference image data supplied from the motion compensation circuit 97 to obtain an output image. In the case of a P picture, the output of the arithmetic circuit 95 is also input to and stored in the frame memory 96, and is used as a reference image of an image signal to be decoded next.
【0158】演算回路95の出力はまた、図11の上位
レイヤ復号回路83に供給される。The output of the arithmetic circuit 95 is also supplied to the upper layer decoding circuit 83 in FIG.
【0159】可変長復号回路92により復号された下位
レイヤの画像(VOP)の大きさを示すフラグ(FSZ_
B)は、図11の上位レイヤ復号回路83に供給され
る。A flag (FSZ_) indicating the size of the image (VOP) of the lower layer decoded by the variable length decoding circuit 92
B) is supplied to the upper layer decoding circuit 83 in FIG.
【0160】図11に戻って、逆多重化回路81におい
て逆多重化された上位レイヤのビットストリームは、遅
延回路82を介して上位レイヤ復号回路83に供給され
る。Returning to FIG. 11, the upper layer bit stream demultiplexed by the demultiplexing circuit 81 is supplied to the upper layer decoding circuit 83 via the delay circuit.
【0161】図13を用いて上位レイヤ復号回路83の
具体的構成を説明する。The specific configuration of the upper layer decoding circuit 83 will be described with reference to FIG.
【0162】上位レイヤのビットストリームは、受信バ
ッファ101に一時記憶された後、可変長復号回路10
2に供給される。可変長復号回路102は、受信バッフ
ァ101より供給されたデータを可変長復号し、動きベ
クトルと予測モードを動き補償回路107に、また、量
子化ステップを逆量子化回路103にそれぞれ出力する
とともに、復号された画像データを逆量子化回路103
に出力する。After the bit stream of the upper layer is temporarily stored in the reception buffer 101, the bit stream of the variable length decoding circuit 10
2 is supplied. The variable length decoding circuit 102 performs variable length decoding on the data supplied from the reception buffer 101, outputs the motion vector and the prediction mode to the motion compensation circuit 107, and outputs the quantization step to the inverse quantization circuit 103, respectively. An inverse quantization circuit 103 decodes the decoded image data.
Output to
【0163】動きベクトル及び予測モードはまた、動き
補償回路119に出力される。The motion vector and the prediction mode are also output to the motion compensation circuit 119.
【0164】可変長復号回路102はまた、画像(VO
P)の大きさを示すフラグ(FSZ_E)を復号し、動き補
償回路107とフレームメモリ106に出力する。The variable length decoding circuit 102 also outputs the image (VO
The flag (FSZ_E) indicating the size of P) is decoded and output to the motion compensation circuit 107 and the frame memory 106.
【0165】可変長復号回路102はまた、下位レイヤ
の画像(VOP)に対する上位レイヤの画像(VOP)
の大きさ(解像度)の倍率を示すフラグFRを復号し、
動き補償回路107及び、図11における解像度変換回
路84に出力する。The variable length decoding circuit 102 also provides an upper layer image (VOP) with respect to a lower layer image (VOP).
Decoding the flag FR indicating the magnification of the size (resolution) of
The signal is output to the motion compensation circuit 107 and the resolution conversion circuit 84 in FIG.
【0166】図11における解像度変換回路84は、復
号された下位レイヤの画像(VOP)の画像信号及びキ
ー(key)信号を、倍率を示すフラグFRに従ってフィ
ルタリングにより解像度変換し、上位レイヤ復号回路8
3中のフレームメモリ118に供給する。The resolution conversion circuit 84 in FIG. 11 converts the resolution of the decoded image signal of the lower layer image (VOP) and the key signal by filtering according to the flag FR indicating the magnification, and the upper layer decoding circuit 8
3 is supplied to the frame memory 118.
【0167】可変長復号回路102はまた、予測の参照
に用いるレイヤを示すフラグ(後述する識別子(ref_lay
er_id)及び(ref_select_code))を復号し、動き補償回
路107に出力する。The variable-length decoding circuit 102 also sets a flag (identifier (ref_lay described later) indicating a layer used for reference of prediction.
er_id) and (ref_select_code)) are decoded and output to the motion compensation circuit 107.
【0168】逆量子化回路103は、可変長復号回路1
02より供給された画像データを、同じく可変長復号回
路102より供給された量子化ステップに従って逆量子
化し、IDCT回路104に出力する。逆量子化回路1
03より出力されたデータ(DCT係数)は、IDCT
回路104で逆DCT処理され、演算回路105に供給
される。The inverse quantization circuit 103 includes the variable length decoding circuit 1
The image data supplied from 02 is inversely quantized according to the quantization step also supplied from the variable length decoding circuit 102, and is output to the IDCT circuit 104. Inverse quantization circuit 1
03 (DCT coefficient) is the IDCT
The inverse DCT processing is performed by the circuit 104, and the result is supplied to the arithmetic circuit 105.
【0169】IDCT回路104より供給された画像デ
ータが、Iピクチャのデータである場合、そのデータは
演算回路105より出力され、演算回路105に後に入
力される画像データ(PまたはBピクチャのデータ)の
予測参照画像データ生成のために、フレームメモリ10
6に供給されて記憶される。また、このデータは、その
まま再生画像として外部に出力される。When the image data supplied from the IDCT circuit 104 is I-picture data, the data is output from the arithmetic circuit 105 and is input to the arithmetic circuit 105 later (P or B picture data). To generate the predicted reference image data of the frame memory 10
6 and stored. This data is output to the outside as a reproduced image as it is.
【0170】入力ビットストリームがPまたはBピクチ
ャの場合、動き補償回路107は可変長復号回路102
より供給される動きベクトルおよび予測モードおよび参
照するレイヤを示すフラグ(ref_layer_id),(ref_se
lect_code)に従って、予測参照画像をフレームメモリ
106とフレームメモリ118より生成し、演算回路1
05に出力する。演算回路105ではIDCT回路10
4より入力される画像データと動き補償回路107より
供給される予測参照画像データを加算し出力画像とす
る。またPピクチャの場合、演算回路105の出力はま
た、フレームメモリ106に入力され記憶され、次に復
号する画像信号の予測参照画像とされる。When the input bit stream is a P or B picture, the motion compensation circuit 107
The flags (ref_layer_id), (ref_layer_id) and (ref_se
lect_code), a prediction reference image is generated from the frame memory 106 and the frame memory 118, and the arithmetic circuit 1
Output to 05. In the arithmetic circuit 105, the IDCT circuit 10
4 is added to the prediction reference image data supplied from the motion compensation circuit 107 to obtain an output image. In the case of a P picture, the output of the arithmetic circuit 105 is also input to and stored in the frame memory 106, and is used as a predicted reference image of an image signal to be decoded next.
【0171】図11の上位レイヤの復号回路83では、
予測モードが2階層予想モードのマクロブロックである
場合、符号化回路において前記図4の演算回路59の出
力を生成した方法と同様に予測参照画像を生成する。In the decoding circuit 83 of the upper layer in FIG.
When the prediction mode is a macroblock in the two-layer prediction mode, a prediction reference image is generated in the encoding circuit in the same manner as the method of generating the output of the arithmetic circuit 59 in FIG.
【0172】具体的に言うと、図12の下位レイヤの画
像信号復号回路における演算回路95の出力信号は、図
11の解像度変換回路84にて拡大された後、図11の
上位レイヤの画像信号復号回路83へ入力され、図13
におけるフレームメモリ118に供給される。More specifically, the output signal of the arithmetic circuit 95 in the lower layer image signal decoding circuit of FIG. 12 is expanded by the resolution conversion circuit 84 of FIG. Input to the decoding circuit 83
Is supplied to the frame memory 118 in FIG.
【0173】図13の動き補償回路119は、復号され
た動きベクトルに基づきフレームメモリ118を参照
し、図7における拡大画像vm5およびvm6の差分
(差分画像DV8)を出力し、閾値比較回路120に送
る。なお、図13の例では、動き補償回路119におい
て差分まで求める構成としているが、当該差分を求める
ための演算回路を外部に設けることも可能である。The motion compensation circuit 119 in FIG. 13 refers to the frame memory 118 based on the decoded motion vector, outputs the difference between the enlarged images vm5 and vm6 in FIG. 7 (difference image DV8), and outputs the difference to the threshold value comparison circuit 120. send. In the example of FIG. 13, the motion compensation circuit 119 obtains the difference, but an arithmetic circuit for calculating the difference may be provided outside.
【0174】このとき、当該閾値比較回路120では、
上記動き補償回路119からの差分の絶対値が、ある定
められた値(すなわち前記閾値TH)未満の場合はその
差分の画素の値を0とする。逆に閾値TH以上である場
合は、差分値をそのまま動き補償回路107に供給す
る。なお、閾値比較回路120は、動き補償回路119
又は動き補償回路107内に含めることも可能である。At this time, in the threshold value comparing circuit 120,
When the absolute value of the difference from the motion compensation circuit 119 is smaller than a predetermined value (that is, the threshold value TH), the pixel value of the difference is set to 0. Conversely, if the difference is equal to or greater than the threshold value TH, the difference value is supplied to the motion compensation circuit 107 as it is. It should be noted that the threshold value comparison circuit 120 includes a motion compensation circuit 119.
Alternatively, it can be included in the motion compensation circuit 107.
【0175】動き補償回路107では、予測モードが2
階層予測マクロブロックである場合、フレームメモリ1
06の出力および前記閾値比較回路120を介した動き
補償回路119の出力より前記式(1)で示される予測
参照画像を生成し、演算回路105に出力する。その他
の予測モードの場合、動き補償回路107は下位レイヤ
における動き補償回路と同様に動作する。なお、図13
の例では、動き補償回路107において予測参照画像を
求めるために、上記閾値比較回路120の出力の加算を
行うが、当該加算を行うための演算回路を外部に設ける
ことも可能である。In the motion compensation circuit 107, the prediction mode is 2
If it is a hierarchical prediction macroblock, the frame memory 1
The prediction reference image represented by the above equation (1) is generated from the output of the reference number 06 and the output of the motion compensation circuit 119 via the threshold value comparison circuit 120, and is output to the arithmetic circuit 105. In other prediction modes, the motion compensation circuit 107 operates similarly to the motion compensation circuit in the lower layer. Note that FIG.
In the example of (1), the output of the threshold value comparison circuit 120 is added in order to obtain a predicted reference image in the motion compensation circuit 107. However, an arithmetic circuit for performing the addition may be provided externally.
【0176】また、動き補償回路107は倍率を示すフ
ラグFRが1であり、且つフラグ(ref_select_code ==
'00')である場合、下位レイヤの同時刻の画像(VO
P)から供給される動きベクトル及び予測モードを用い
て予測画像を生成し、演算回路105に出力する。The motion compensation circuit 107 sets the flag FR indicating the magnification to 1 and sets the flag (ref_select_code ==
'00'), the image (VO) of the lower layer at the same time
A prediction image is generated using the motion vector and the prediction mode supplied from P), and output to the arithmetic circuit 105.
【0177】上記2階層予測マクロブロックでは、輝度
および色差信号、ともに同様の処理を行う。In the two-layer prediction macroblock, the same processing is performed for both the luminance and color difference signals.
【0178】次ぎに、スケーラブル符号化のシンタクス
を説明する。以下MPEG4 VM(Verification Mode
l)を例にし、説明する。Next, the syntax of the scalable coding will be described. The following MPEG4 VM (Verification Mode
l) will be described as an example.
【0179】図14には、ビットストリームの構成を示
す。VS(Video Session Class)は一つ又は複数のVO
(Video Object Class)から構成される、ビットストリー
ムの集合である。FIG. 14 shows the configuration of a bit stream. VS (Video Session Class) is one or more VOs
(Video Object Class) is a set of bit streams.
【0180】VSのシンタクスを以下に示す。なお、こ
のシンタクスはいわゆるC++に準拠している。The syntax of the VS is shown below. This syntax conforms to the so-called C ++.
【0181】 Syntax No.of bits Mnemonic VideoSession(){ video_session_start_code sc+8=32 do*{ Videoobject() }while (nextbits_bytealigned()== video_object_start_code) next_start_code() video_session_end_code sc+8=32 } 次ぎに、VO(Video Object Class) のシンタクスを以
下に示す。Syntax No. of bits Mnemonic VideoSession () {video_session_start_code sc + 8 = 32 do * {Videoobject ()} while (nextbits_bytealigned () == video_object_start_code) next_start_code () video_session_end_code sc + 8 = 32} Next, VO ( The syntax of Video Object Class) is shown below.
【0182】 Syntax No.of bits Mnemonic Videoobject(){ video_object_start_code sc+3=27 video_object_id 5 do{ VideoObjectLayer() } while(nextbits_bytealigned()== video_object_layer_start_code) next_start_code() } VOは画像全体または画像中の一部の物体のビットスト
リームである。VOL(Video Object Layer Class)はス
ケーラビリティのためのクラスである。Syntax No. of bits Mnemonic Videoobject () {video_object_start_code sc + 3 = 27 video_object_id 5 do {VideoObjectLayer ()} while (nextbits_bytealigned () == video_object_layer_start_code) next_start_code ()} VO is the whole image or a part of the image Is a bit stream of the object. VOL (Video Object Layer Class) is a class for scalability.
【0183】VOLのシンタクスを以下に示す。The syntax of the VOL is shown below.
【0184】 Syntax No.of bits Mnemonic VideoObjectLayer(){ video_object_layer_start_code sc+4=28 video_object_layer_id 4 video_object_layer_shape 2 if (video_object_layer_shape=="00"){ video_object_layer_width 10 video_object_layer_height 10 } video_object_layer_shape_effects 4 if((video_object_layer_shape_effects=="0001") ||(video_object_layer_shape_effects=="0011") ||(video_object_layer_shape_effects=="0100") ||(video_object_layer_shape_effects=="0101") video_object_layer_feather_dist 3 if((video_Object_layer_shape_effects=="0100") ||(video_object_layer_shape_effects=="0101"){ for(i=0;i<video_object_layer_feather_dist;i++) feathering_filter(); 8*15 } video_object_layer_sprite_usage 2 if(video_object_layer_sprite_usage!= SPRITE_NOT_USED){ if(video_object_layer_sprite_usage== ON-LINE_SPRITE){ sprite_hdim 13 sprite_vdim 13 } no_of_sprite_points 6 for(i=0;i<no_of_sprite_points;i++){ sprite_point [i]_x_coordinate 13 sprite_point [i]_y_coordinate 13 } lighting_change_in_sprite 1 } video_object_layer_quant_type 1 if(video_object_layer_quant_type){ load_intra_quant_mat 1 if(load_intra_quant_mat intra_quant_mat[64] 8*64 load_nonintra_quant_mat 1 if(load_nonintra_quant_mat nonintra_quant_mat[64] 8*64 } Error_resilient_disable 1 Intra_acdc_pred_disable 1 video_object_layer_fcode_forward 2 video_object_layer_fcode_backward 2 Separate_motion_shape_texture 1 if(video_object_layer_sprire_usage== STATIC_SPRITE) sprite_shape_texture() Scalability 1 if(scalability){ ref_layer_id 4 ref_layer_sampling_direc 1 hor_sampling_factor_n 5 hor_sampling_factor_m 5 vert_sampling_factor_n 5 vert_sampling_factor_m 5 enhancement_type 1 } do{ VideoObjectPlane() }while(nextbits_bytealigned()== video_object_plane_start_code) next_start_code() } VOLは識別子(video_object_layer_id)に示される
番号によって識別される。例えば、(video_object_lay
er_id=0)である VOL0は下位レイヤであり、例え
ば(video_object_layer_id=1)であるVOL1は上
位レイヤである。スケーラブルのレイヤの数は任意で良
い。Syntax No. of bits Mnemonic VideoObjectLayer () {video_object_layer_start_code sc + 4 = 28 video_object_layer_id 4 video_object_layer_shape 2 if (video_object_layer_shape == "00") {video_object_layer_width 10 video_object_layer_width = video_object_layer_shape_effects_layer () || (video_object_layer_shape_effects == "0011") || (video_object_layer_shape_effects == "0100") || (video_object_layer_shape_effects == "0101") video_object_layer_feather_dist 3 if ((video_Object_layer_shape_effects == "0100") || (video_object_layer = ") {for (i = 0; i <video_object_layer_feather_dist; i ++) feathering_filter (); 8 * 15} video_object_layer_sprite_usage 2 if (video_object_layer_sprite_usage! = SPRITE_NOT_USED) {if (video_object_layer_sprite_usage_ = sprite_usage_sprite_usage == ON-LINE_SPRIvrite_sprite_usage_ = sprite_usage 13 for (i = 0; i <no_of_sprite_points; i ++) {sprite_point [i] _x_coordinate 13 sprite_point [i] _y_coordinate 13} lighting_change_in_sprite 1} v ideo_object_layer_quant_type 1 if (video_object_layer_quant_type) {load_intra_quant_mat 1 if (load_intra_quant_mat intra_quant_mat [64] 8 * 64 load_nonintra_quant_mat 1 if (load_nonintra_quant_mat nonintra_quant_mat [64] 8 * 64} Error_resilient_disable 1 Intra_acdc_pred_disable 1 video_object_layer_fcode_forward 2 video_object_layer_fcode_backward 2 Separate_motion_shape_texture 1 if (video_object_layer_sprire_usage == STATIC_SPRITE) sprite_shape_texture () Scalability 1 if (scalability) {ref_layer_id 4 ref_layer_sampling_direc 1 hor_sampling_factor_n 5 hor_sampling_factor_m 5 vert_sampling_factor_n 5 vert_sampling_factor_m 5 enhancement_type 1} do {VideoObjectPlane () _ start_video (_) _ start_video () Identified by the number shown. For example, (video_object_lay
VOL0 where er_id = 0) is a lower layer, and VOL1 where (video_object_layer_id = 1) is an upper layer, for example. The number of scalable layers may be arbitrary.
【0185】スケーラビリティ(scalability)は1ビ
ットのフラグでそのVOLが下位レイヤであるか上位レ
イヤであるかを示す。(scalability=1)である場
合、そのVOLは下位レイヤであり、それ以外の場合上
位レイヤである。The scalability is a 1-bit flag indicating whether the VOL is a lower layer or an upper layer. If (scalability = 1), the VOL is a lower layer, otherwise it is an upper layer.
【0186】識別子(ref_layer_id)は自身VOL以外
に参照画像として用いるVOLの番号を示すフラグであ
る。これは上位レイヤにのみ伝送される。The identifier (ref_layer_id) is a flag indicating the number of a VOL used as a reference image other than the own VOL. It is transmitted only to upper layers.
【0187】識別子(hor_sampling_factor_n),(hor
_sampling_factor_m)は下位レイヤの水平方向の長さに
対して上位レイヤの水平方向の長さが何倍であるかを示
す(水平方向の解像度の倍率を示す)。下位レイヤに対
する上位レイヤの水平方向の大きさは以下の式で与えら
れる。Identifiers (hor_sampling_factor_n), (hor
_sampling_factor_m) indicates how many times the horizontal length of the upper layer is greater than the horizontal length of the lower layer (indicating the magnification of the horizontal resolution). The horizontal dimension of the upper layer relative to the lower layer is given by the following equation.
【0188】 hor_sampling_factor_n / hor_sampling_factor_m 識別子(ver_sampling_factor_n),(ver_sampling_fa
ctor_m)は下位レイヤの垂直方向の長さに対して上位レ
イヤの垂直方向の長さが何倍であるかを示す(垂直方向
の解像度の倍率を示す)。下位レイヤに対する上位レイ
ヤの垂直方向の大きさは以下の式で与えられる。Hor_sampling_factor_n / hor_sampling_factor_m identifier (ver_sampling_factor_n), (ver_sampling_fa
ctor_m) indicates how many times the vertical length of the upper layer is greater than the vertical length of the lower layer (indicating the magnification of the vertical resolution). The vertical dimension of the upper layer relative to the lower layer is given by the following equation.
【0189】 ver_sampling_factor_n / ver_sampling_factor_m VOP(Video Object Plane Class)のシンタクスを以下
に示す。Ver_sampling_factor_n / ver_sampling_factor_m The VOP (Video Object Plane Class) syntax is shown below.
【0190】 Syntax No.of bits Mnemonic VideoObjectPlane(){ VOP_start_code sc+8=32 do{ modulo_time_base 1 }while(modulo_time_base!="0") VOP_time_increment 10 VOP_prediction_type 2 if ( ( video_object_layer_sprite_usege != SPRITE_NOT_USED ) && (VOP_prediction_type == SPRITE) ) { if (no_of_sprite_points > 0) { encode VOP_points () } if (lighting_change_in_sprite) { lighting_change_factor_encode () } if (video_object_layer_sprite_useage == STATIC_SPRITE ) { return() } else if ( video_object_layer_sprite_usage == ON- LINE_SPRITE) { blending_factor 8 } } if(video_object_layer_shape !="00") { VOP_width 10 VOP_heigth 10 VOP_horizontal_mc_spatial_ref 10 marker_bit 1 VOP_vertical_mc_spatial_ref 10 if (scalability && enhancement_type) background_composition 1 } disable_sadct 1 if (VOP_prediction_type=="10") VOP_dbquant 2 else VOP_quant 5 if ((video_object_layer_shape_effects == "0010")|| (video_object_layer_shape_effects == "0011")|| (video_object_layer_shape_effects == "0101")){ VOP_constant_alpha 1 if (VOP_constant_alpha) VOP_constant_alpha_value 8 } if (!scalability){ if (!separate_motion_shape_texture) if(error_resilience_disable) combined_motion_shape_texture_coding() else do{ do{ combined_motion_shape_texture_coding() } while (nextbits_bytealigned() != 0000 0000 0000 0000) if (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) { next_resync_marker() resync_marker 17 macroblock_number 1-12 quant_scale 5 } } while (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) else{ if(video_object_layer_shape !="00"){ do{ first_shape_code 1-3 } while (count of macroblocks != total number of macroblocks) } if(error_resilience_disable) { motion_coding() if (video_object_layer_shape != "00") shape_coding() texture_coding() } else do{ do{ motion_coding() }while (next_bits()!="1010 0000 0000 0000 1") motion_marker 17 if (video_object_layer_shape !="00") shape_coding() do{ texture_coding() }while (nextbits_bytealigned()!= "0000 0000 0000 0000") if (nextbits_bytealigned()!= "000 0000 0000 0000 0000 0000){ next_resync_marker() resync_marker 17 macroblock_number 1-12 quant_scale 5 } }while (nextbits_bytealigned() != 000 0000 0000 0000 0000 0000) } } else{ if(background_composition){ load_backward_shape 1 if(load_backward_shape){ backward_shape_coding() load_foward_shape 1 if(load_foward_shape) foward_shape_coding() } } ref_select_code 2 if(VOP_prediction_type=="01"||VOP_prediction_type== "10"){ forward_temporal_ref 10 if(VOP_prediction_type=="10"){ marker_bit 1 backwaed_temporal_ref 10 } } combined_motion_shape_texture_coding() } next_state_code() } 識別子(VOP_width)および(VOP_height)はそのVO
Pの大きさを示すフラグである。Syntax No.of bits Mnemonic VideoObjectPlane () {VOP_start_code sc + 8 = 32 do {modulo_time_base 1} while (modulo_time_base! = "0") VOP_time_increment 10 VOP_prediction_type 2 if ((video_object_layer_sprite_usege! = SPRITE_NOT_USE_VID) SPRITE)) {if (no_of_sprite_points> 0) {encode VOP_points ()} if (lighting_change_in_sprite) {lighting_change_factor_encode ()} if (video_object_layer_sprite_useage == STATIC_SPRITE) {return ()} else if (video_object_layer_sprite_us = 8) }} if (video_object_layer_shape! = "00") {VOP_width 10 VOP_heigth 10 VOP_horizontal_mc_spatial_ref 10 marker_bit 1 VOP_vertical_mc_spatial_ref 10 if (scalability && enhancement_type) background_composition 1} disable_sadct 1 if (VOP_prediction) VOP_predictionquantity = type (video_object_layer_shape_effects == "0011") || (video_object_layer_shape_effects == "0101")) {VOP_const ant_alpha 1 if (VOP_constant_alpha) VOP_constant_alpha_value 8} if (! scalability) {if (! separate_motion_shape_texture) if (error_resilience_disable) combined_motion_shape_texture_coding () else do {do {combined_motion_shape_texture_coding ()} 0000 () ext. nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000) {next_resync_marker () resync_marker 17 macroblock_number 1-12 quant_scale 5}} while (nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000) else {if (video_object_layer_shape! = "00" ) {do {first_shape_code 1-3} while (count of macroblocks! = total number of macroblocks)} if (error_resilience_disable) {motion_coding () if (video_object_layer_shape! = "00") shape_coding () texture_coding ()} else do {do {motion_coding ()} while (next_bits ()! = "1010 0000 0000 0000 1") motion_marker 17 if (video_object_layer_shape! = "00") shape_coding () do {texture_coding ()} while (nextbits_bytealigned ()! = "0000 0000 0000 0000 ") if (nextbits_bytealigned ()! = "000 0000 0000 0000 0000 0000) {next_resync_marker () resync_marker 17 macroblock_number 1-12 quant_scale 5}} while (nextbits_bytealigned ()! = 000 0000 0000 0000 0000 0000 0000)}} else {if (background_composition) {load_backward_shape 1 if (load_backward ) {backward_shape_coding () load_foward_shape 1 if (load_foward_shape) foward_shape_coding ()}} ref_select_code 2 if (VOP_prediction_type == "01" || VOP_prediction_type == "10") {forward_temporal_ref 10 if (VOP_prediction_type = marker) backwaed_temporal_ref 10}} combined_motion_shape_texture_coding ()} next_state_code ()} The identifier (VOP_width) and (VOP_height) are the VO
This is a flag indicating the size of P.
【0191】識別子(ref_select_code)は前方向(フ
ォワード)および後方向(バックワード)予測において
識別子(ref_layer_id)に基づき、どのレイヤの画像を
参照画像として用いるかを示すフラグである。図9に示
した表および図10に示した表にその詳細が示されてい
る。The identifier (ref_select_code) is a flag indicating which layer image is used as a reference image based on the identifier (ref_layer_id) in forward (forward) and backward (backward) prediction. Details are shown in the table shown in FIG. 9 and the table shown in FIG.
【0192】図15はIおよびPピクチャ(画像VO
P)におけるマクロブロックのシンタクスを示す。(CO
D)はこれ以後そのマクロブロックのデータが存在するか
どうかを示すフラグである。(COD=1)の場合、これ以
後、そのマクロブロックのデータが存在しないことを示
す(即ちスキップマクロブロック)。(COD=0)の場合、
さらにフラグが伝送される。(MCBCP)はそのマクロブロ
ックのタイプを示すフラグで、これに従って所定のフラ
グおよびデータが伝送される。FIG. 15 shows I and P pictures (image VO).
9 shows the syntax of a macroblock in P). (CO
D) is a flag indicating whether or not the data of the macro block exists thereafter. In the case of (COD = 1), it indicates that there is no data of the macro block thereafter (ie, a skip macro block). (COD = 0),
Further, a flag is transmitted. (MCBCP) is a flag indicating the type of the macroblock, and predetermined flags and data are transmitted according to the flag.
【0193】図16はBピクチャ(VOP)におけるマ
クロブロックのシンタクスを示す。もし、最も最近に復
号されたIまたはPピクチャ(画像VOP)の対応する
マクロブロックがスキップマクロブロックであった場合
(COD=1)、Bピクチャ(画像VOP)におけるそのマ
クロブロックもスキップマクロブロックとなる。FIG. 16 shows the syntax of a macroblock in a B picture (VOP). If the corresponding macroblock of the most recently decoded I or P picture (picture VOP) is a skip macroblock (COD = 1), then that macroblock in the B picture (picture VOP) is also a skip macroblock. Become.
【0194】(MODB)はBピクチャ(VOP)においてマ
クロブロックのタイプを示すフラグである。(MODB)の可
変長符号を図17に示す。(MODB=0)の場合、それ以上マ
クロブロックのデータが存在しないことを示す。(MODB=
10)の場合、(CBPB)は伝送されず、(MBTYPE)が伝送され
る。(MODB=11)の場合、(CBPB)および(MBTYPE)が伝送さ
れる。なお、図中のxは、現在のマクロブロックを示
す。(MODB) is a flag indicating the type of macroblock in the B picture (VOP). FIG. 17 shows the variable length code of (MODB). If (MODB = 0), it indicates that there is no more macroblock data. (MODB =
In the case of 10), (CBPB) is not transmitted, and (MBTYPE) is transmitted. In the case of (MODB = 11), (CBPB) and (MBTYPE) are transmitted. Note that x in the drawing indicates the current macroblock.
【0195】(CBPB)は6ビットのフラグでマクロブロッ
ク中の各ブロックにDCT係数が存在するかどうかを示
すフラグである。(CBPB)が伝送されない場合、(CBPB)は
0であると解釈され、そのマクロブロックではDCT係
数は伝送されない。(CBPB) is a 6-bit flag indicating whether or not a DCT coefficient exists in each block in the macroblock. If (CBPB) is not transmitted, (CBPB) is interpreted as 0, and no DCT coefficient is transmitted in the macroblock.
【0196】(MBTYPE)はBピクチャにおける各マクロブ
ロックの予測モードを示すフラグである。下位レイヤの
(MBTYPE)を図18に示す。(MBTYPE)に応じて図18に示
す通り、そのマクロブロックで伝送されるフラグが決定
される。なお、図中のxは、現在のマクロブロックを示
す。(MBTYPE) is a flag indicating the prediction mode of each macroblock in the B picture. Lower layer
(MBTYPE) is shown in FIG. As shown in FIG. 18, the flag transmitted in the macroblock is determined according to (MBTYPE). Note that x in the drawing indicates the current macroblock.
【0197】上位レイヤにおける(MBTYPE)を図19に示
す。(MBTYPE="1")の時、2階層予測モードとなる。FIG. 19 shows (MBTYPE) in the upper layer. In the case of (MBTYPE = "1"), the two-layer prediction mode is set.
【0198】下位レイヤにおけるスキップマクロブロッ
クの条件は以下の通りである。The conditions for the skip macroblock in the lower layer are as follows.
【0199】(A)Pピクチャ(VOP) (1)COD=="1"である場合。(A) P picture (VOP) (1) When COD = “1”.
【0200】この場合、マクロブロックはスキップマク
ロブロックとして扱われる。DCT係数は全て0であ
り、動きベクトルも0として扱われる。In this case, the macro block is treated as a skip macro block. The DCT coefficients are all 0, and the motion vector is also treated as 0.
【0201】(B)Bピクチャ(VOP) (1)最も最近に復号されたIまたはPピクチャ(VO
P)の対応するマクロブロックがスキップマクロブロッ
クである(COD = 1)の場合。(B) B picture (VOP) (1) The most recently decoded I or P picture (VOP)
When the corresponding macroblock of P) is a skip macroblock (COD = 1).
【0202】この場合、スキップマクロブロックとされ
る。予測はPピクチャ(VOP)と同様に行われ動きベ
クトルは0として扱われる。In this case, a skip macro block is set. The prediction is performed in the same way as for a P picture (VOP), and the motion vector is treated as 0.
【0203】(2)(1)以外の場合でかつ(MODB=='
0')の場合。(2) In cases other than (1) and (MODB == '
0 ').
【0204】この場合、スキップマクロブロックとして
扱われ、このマクロブロックの(MBTYPE)はダイレクト
(Direct)のH.263となり、H.263のPBピク
チャと同様に符号化される。このとき動きベクトルは直
前に復号されたPピクチャ(VOP)において同じ位置
のマクロブロックの動きベクトルが用いられる。In this case, the macro block is treated as a skip macro block, and the (MBTYPE) of this macro block is set to H.264 of Direct. 263; H.263 is encoded in the same manner as the PB picture. At this time, the motion vector of the macroblock at the same position in the P picture (VOP) decoded immediately before is used.
【0205】上位レイヤ (scalability = 1)におけるス
キップマクロブロックの条件は以下の通りである。The conditions for a skipped macroblock in the upper layer (scalability = 1) are as follows.
【0206】(A)Pピクチャ(VOP) (1)COD == '1' である場合。(A) P picture (VOP) (1) When COD == '1'
【0207】この場合、マクロブロックはスキップマク
ロブロックとして扱われる。DCT数は全て0であり、
動きベクトルも0として扱われる。In this case, the macro block is treated as a skip macro block. The DCT numbers are all 0,
The motion vector is also treated as 0.
【0208】Pピクチャ(VOP)の場合、スキップマ
クロブロックの条件は下位レイヤと同様である。In the case of a P picture (VOP), the conditions for a skipped macroblock are the same as in the lower layer.
【0209】(B)ピクチャ(VOP) スキップマクロブロックにおいては、その予測モードや
参照画像を最も一般的に効率が良いモードに設定してお
くべきである。したがって、空間スケーラビリティの場
合の上位レイヤのマクロブロックにおいては2階層予測
モードとするのが効率が良い。(B) Picture (VOP) In a skip macroblock, its prediction mode and reference image should be set to the most generally efficient mode. Therefore, it is more efficient to set the two-layer prediction mode to the macroblock of the upper layer in the case of spatial scalability.
【0210】本実施の形態においては、上位レイヤのB
ピクチャ(VOP)のスキップマクロブロックの条件は
以下の通りである。In this embodiment, the upper layer B
The conditions of the skip macroblock of the picture (VOP) are as follows.
【0211】(1)(ref_select_code == '00')であ
り、かつ(MODB == '0')である場合。(1) When (ref_select_code == '00') and (MODB == '0').
【0212】(ref_select_code == '00')の場合、最
も最近に復号されたIまたはPピクチャ(VOP)の対
応するマクロブロックがスキップマクロブロックである
かどうか(CODの値)によらず、常にそれ以後のデータ
を伝送する。このとき次に符号化される(MODB)が0の
場合スキップマクロブロックとなり、それ以上のデータ
は伝送されない。In the case of (ref_select_code == '00'), regardless of whether or not the corresponding macroblock of the most recently decoded I or P picture (VOP) is a skip macroblock (COD value), The subsequent data is transmitted. At this time, if (MODB) to be encoded next is 0, it becomes a skipped macroblock, and no further data is transmitted.
【0213】この時、予測は2階層予測モードとなり、
動きベクトルは0として扱われる。At this time, the prediction is in the two-layer prediction mode,
The motion vector is treated as 0.
【0214】(2)(ref_select_code != '00')であ
り、かつ最も最近に復号されたIまたはPピクチャ(V
OP)の対応するマクロブロックがスキップマクロブロ
ックである(COD = 1)の場合。(2) (ref_select_code! = '00') and the most recently decoded I or P picture (V
OP) when the corresponding macroblock is a skip macroblock (COD = 1).
【0215】この場合、スキップマクロブロックとされ
る。予測はPピクチャ(VOP)と同様に行われ動きベ
クトルは0として扱われる。In this case, a skip macro block is set. The prediction is performed in the same way as for a P picture (VOP), and the motion vector is treated as 0.
【0216】(3)(ref_select_code != '00')であ
りかつ、(MODB == '0')の場合。(3) When (ref_select_code! = '00') and (MODB = = '0').
【0217】この場合、スキップマクロブロックとして
扱われ、このマクロブロックの(MBTYPE)はダイレクト
(Direct)のH.263となり、H.263のPBピク
チャと同様に符号化される。このとき動きベクトルは
(ref_select_code)によって示される(VOL)の直前に
復号されたPピクチャ(VOP)において同じ位のマク
ロブロックの動きベクトルが用いられる。In this case, the macro block is treated as a skip macro block, and the (MBTYPE) of this macro block is set to H.264 of Direct (Direct). 263; H.263 is encoded in the same manner as the PB picture. At this time, the motion vector of the same macroblock in the P picture (VOP) decoded immediately before (VOL) indicated by (ref_select_code) is used.
【0218】[0218]
【発明の効果】本発明は、高解像度の画像信号から求め
た動き情報を用いて低解像度の画像信号の変化量を求
め、この変化量を高解像度の画像信号の局所復号画像に
加算して予測参照画像を生成し、符号化を行うことによ
り、すなわち、これまでのMPEG方式の予測モードに
加えて、上位レイヤの参照画像に下位レイヤの変化量を
加算することにより、新たな参照画像を生成し、この新
たな参照画像を用いてフレーム間予測符号化を実現する
ようにしている。これにより、空間スケーラブル符号化
方法において、予測効率を改善し、符号化効率を向上す
ることが可能となる。According to the present invention, the amount of change in the low-resolution image signal is obtained by using the motion information obtained from the high-resolution image signal, and this amount of change is added to the locally decoded image of the high-resolution image signal. By generating and encoding a predicted reference image, that is, by adding the amount of change of the lower layer to the reference image of the upper layer in addition to the prediction mode of the conventional MPEG system, a new reference image is generated. Generated, and the inter-frame predictive coding is realized using the new reference image. Accordingly, in the spatial scalable coding method, it is possible to improve prediction efficiency and improve coding efficiency.
【図1】本発明の画像信号符号化方法及び装置を実現す
る実施の形態の画像信号符号化装置の概略構成を示すブ
ロック回路図である。FIG. 1 is a block circuit diagram showing a schematic configuration of an image signal encoding apparatus according to an embodiment for realizing an image signal encoding method and apparatus of the present invention.
【図2】テンポラススケーラビリティの説明に用いる図
である。FIG. 2 is a diagram used for explaining temporal scalability.
【図3】画像信号符号化装置の下位レイヤ符号化回路の
具体的構成を示すブロック回路図である。FIG. 3 is a block circuit diagram showing a specific configuration of a lower layer encoding circuit of the image signal encoding device.
【図4】画像信号符号化装置の上位レイヤ符号化回路の
具体的構成を示すブロック回路図である。FIG. 4 is a block circuit diagram illustrating a specific configuration of an upper layer encoding circuit of the image signal encoding device.
【図5】空間スケーラビリティの場合の符号化の説明に
用いる図である。FIG. 5 is a diagram used to explain encoding in the case of spatial scalability.
【図6】本実施の形態におけるテンポラススケーラビリ
ティの場合の符号化の説明に用いる図である。FIG. 6 is a diagram used to explain encoding in the case of temporal scalability in the present embodiment.
【図7】本実施の形態における上位レイヤの参照画像の
説明に用いる図である。FIG. 7 is a diagram used for describing a reference image of an upper layer according to the present embodiment.
【図8】予測参照画像を生成する方法の流れを示すフロ
ーチャートである。FIG. 8 is a flowchart illustrating a flow of a method for generating a prediction reference image.
【図9】Pピクチャにおけるフラグ(ref_select_cod
e)の表を示す図である。FIG. 9 shows a flag (ref_select_cod) in a P picture.
It is a figure showing the table of e).
【図10】Bピクチャにおけるフラグ(ref_select_cod
e)の表を示す図である。FIG. 10 shows a flag (ref_select_cod) in a B picture.
It is a figure showing the table of e).
【図11】本発明の画像信号復号方法及び装置を実現す
る実施の形態の画像信号復号装置の概略構成を示すブロ
ック回路図である。FIG. 11 is a block circuit diagram illustrating a schematic configuration of an image signal decoding device according to an embodiment for realizing the image signal decoding method and device of the present invention.
【図12】画像信号復号装置の下位レイヤ復号回路の具
体的構成を示すブロック回路図である。FIG. 12 is a block circuit diagram showing a specific configuration of a lower layer decoding circuit of the image signal decoding device.
【図13】画像信号復号装置の上位レイヤ復号回路の具
体的構成を示すブロック回路図である。FIG. 13 is a block circuit diagram showing a specific configuration of an upper layer decoding circuit of the image signal decoding device.
【図14】ビデオシンタクスの階層構造の説明に用いる
図である。FIG. 14 is a diagram used for describing a hierarchical structure of video syntax.
【図15】IおよびPピクチャにおけるマクロブロック
のシンタクスを示す図である。FIG. 15 is a diagram illustrating the syntax of a macroblock in I and P pictures.
【図16】Bピクチャにおけるマクロブロックのシンタ
クスを示す図である。FIG. 16 is a diagram illustrating the syntax of a macroblock in a B picture.
【図17】Bピクチャにおいてマクロブロックのタイプ
を示すフラグであるMODBの可変長符号を示す図である。FIG. 17 is a diagram illustrating a MODB variable length code which is a flag indicating a macroblock type in a B picture.
【図18】下位レイヤのBピクチャにおける各マクロブ
ロックの予測モードを示すフラグであるMBTYPEを示す図
である。FIG. 18 is a diagram illustrating MBTYPE which is a flag indicating a prediction mode of each macroblock in a B picture of a lower layer.
【図19】上位レイヤにおけるMBTYPEを示す図である。FIG. 19 is a diagram illustrating MBTYPE in an upper layer.
【図20】MPEG方式のMP@MLの従来のエンコー
ダの概略構成例を示すブロック回路図である。FIG. 20 is a block circuit diagram illustrating a schematic configuration example of a conventional MP @ ML encoder of the MPEG system.
【図21】MPEGのMP@MLの従来のデコーダの概
略構成例を示すブロック回路図である。FIG. 21 is a block circuit diagram illustrating a schematic configuration example of a conventional decoder of MPEG MP @ ML.
【図22】空間スケーラビリティの従来のエンコーダの
構成例を示すブロック回路図である。FIG. 22 is a block circuit diagram illustrating a configuration example of a conventional encoder having spatial scalability.
【図23】空間スケーラビリティの従来のデコーダの構
成例を示すブロック回路である。FIG. 23 is a block circuit showing a configuration example of a conventional decoder of spatial scalability.
1 画像階層化回路、 2 遅延回路、 3 上位レイ
ヤ符号化回路、 4解像度変換回路、 5 下位レイヤ
符号化回路、 6 多重化回路、 81 多重化回路、
82 遅延回路、 83 上位レイヤ復号回路、 9
4 解像度変換回路、 95 下位レイヤ復号回路1 image layering circuit, 2 delay circuit, 3 upper layer coding circuit, 4 resolution conversion circuit, 5 lower layer coding circuit, 6 multiplexing circuit, 81 multiplexing circuit,
82 delay circuit, 83 upper layer decoding circuit, 9
4 Resolution conversion circuit, 95 Lower layer decoding circuit
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 7/24 - 7/68 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) H04N 7/ 24-7/68
Claims (10)
とも2層の画像信号に分離階層化し、これら高解像度と
低解像度の画像信号を予測参照画像を用いて符号化する
画像信号符号化方法において、 上記高解像度の画像信号を用いて動き情報を検出し、 上記動き情報を用いて上記低解像度の画像信号の変化量
を求め、 上記変化量を所定の閾値と比較し、上記変化量が上記閾
値以上のときに当該変化量を上記高解像度の画像信号を
符号化した信号の復号画像信号に加算して予測参照画像
を生成し、 当該生成した予測参照画像を用いて符号化を行うことを
特徴とする画像信号符号化方法。An image signal encoding method for separating and hierarchizing an image signal into at least two layers of high-resolution and low-resolution image signals and encoding these high-resolution and low-resolution image signals using a predicted reference image. Detecting motion information by using the high-resolution image signal; obtaining a change amount of the low-resolution image signal by using the motion information; comparing the change amount with a predetermined threshold value; Adding the amount of change to the decoded image signal of the signal obtained by encoding the high-resolution image signal when the difference is equal to or larger than the threshold to generate a predicted reference image, and performing encoding using the generated predicted reference image. Characteristic image signal encoding method.
高解像度の画像信号の解像度に合わせた信号から上記変
化量を求めることを特徴とする請求項1記載の画像信号
符号化方法。2. The image signal encoding method according to claim 1, wherein the amount of change is obtained from a signal in which the resolution of the low-resolution image signal matches the resolution of the high-resolution image signal.
ロとして上記加算を行うことを特徴とする請求項1記載
の画像信号符号化方法。3. The image signal according to claim 1, wherein the amount of change is compared with a predetermined threshold, and when the amount of change is less than the threshold, the value of the amount of change is set to zero and the addition is performed. Encoding method.
画素単位で行うことを特徴とする請求項3記載の画像信
号符号化方法。4. The image signal encoding method according to claim 3, wherein the comparison between the amount of change and the predetermined threshold is performed on a pixel-by-pixel basis.
とも2層の画像信号に分離階層化し、これら高解像度と
低解像度の画像信号を予測参照画像を用いて符号化する
画像信号符号化装置において、 上記高解像度の画像信号を用いて動き情報を検出する動
き検出手段と、 上記動き情報を用いて上記低解像度の画像信号の変化量
を求める変化量計算手段と、 上記変化量を所定の閾値と比較し、上記変化量が上記閾
値以上のときに当該変化量を上記高解像度の画像信号を
符号化した信号の復号画像信号に加算して予測参照画像
を生成する生成手段と、 当該生成した予測参照画像を用いて符号化を行う符号化
手段とを有することを特徴とする画像信号符号化装置。5. An image signal coding apparatus for separating and layering an image signal into at least two layers of high-resolution and low-resolution image signals and coding these high-resolution and low-resolution image signals using a predicted reference image. A motion detecting means for detecting motion information using the high-resolution image signal; a change amount calculating means for obtaining a change amount of the low-resolution image signal using the motion information; and a predetermined threshold value for the change amount. Generating means for generating a predicted reference image by adding the amount of change to a decoded image signal of a signal obtained by encoding the high-resolution image signal when the amount of change is equal to or larger than the threshold, An encoding unit for performing encoding using the predicted reference image.
とも2層の画像信号に分離階層化して符号化され、これ
ら高解像度と低解像度の画像信号と符号化パラメータと
からなるビットストリームを、予測参照画像を用いて復
号する画像信号復号方法において、 符号化パラメータより動き情報を抽出し、その動き情報
を用いて上記復号した低解像度の画像信号の変化量を求
め、 上記変化量を所定の閾値と比較し、上記変化量が上記閾
値以上のときに当該変化量の値を上記高解像度の画像信
号の復号画像信号に加算して上記予測参照画像を生成
し、 当該生成した予測参照画像を用いて復号を行うことを特
徴とする画像信号復号方法。6. An image signal is separated and hierarchized into at least two layers of high-resolution and low-resolution image signals and encoded, and a bit stream comprising these high-resolution and low-resolution image signals and encoding parameters is predicted. In an image signal decoding method for decoding using a reference image, motion information is extracted from an encoding parameter, a change amount of the decoded low-resolution image signal is obtained using the motion information, and the change amount is determined by a predetermined threshold value. When the amount of change is equal to or greater than the threshold, the value of the amount of change is added to the decoded image signal of the high-resolution image signal to generate the predicted reference image, and the generated predicted reference image is used. An image signal decoding method characterized in that decoding is performed by performing decoding.
度を上記高解像度の画像信号の解像度に合わせた信号か
ら上記変化量を求めることを特徴とする請求項6記載の
画像信号復号方法。7. The image signal decoding method according to claim 6, wherein the amount of change is obtained from a signal in which the resolution of the decoded low-resolution image signal matches the resolution of the high-resolution image signal.
ロとして上記高解像度の復号画像信号に加算を行うこと
を特徴とする請求項6記載の画像信号復号方法。8. The method according to claim 1, wherein the change amount is compared with a predetermined threshold value, and when the change amount is less than the threshold value, the value of the change amount is set to zero and added to the high-resolution decoded image signal. The image signal decoding method according to claim 6.
画素単位で行うことを特徴とする請求項8記載の画像信
号復号方法。9. The image signal decoding method according to claim 8, wherein the comparison between the amount of change and the predetermined threshold is performed on a pixel-by-pixel basis.
くとも2層の画像信号に分離階層化して符号化され、こ
れら高解像度と低解像度の画像信号と符号化パラメータ
とからなるビットストリームを、予測参照画像を用いて
復号する画像信号復号装置において、 符号化パラメータより動き情報を抽出し、その動き情報
を用いて上記復号した低解像度の画像信号の変化量を求
める手段と、 上記変化量を所定の閾値と比較し、上記変化量が上記閾
値以上のときに当該変化量の値を上記高解像度の画像信
号の復号画像信号に加算して上記予測参照画像を生成す
る手段と、 当該生成した予測参照画像を用いて復号を行う手段とを
有することを特徴とする画像信号復号装置。10. An image signal is separated and hierarchized into at least two layers of high-resolution and low-resolution image signals and encoded, and a bit stream including the high-resolution and low-resolution image signals and encoding parameters is predicted. An image signal decoding device that decodes using a reference image, extracting motion information from an encoding parameter, and using the motion information to determine a change amount of the decoded low-resolution image signal; Means for generating the predicted reference image by adding the value of the amount of change to the decoded image signal of the high-resolution image signal when the amount of change is equal to or greater than the threshold, Means for decoding using a reference image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2412097A JP3263901B2 (en) | 1997-02-06 | 1997-02-06 | Image signal encoding method and apparatus, image signal decoding method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2412097A JP3263901B2 (en) | 1997-02-06 | 1997-02-06 | Image signal encoding method and apparatus, image signal decoding method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10224799A JPH10224799A (en) | 1998-08-21 |
JP3263901B2 true JP3263901B2 (en) | 2002-03-11 |
Family
ID=12129461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2412097A Expired - Fee Related JP3263901B2 (en) | 1997-02-06 | 1997-02-06 | Image signal encoding method and apparatus, image signal decoding method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3263901B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4414904B2 (en) | 2004-04-16 | 2010-02-17 | 株式会社エヌ・ティ・ティ・ドコモ | Moving picture encoding apparatus, moving picture encoding method, moving picture encoding program, moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program |
WO2006038679A1 (en) | 2004-10-07 | 2006-04-13 | Nec Corporation | Moving picture encoding device, method, program, and moving picture decoding device, method, and program |
KR100763194B1 (en) | 2005-10-14 | 2007-10-04 | 삼성전자주식회사 | Intra base prediction method satisfying single loop decoding condition, video coding method and apparatus using the prediction method |
KR100763196B1 (en) * | 2005-10-19 | 2007-10-04 | 삼성전자주식회사 | Method for coding flags in a layer using inter-layer correlation, method for decoding the coded flags, and apparatus thereof |
EP2761870A4 (en) * | 2011-09-30 | 2016-03-16 | Intel Corp | Systems, methods, and computer program products for a video encoding pipeline |
US20130208809A1 (en) * | 2012-02-14 | 2013-08-15 | Microsoft Corporation | Multi-layer rate control |
JP6261741B2 (en) * | 2013-09-09 | 2018-01-17 | エルジー エレクトロニクス インコーポレイティド | High-quality UHD broadcast content transmission / reception method and apparatus in digital broadcasting system |
-
1997
- 1997-02-06 JP JP2412097A patent/JP3263901B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10224799A (en) | 1998-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6427027B1 (en) | Picture encoding and/or decoding apparatus and method for providing scalability of a video object whose position changes with time and a recording medium having the same recorded thereon | |
KR100323489B1 (en) | Method and device for transcoding bitstream with video data | |
US6173013B1 (en) | Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal | |
US6031575A (en) | Method and apparatus for encoding an image signal, method and apparatus for decoding an image signal, and recording medium | |
US6608935B2 (en) | Picture encoding method and apparatus, picture decoding method and apparatus and furnishing medium | |
US7194032B1 (en) | Circuit and method for modifying a region of an encoded image | |
EP1587327A2 (en) | Video transcoding | |
US20040028129A1 (en) | Picture encoding method and apparatus, picture decoding method and apparatus and furnishing medium | |
US6535558B1 (en) | Picture signal encoding method and apparatus, picture signal decoding method and apparatus and recording medium | |
US6498816B1 (en) | Circuit and method for formatting each of a series of encoded video images into respective regions | |
US5642165A (en) | Motion picture encoding method and apparatus | |
Haskell et al. | Mpeg video compression basics | |
JP3263901B2 (en) | Image signal encoding method and apparatus, image signal decoding method and apparatus | |
JP3371191B2 (en) | Image signal encoding method and decoding method, and encoding apparatus and decoding apparatus | |
JP3301375B2 (en) | Image signal encoding apparatus and method, image signal decoding apparatus and method | |
JP2000312362A (en) | Image encoding system conversion device and its method and recording medium | |
AU759558B2 (en) | Picture encoding and decoding | |
AU731425B2 (en) | Picture encoding and decoding | |
JP3263812B2 (en) | Image encoding device and image encoding method, and image decoding device and image decoding method | |
JPH07250329A (en) | Image composite coding method and image composite device | |
ter Horst et al. | MUPCOS: A multi-purpose coding scheme | |
Haskell et al. | Motion Compensation Modes in MPEG |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20011120 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071228 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081228 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091228 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091228 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101228 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111228 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121228 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131228 Year of fee payment: 12 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |