JP4784618B2 - Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program - Google Patents

Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program Download PDF

Info

Publication number
JP4784618B2
JP4784618B2 JP2008120155A JP2008120155A JP4784618B2 JP 4784618 B2 JP4784618 B2 JP 4784618B2 JP 2008120155 A JP2008120155 A JP 2008120155A JP 2008120155 A JP2008120155 A JP 2008120155A JP 4784618 B2 JP4784618 B2 JP 4784618B2
Authority
JP
Japan
Prior art keywords
orthogonal transform
transform coefficient
signal
coefficient
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008120155A
Other languages
Japanese (ja)
Other versions
JP2009272792A (en
Inventor
基晴 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2008120155A priority Critical patent/JP4784618B2/en
Publication of JP2009272792A publication Critical patent/JP2009272792A/en
Application granted granted Critical
Publication of JP4784618B2 publication Critical patent/JP4784618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は動画像符号化装置、動画像復号化装置、動画像符号化プログラム、及び動画像復号化プログラムに係り、特に動き補償予測符号化を用いて動画像信号を符号化して符号化動画像信号を得る動画像符号化装置及び動画像符号化プログラム、並びに符号化動画像信号を復号化する動画像復号化装置及び動画像復号化プログラムに関する。   The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding program, and a moving image decoding program, and more particularly to encoding a moving image signal by encoding a moving image signal using motion compensated prediction encoding. The present invention relates to a moving image encoding device and a moving image encoding program for obtaining a signal, and a moving image decoding device and a moving image decoding program for decoding an encoded moving image signal.

近年、デジタル化された画像・音声信号に対して高能率符号化による圧縮された情報を用いて、記録媒体により長時間のコンテンツを記録する装置や、衛星や地上局等からのデジタル放送波やネットワークを介してコンテンツを配信するサービスが実用化されている。このようなサービスにおいては、膨大な情報量を持つ画像・音声の情報を大量に放送・伝送するために、大きな圧縮率を実現する高能率符号化が必要となっている。この動画像の高能率符号化として国際規格であるMPEG2(Moving Picture Experts Group phase 2)、MPEG4(Moving Picture Experts Group phase 4)、ASP(Advanced Simple Profile)、MPEG4 AVC(Advanced Video Coding)等の符号化方式が用いられている。これらの符号化方式においては、画像信号の隣接画素間(空間方向)の相関および、隣接するフレーム間やフィールド間(時間方向)の相関を利用して情報量を圧縮する方式を用いている。一例として、以下にMPEG2画像符号化処理に関しての説明を行う。   In recent years, using information compressed by high-efficiency coding for digitized video and audio signals, devices that record long-term content on recording media, digital broadcast waves from satellites and ground stations, etc. Services for distributing content via a network have been put into practical use. In such a service, in order to broadcast and transmit a large amount of image / sound information having an enormous amount of information, high-efficiency encoding that realizes a large compression rate is required. As the high-efficiency coding of moving pictures, codes such as MPEG2 (Moving Picture Experts Group phase 2), MPEG4 (Moving Picture Experts Group phase 4), ASP (Advanced Simple Profile), MPEG4 AVC (Advanced Video Coding), etc., which are international standards. Is used. In these encoding methods, a method of compressing the amount of information using a correlation between adjacent pixels (spatial direction) of an image signal and a correlation between adjacent frames or fields (time direction) is used. As an example, an MPEG2 image encoding process will be described below.

MPEG2においては、時間的に連続して入力される画像フレームを、基準フレームと予測フレームに振り分けて処理を行う。基準フレームは空間方向の相関のみを用いて符号化することで、そのフレームの符号化データのみで復元することができる。予測フレームは、基準となるフレームからの時間方向の相関と空間方向の相関を共に用いて符号化することにより、基準フレームに対してより符号化効率を高めることができる。予測フレームの符号化データは、復元された基準フレームと予測フレームの符号化データより復元される。   In MPEG2, processing is performed by dividing image frames that are continuously input in time into reference frames and predicted frames. By encoding the reference frame using only the correlation in the spatial direction, it is possible to restore only the encoded data of the frame. By encoding the prediction frame using both the correlation in the time direction and the correlation in the spatial direction from the reference frame, the encoding efficiency can be further increased with respect to the reference frame. The encoded data of the prediction frame is restored from the restored reference frame and the encoded data of the prediction frame.

基準フレームの画像信号は、輝度信号で水平方向16画素、垂直方向16画素のマクロブロックと呼ばれる処理単位に分割される。分割されたマクロブロックのデータは、更に水平方向8画素、垂直方向8画素単位の2次元ブロックに分割され、直交変換の一種であるDCT(Discrete Cosine Transform:離散コサイン変換)処理が行われる。   The image signal of the reference frame is divided into processing units called macroblocks of 16 pixels in the horizontal direction and 16 pixels in the vertical direction as luminance signals. The divided macroblock data is further divided into two-dimensional blocks of 8 pixels in the horizontal direction and 8 pixels in the vertical direction, and a DCT (Discrete Cosine Transform) process, which is a kind of orthogonal transform, is performed.

DCT変換後の信号はその2次元ブロックの周波数成分に準じた値を示すため、一般的な画像では低域に成分が集中する。また、高周波数成分の情報劣化は低周波数成分の情報劣化よりも視覚的に目立ちにくい性質がある。よって、低周波数成分を細かく高周波数成分を粗く量子化し、それにより得られた係数成分と成分が無い係数0の連続する長さを可変長符号化することにより、情報量を圧縮している。   Since the signal after DCT conversion shows a value according to the frequency component of the two-dimensional block, the component is concentrated in a low frequency range in a general image. In addition, information degradation of high frequency components has a property that is visually less noticeable than information degradation of low frequency components. Therefore, the amount of information is compressed by finely quantizing the low-frequency components finely and coarsely quantizing the high-frequency components and variable-length coding the continuous length of the coefficient component obtained thereby and coefficient 0 having no component.

予測フレームの画像信号は、基準フレームと同様に、輝度信号で水平方向16画素、垂直方向16画素のマクロブロックの単位に分割される。予測フレームにおいては、マクロブロック毎に基準フレームとの間の動きベクトルが求められ、マクロブロックの各画素に対して、動きベクトルにより切り出された2次元ブロックの各画素との差分ブロックが生成される。正確な動きベクトルが検出された場合には、差分ブロックの情報量は元のマクロブロックの持っている情報量よりも大幅に少なくなるため、基準フレームよりも粗い量子化処理が可能となる。   Similar to the reference frame, the image signal of the prediction frame is divided into macroblock units of 16 pixels in the horizontal direction and 16 pixels in the vertical direction by the luminance signal. In the prediction frame, a motion vector between the reference frame and each macroblock is obtained, and a difference block between each pixel of the macroblock and each pixel of the two-dimensional block extracted by the motion vector is generated. . When an accurate motion vector is detected, the information amount of the difference block is significantly smaller than the information amount of the original macroblock, so that a coarser quantization process than the reference frame is possible.

動きベクトルの検出は、一般的にブロックマッチングにより求められる。このブロックマッチングでは、マクロブロックの各画素と、動きベクトル値だけマクロブロックの存在する水平・垂直の位置を動かした場所の基準フレームを水平方向16画素、垂直方向16画素にブロック化した各画素の差分絶対値総和(もしくは差分二乗総和)を求め、その最小値を取る動きベクトルの値を、検出された動きベクトルとして出力する。画面の動きによっては、予測フレームとマッチングする画像が参照フレーム内に存在しない場合もあるため、差分ブロックを符号化するか非差分ブロック(イントラブロック)を符号化するかを選択し(予測モード判定)、選択されたブロックに対して基準フレームと同様にDCT・可変長符号化処理を施し、情報量を圧縮する。   Motion vector detection is generally obtained by block matching. In this block matching, each pixel of the macroblock and the reference frame of the place where the horizontal / vertical position where the macroblock exists by the motion vector value is moved are blocked into 16 pixels in the horizontal direction and 16 pixels in the vertical direction. The sum of absolute differences (or the sum of squared differences) is obtained, and the value of the motion vector that takes the minimum value is output as the detected motion vector. Depending on the movement of the screen, the image that matches the prediction frame may not exist in the reference frame, so select whether to encode the difference block or non-difference block (intra block) (prediction mode determination) ) DCT / variable length coding processing is performed on the selected block in the same manner as the reference frame to compress the information amount.

図12は、従来の動画像符号化装置の一例のブロック図を示す。この動画像符号化装置は、上記のMPEG2符号化方式による動画像符号化装置である。同図において、入力端子1200より入力された符号化対象の動画像信号であるデジタル画像信号は、入力画像メモリ1201に供給されて記憶され、符号化シンタックスに従って符号化される順番に並べ替えを行うため遅延される。入力画像メモリ1201から出力されたデジタル画像信号は、2次元ブロック変換器1202にてマクロブロックが切り出される。   FIG. 12 is a block diagram showing an example of a conventional moving image encoding apparatus. This moving image encoding device is a moving image encoding device based on the above-described MPEG2 encoding method. In the figure, a digital image signal that is a moving image signal to be encoded input from an input terminal 1200 is supplied to and stored in an input image memory 1201 and rearranged in the order of encoding according to an encoding syntax. Delayed to do. From the digital image signal output from the input image memory 1201, a macroblock is cut out by a two-dimensional block converter 1202.

基準フレームにおいては、2次元ブロック変換器1202から出力されたマクロブロックデータは、減算器1203を介して直交変換器1204に供給され、水平方向8画素、垂直方向8画素の2次元ブロック単位で、直交変換の一種であるDCTが行われてDCT係数が出力される。DCT係数はさらに輝度信号で水平方向16画素、垂直方向16画素のマクロブロック単位にまとめられて、量子化器1205に送られる。量子化器1205においては、DCT係数を周波数成分毎に異なった値を持つ量子化マトリクスにより、係数毎に異なった値で除算することにより、量子化処理する。量子化されたDCT係数は、エントロピー符号化器1206において、符号化テーブル1207の係数に対応したアドレスを参照することにより、可変長または固定長の符号化が行われる。エントロピー符号化器1206から出力されたビットストリームは、ストリームバッファ1208に格納された後、出力端子1209を介して、記録媒体もしくは伝送路に出力される。   In the reference frame, the macroblock data output from the two-dimensional block converter 1202 is supplied to the orthogonal transformer 1204 via the subtractor 1203, and is in units of two-dimensional blocks of 8 pixels in the horizontal direction and 8 pixels in the vertical direction. DCT, which is a kind of orthogonal transform, is performed and DCT coefficients are output. The DCT coefficients are further collected by a luminance signal in units of macroblocks of 16 pixels in the horizontal direction and 16 pixels in the vertical direction, and sent to the quantizer 1205. The quantizer 1205 performs quantization processing by dividing the DCT coefficient by a different value for each coefficient by a quantization matrix having a different value for each frequency component. The quantized DCT coefficient is encoded in variable length or fixed length by referring to the address corresponding to the coefficient in the encoding table 1207 in the entropy encoder 1206. The bit stream output from the entropy encoder 1206 is stored in the stream buffer 1208 and then output to the recording medium or transmission path via the output terminal 1209.

一方、量子化器1205において量子化されたDCT係数は、逆量子化器1210及び逆直交変換器1211において逆量子化及び逆DCT処理が順次に行われ、量子化されたDCT係数が復号される。逆直交変換器1211から出力された復号されたDCT係数は、加算器1212及び2次元ブロック逆変換器1213を介してローカルデコードデータとして生成され、参照画像メモリ1214に供給されて格納される。参照画像メモリ1214に格納されたローカルデコードデータは、予測フレームの符号化処理時に参照画像として使用される。   On the other hand, the DCT coefficients quantized by the quantizer 1205 are sequentially subjected to inverse quantization and inverse DCT processing by the inverse quantizer 1210 and the inverse orthogonal transformer 1211 to decode the quantized DCT coefficients. . The decoded DCT coefficient output from the inverse orthogonal transformer 1211 is generated as local decoded data via the adder 1212 and the two-dimensional block inverse transformer 1213, supplied to the reference image memory 1214, and stored. The local decoded data stored in the reference image memory 1214 is used as a reference image during the prediction frame encoding process.

続いて、予測フレームにおいては、入力画像メモリ1201から切り出されたマクロブロックデータと参照画像メモリ1214に格納されている参照画像との間で、ME(動き推定)器1215によって、画像間での動きベクトルが求められる。ME器1215から出力された動きベクトルは、MC(動き補償)器1216に供給され、ここで参照画像メモリ1214内の参照画像から予測ブロックを切り出す。MC器1216では、複数切り出された予測ブロックの中から最適な予測モードの選択を行い、選択した予測ブロックを減算器1203及び加算器1212にそれぞれ供給する。   Subsequently, in the prediction frame, a motion between images is performed between the macroblock data cut out from the input image memory 1201 and the reference image stored in the reference image memory 1214 by a ME (motion estimation) unit 1215. A vector is required. The motion vector output from the ME unit 1215 is supplied to an MC (motion compensation) unit 1216, where a prediction block is cut out from the reference image in the reference image memory 1214. The MC unit 1216 selects an optimal prediction mode from a plurality of prediction blocks cut out, and supplies the selected prediction block to the subtracter 1203 and the adder 1212, respectively.

減算器1203は、入力画像ブロックと予測ブロックとの差分信号を直交変換器1204に送り出す。直交変換器1204は、上記の差分信号に対して、前記基準フレームの各ブロックと同様のDCT処理を行い、これにより得たDCT係数を量子化器1205により量子化処理させる。エントロピー符号化器1206は、MC器1216から出力される動きベクトルや予測モードを、量子化器1205から出力される符号化処理されたDCT係数と共に、所定の構文構造に基づいて符号化し出力することで、符号化ビットストリームを生成する。生成された符号化ビットストリームは、ストリームバッファ1208を介して出力端子1209に出力される。   The subtractor 1203 sends the difference signal between the input image block and the prediction block to the orthogonal transformer 1204. The orthogonal transformer 1204 performs the same DCT processing as the blocks of the reference frame on the difference signal, and causes the quantizer 1205 to quantize the DCT coefficients obtained thereby. The entropy encoder 1206 encodes and outputs the motion vector and prediction mode output from the MC unit 1216 together with the encoded DCT coefficient output from the quantizer 1205 based on a predetermined syntax structure. Thus, an encoded bit stream is generated. The generated encoded bit stream is output to the output terminal 1209 via the stream buffer 1208.

一方、量子化器1205において量子化されたDCT係数は、逆量子化器1210及び逆直交変換器1211において逆量子化及び逆DCT処理が行われ、量子化されたDCT係数が復号され、更に加算器1212において予測ブロックと加算され、ローカルデコードデータが生成される。ローカルデコードデータは、参照を受ける画像の場合には2次元ブロック逆変換器1213を介して参照画像メモリ1214に供給されて参照画像として格納される。参照画像メモリ1214に格納された参照画像が、続く予測フレームの符号化処理時に使用される。   On the other hand, the DCT coefficients quantized by the quantizer 1205 are subjected to inverse quantization and inverse DCT processing by the inverse quantizer 1210 and the inverse orthogonal transformer 1211, and the quantized DCT coefficients are decoded and further added. The unit 1212 adds the prediction block to generate local decoded data. In the case of an image that receives a reference, the local decoded data is supplied to the reference image memory 1214 via the two-dimensional block inverse converter 1213 and stored as a reference image. The reference image stored in the reference image memory 1214 is used at the time of the subsequent prediction frame encoding process.

符号量の制御に関しては、符号量制御器1217においてエントロピー符号化器1206からストリームバッファ1208に出力されたビットストリームの符号量と、目標とする符号量との間で比較がとられ、目標符号量に近づけるために量子化器1205の量子化の細かさ(量子化スケール)を制御する。符号化処理における情報の集中度に依存して、量子化スケールが変動するため、集中度が十分でない場合には粗い量子化スケールで量子化が施されるため、それを復号した画像信号の品質が低下する。   Regarding the control of the code amount, the code amount controller 1217 compares the code amount of the bit stream output from the entropy encoder 1206 to the stream buffer 1208 with the target code amount, and the target code amount. In order to approach the above, the fineness of quantization (quantization scale) of the quantizer 1205 is controlled. Since the quantization scale varies depending on the degree of information concentration in the encoding process, if the degree of concentration is not sufficient, quantization is performed with a coarse quantization scale. Decreases.

図13は、従来の動画像復号化装置の一例のブロック図を示す。この動画像復号化装置は、MPEG2方式による復号化処理を行う装置である。同図において、入力端子1300に入力されたMPEG2方式で符号化された符号化信号からなるビットストリームは、ストリームバッファ1301に蓄えられ、エントロピー復号器1302に供給される。エントロピー復号器1302は、符号化テーブル1303を用いて可変長または固定長の符号を復号し、量子化されたDCT係数と動きベクトルや予測モードを復元する。   FIG. 13 shows a block diagram of an example of a conventional video decoding device. This moving picture decoding apparatus is an apparatus that performs decoding processing according to the MPEG2 system. In the figure, a bit stream made up of an encoded signal encoded by the MPEG2 system and input to an input terminal 1300 is stored in a stream buffer 1301 and supplied to an entropy decoder 1302. The entropy decoder 1302 decodes a variable-length or fixed-length code using the encoding table 1303, and restores the quantized DCT coefficient, motion vector, and prediction mode.

量子化されたDCT係数は、逆量子化器1304及び逆直交変換器1305において逆量子化及び逆DCT処理が行われ、復号データが生成される。基準フレームの場合には、加算器1306、2次元ブロック逆変換器1307を介して復号画像信号として出力画像メモリ1310に蓄えられて出力時刻順に並べ替えられた後、出力端子1311より出力される。また、復号画像信号は、参照画像メモリ1308にも供給されて格納される。   The quantized DCT coefficients are subjected to inverse quantization and inverse DCT processing in an inverse quantizer 1304 and an inverse orthogonal transformer 1305 to generate decoded data. In the case of a reference frame, it is stored in the output image memory 1310 as a decoded image signal via the adder 1306 and the two-dimensional block inverse converter 1307 and rearranged in order of output time, and then output from the output terminal 1311. The decoded image signal is also supplied to and stored in the reference image memory 1308.

予測フレームにおいては、エントロピー復号器1302から出力される動きベクトル及びモード信号がMC(動き補償)器1309に入力され、参照画像メモリ1308より入力される参照画像を切り出す事により予測ブロックが生成される。生成された予測ブロックは加算器1306に供給され、復号データと加算される。加算器1306で加算された復号データは、基準フレームと同様に2次元ブロック逆変換器1307を介して復号画像信号として出力画像メモリ1310に蓄えられ出力時刻順に並べ替えられた後、出力端子1311より出力される。また、復号画像信号は該当フレームが参照を受ける画像の場合には、参照画像メモリ1308にも供給されて格納される。   In the prediction frame, a motion vector and a mode signal output from the entropy decoder 1302 are input to the MC (motion compensation) unit 1309, and a reference image input from the reference image memory 1308 is cut out to generate a prediction block. . The generated prediction block is supplied to the adder 1306 and added to the decoded data. The decoded data added by the adder 1306 is stored in the output image memory 1310 as a decoded image signal via the two-dimensional block inverse converter 1307 and rearranged in the order of output time, similarly to the reference frame, and then output from the output terminal 1311. Is output. The decoded image signal is also supplied to and stored in the reference image memory 1308 when the corresponding frame is an image for which reference is made.

上記のMPEG2の符号化方式にかかわらず、MPEG4 ASP、MPEG4 AVC等、多くの動画像符号化方式においては、2次元ブロック化された画像信号に対して、動き補償予測を施し時間方向の成分を集中させると共に、空間方向の成分に対してDCT等の直交変換を施し低域に成分を集中させ、高周波数成分を粗く量子化することで情報量を圧縮している。このような動画像符号化方式においては、必要以上の圧縮率で符号化する際に、DCT変換後の信号の高い周波数の収束度合いにより量子化スケールが上下することになり、高周波数成分の多い画像や、動き補償予測の精度が十分でない画像に関しては、量子化スケールが大きくなる。   Regardless of the MPEG2 encoding method described above, in many moving image encoding methods such as MPEG4 ASP, MPEG4 AVC, etc., motion compensation prediction is performed on a two-dimensional block image signal, and components in the time direction are applied. At the same time, the orthogonal component such as DCT is applied to the components in the spatial direction to concentrate the components in the low band, and the high frequency component is roughly quantized to compress the amount of information. In such a moving image encoding method, when encoding at a compression rate higher than necessary, the quantization scale goes up and down depending on the degree of convergence of the high frequency of the signal after DCT conversion, and there are many high frequency components. For images and images for which the accuracy of motion compensation prediction is not sufficient, the quantization scale becomes large.

量子化スケールが大きくなった場合に生じる劣化としては、2次元ブロックで画像信号が分割されて量子化処理が施されることに起因するブロック歪、動き補償予測が2次元ブロック単位で施されブロック毎の予測画像に不連続性が生じることに起因するブロック歪、画像信号そのものの高周波成分が粗く量子化されることによるモスキート歪、符号化される画像信号内に存在する物体のカメラに対する距離やフォーカス等が時間変化し、画面内の物体が変形することで動き補償予測にミスマッチが生じ、その結果生じる様々な周波数成分での誤差成分の蓄積による歪などが存在する。動き補償予測に用いられる参照画像信号は、符号化された信号の復号画像となるため、上記劣化成分は予測画像に混入されることにより更なる劣化を伴うことになる。   Deterioration that occurs when the quantization scale becomes large is block distortion caused by the image signal being divided into two-dimensional blocks and subjected to quantization processing, and block subjected to motion compensation prediction in units of two-dimensional blocks. Block distortion due to discontinuity in each predicted image, mosquito distortion due to coarse quantization of the high frequency component of the image signal itself, distance to the camera of the object present in the encoded image signal, The focus etc. changes with time and the object in the screen is deformed, resulting in a mismatch in motion compensation prediction, and there is distortion due to accumulation of error components at various frequency components as a result. Since the reference image signal used for the motion compensation prediction is a decoded image of the encoded signal, the deterioration component is further deteriorated by being mixed in the prediction image.

このような歪成分を低減させるための技術として、ブロック歪を低減させるフィルタ処理が考えられている(例えば、特許文献1参照)。この特許文献1においては、劣化成分の中のブロック歪に限定してその劣化を視覚的に低減させるために、復号化装置において、図13の出力画像メモリ1310に蓄えられた復号画像に対して、まず、図14(A)に示すようなブロックの境界の画素の差分を算出する。図14(A)において、対象ブロックをCとし、対象ブロックCの左側、上側、右側、下側にそれぞれ隣接する隣接ブロックをそれぞれL、U、R、Dとする。特許文献1記載の復号化装置では、対象ブロックCの画素C00、C10、・・・、C70と、隣接ブロックLの画素L07、L17、・・・、L77との各画素間の差分絶対値と、対象ブロックCの画素C00、C01、・・・、C07と、隣接ブロックUの画素U70、U71、・・・、U77との各画素間の差分絶対値と、対象ブロックCの画素C07、C17、・・・、C77と、隣接ブロックRの画素R00、R10、・・・、R70との各画素間の差分絶対値と、対象ブロックCの画素C70、C71、・・・、C77と、隣接ブロックDの画素D00、D02、・・・、D07との各画素間の差分絶対値をそれぞれ求める。   As a technique for reducing such distortion components, a filter process for reducing block distortion is considered (for example, see Patent Document 1). In this patent document 1, in order to reduce the deterioration visually by limiting to the block distortion in the deterioration component, the decoding apparatus stores the decoded image stored in the output image memory 1310 in FIG. First, the difference between the pixels at the block boundaries as shown in FIG. 14A is calculated. In FIG. 14A, the target block is C, and adjacent blocks adjacent to the left side, upper side, right side, and lower side of the target block C are L, U, R, and D, respectively. In the decoding device described in Patent Literature 1, the absolute value of the difference between the pixels C00, C10,..., C70 of the target block C and the pixels L07, L17,. , C07 of the target block C and the absolute value of the difference between the pixels U70, U71,..., U77 of the adjacent block U, and the pixels C07, C17 of the target block C ,..., C77 and pixels R00, R10,..., R70 of adjacent blocks R, and absolute values of differences between the pixels, and pixels C70, C71,. Difference absolute values between the pixels D00, D02,..., D07 of the block D are obtained.

続いて、上記の復号化装置では、得られた上記のブロックの境界の各画素間差分絶対値と所定の閾値THとを比較して、すべての差分絶対値が閾値TH未満であるときは、ブロック歪が激しいと判断した境界を平均化させる低域フィルタ処理を施して、出力端子1211よりフィルタリングされた復号画像を出力する。ここで、上記の低域フィルタ処理では、例えば、対象ブロックCの画素C71と隣接ブロックDの画素D01とのブロック境界においては、図14(B)に示すように、対象ブロックCの画素C71とそれに上方向に隣接する2画素C61及びC51と、隣接ブロックDの画素D01とそれに下方向に隣接する画素D11の計5画素の値の平均値を求め、図14(C)に示すように、その平均値を対象ブロックCの画素C71の値C71’とする。   Subsequently, the decoding device described above compares the obtained inter-pixel difference absolute value at the boundary of the block and a predetermined threshold value TH, and when all the difference absolute values are less than the threshold value TH, A low-pass filter process is performed to average the boundary determined that the block distortion is severe, and a filtered decoded image is output from the output terminal 1211. Here, in the low-pass filter processing described above, for example, at the block boundary between the pixel C71 of the target block C and the pixel D01 of the adjacent block D, as shown in FIG. Then, an average value of the values of a total of five pixels of the two pixels C61 and C51 adjacent in the upward direction, the pixel D01 of the adjacent block D and the pixel D11 adjacent in the downward direction is obtained, and as shown in FIG. The average value is set as a value C71 ′ of the pixel C71 of the target block C.

更に、動き補償予測による予測画像のブロック間不連続性を考慮したブロック歪低減フィルタとして、動き補償予測のブロック間の連続性を評価しフィルタ処理の強度を変化させることで、不必要なフィルタ処理を施さないような動作をさせる技術も開示されている(例えば、特許文献2参照)。この特許文献2に記載されたような処理は、MPEG4 AVC規格においては、符号化処理内で施すことが可能となるように定義されている。   Furthermore, as a block distortion reduction filter considering discontinuity between blocks in the predicted image by motion compensation prediction, unnecessary filter processing is performed by evaluating the continuity between blocks in motion compensation prediction and changing the strength of the filter processing. There is also disclosed a technique for performing an operation that does not apply (see, for example, Patent Document 2). In the MPEG4 AVC standard, the process as described in Patent Document 2 is defined so that it can be performed within the encoding process.

特開平10−51775号公報Japanese Patent Laid-Open No. 10-51775 特許第3688283号公報Japanese Patent No. 3688283

しかしながら、前述した特許文献1記載の復号化装置においては、DCT成分が量子化された際に生じるブロック境界の歪をブロック間の境界付近の画素に対する画像信号の平滑化を行うことで、不連続な状態を緩和することを試みているものの、歪成分の評価を復号画像の差分を基に判断しており、平滑化の強弱によってブロック間の不連続性を十分緩和することができない場合がある。   However, in the decoding device described in Patent Document 1 described above, the distortion of the block boundary that occurs when the DCT component is quantized is performed by smoothing the image signal for pixels near the boundary between the blocks, thereby discontinuous. Although we are trying to alleviate the state, the distortion component evaluation is judged based on the difference between the decoded images, and the discontinuity between blocks may not be alleviated sufficiently due to the strength of smoothing. .

例えば、平滑化の強度が必要とする強度よりも弱い場合には、ブロック間の不連続性が十分改善することができずに依然としてブロック歪として影響が残る。また、平滑化の強度が必要とする強度よりも強い場合には、ブロック境界部分の不連続性は改善されるものの、ブロック境界部分のテクスチャ情報に対しても平滑化をかけすぎてしまうため、復号画像の解像度の低下が生じて必要なテクスチャ情報を消失する。   For example, when the smoothing strength is lower than the required strength, the discontinuity between blocks cannot be improved sufficiently, and the influence still remains as block distortion. In addition, when the smoothing strength is higher than the required strength, discontinuity of the block boundary portion is improved, but the texture information of the block boundary portion is too smoothed. Degradation of the resolution of the decoded image occurs and necessary texture information is lost.

また、特許文献2記載の復号化装置においては、動き補償予測に用いられた動き量や使用した参照画像の同一性を基に予測画像の連続性を判断して、平滑化の強度を変化させている。このため、予測誤差が発生しない場合の復号画像への不必要な平滑化は避けられるものの、予測誤差が生じている場合に誤差のDCT成分が量子化されることにより生じるブロック歪には対応できておらず、歪成分の評価を特許文献1記載の復号化装置と同様に復号画像の視覚的検知から判断しており、本来画像信号に存在していた成分を復元する形の歪除去は施されていない。   In the decoding device described in Patent Document 2, the continuity of the predicted image is determined based on the amount of motion used in motion compensation prediction and the identity of the reference image used, and the smoothing strength is changed. ing. For this reason, unnecessary smoothing of the decoded image when no prediction error occurs can be avoided, but it can cope with block distortion caused by quantization of the DCT component of the error when the prediction error occurs. However, the evaluation of the distortion component is judged from the visual detection of the decoded image in the same manner as the decoding device described in Patent Document 1, and the distortion removal that restores the component originally present in the image signal is performed. It has not been.

以上のことから動き補償予測処理を用いた動画像符号化及び復号化においては、高い圧縮率で品質の良い復号画像を得るために、歪成分の評価を復号画像の視覚的検知からの判断からだけでなく、本来画像信号に存在していた成分を復元する形の歪除去を実現し、従来手法で行われていたブロック境界の歪成分を目立たなくする処理による解像度劣化の弊害を無くすと共に、十分に対応できていないモスキート歪や動き補償ミスマッチに起因する歪成分を除去する方法が必要となっている。   From the above, in video encoding and decoding using motion compensation prediction processing, in order to obtain a high-quality decoded image with a high compression rate, distortion component evaluation is based on judgment from visual detection of the decoded image. In addition to realizing distortion removal in a form that restores the components that originally existed in the image signal, eliminating the detrimental effect of resolution degradation due to processing that makes the block boundary distortion components inconspicuous done with the conventional method, There is a need for a method for removing distortion components caused by mosquito distortion and motion compensation mismatch that are not adequately addressed.

本発明は以上の点に鑑みなされたもので、復号画像信号に平滑化処理を行うことなく、動き補償予測符号化を用いた場合の予測誤差成分に起因する符号化歪を低減すると共に、消失した高解像度成分や動き補償ミスマッチ成分を復元し、劣化の少ない復号画像を得ることを可能とする、動画像符号化装置、動画像復号化装置、動画像符号化プログラム、及び動画像復号化プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and reduces coding distortion caused by a prediction error component in the case of using motion compensation prediction coding without performing smoothing processing on a decoded image signal, and eliminates it. Moving image encoding apparatus, moving image decoding apparatus, moving image encoding program, and moving image decoding program, which can restore a high-resolution component and a motion compensation mismatch component and obtain a decoded image with little deterioration The purpose is to provide.

上記の目的を達成するため、第1の発明は、入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化を行う動画像符号化装置において、動き補償予測信号と、直交変換処理及び量子化処理が施された結果生成される量子化データを逆量子化することで生成される復号直交変換係数とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、直交変換係数推定手段より出力された推定直交変換係数と、復号直交変換係数と、量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に復号直交変換係数を推定直交変換係数に置き換えるか否かの判断を行って補正直交変換係数を生成する係数補正手段と、係数補正手段より出力される補正直交変換係数に逆直交変換処理を施して得た信号を動き補償予測信号と加算することで補正復号画像信号を生成する補正画像信号生成手段とを有し、補正復号画像信号を、続いて符号化対象となる動画像信号の参照画像として用いることを特徴とする。   In order to achieve the above object, according to a first aspect of the present invention, an input moving image signal to be encoded is divided into rectangular areas each having a predetermined number of pixels, and the rectangular area is processed in the past as a processing unit. The motion compensation prediction process is performed using the decoded image signal of the obtained image as a reference image, and the difference signal between the encoding target image that is the encoding target moving image signal and the motion compensation prediction signal is defined separately from the rectangular area. In a moving image encoding apparatus that performs encoding by sequentially performing orthogonal transform processing and quantization processing on a rectangular region as a processing unit, a motion compensated prediction signal and a result of performing orthogonal transform processing and quantization processing are generated. Orthogonal transform coefficient estimation that receives as input the decoded orthogonal transform coefficient generated by dequantizing the quantized data, and estimates the orthogonal transform coefficient lost as a result of quantization and outputs the estimated orthogonal transform coefficient means , Receiving as input the estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation means, the decoded orthogonal transform coefficient, and the quantized value for each coefficient indicating the fineness of the quantization when the quantization processing is performed, The region information that can be taken by the orthogonal transform coefficient before quantization is calculated from the quantized value, and based on the region information, it is determined whether to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient. Coefficient correction means for generating, and correction image signal generation for generating a corrected decoded image signal by adding a signal obtained by performing an inverse orthogonal transform process to the corrected orthogonal transform coefficient output from the coefficient correction means and a motion compensated prediction signal And the corrected decoded image signal is used as a reference image of a moving image signal to be encoded subsequently.

また、上記の目的を達成するため、第2の発明は、入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する、動画像復号化装置において、ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、エントロピー復号手段からの動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、エントロピー復号手段より出力された量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、直交変換係数推定手段より出力された推定直交変換係数と、復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に復号直交変換係数を推定直交変換係数に置き換えるか判断を行って補正直交変換係数を生成する係数補正手段と、係数補正手段より出力される補正直交変換係数に逆直交変換処理を行って得た信号に動き補償予測信号を加算することで補正復号画像信号を生成する補正復号画像信号生成手段とを有し、補正復号画像信号を、続いて符号化対象となる動画像信号の参照画像として用いることを特徴とする。   In order to achieve the above object, the second invention divides an input moving image signal to be encoded into rectangular areas each having a predetermined number of pixels, and encodes the past using the rectangular area as a processing unit. The motion compensation prediction process is performed using the decoded image signal of the converted image as a reference image, and the difference signal between the encoding target image that is the encoding target moving image signal and the motion compensation prediction signal is separated from the rectangular area. In a moving picture decoding apparatus that decodes a bit stream of a moving picture signal that has been encoded by sequentially performing orthogonal transform processing and quantization processing using a defined rectangular area as a processing unit, the quantized orthogonality from the bit stream Based on the entropy decoding means for decoding the transform coefficient and the motion vector, and based on the motion vector from the entropy decoding means, the past decoded image signal is cut out as a reference signal and motion compensation prediction is performed. A motion compensation means for generating a signal, a decoded orthogonal transform coefficient generated by dequantizing the quantized orthogonal transform coefficient output from the entropy decoding means, and a motion compensated prediction signal as inputs; The orthogonal transform coefficient estimation means for estimating the orthogonal transform coefficient lost as a result of the conversion and outputting the estimated orthogonal transform coefficient, the estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation means, the decoded orthogonal transform coefficient, and the quantization It receives as input the quantized value for each coefficient indicating the fineness of quantization when processing is performed, calculates area information that can be taken by the orthogonal transform coefficient before quantization from the quantized value, and calculates the area information Based on whether or not to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient to generate a corrected orthogonal transform coefficient, and inverse orthogonal transform processing to the corrected orthogonal transform coefficient output from the coefficient correction means And a corrected decoded image signal generating means for generating a corrected decoded image signal by adding a motion compensated prediction signal to the signal obtained by performing the correction, and the corrected decoded image signal is subsequently converted into a moving image signal to be encoded. It is used as a reference image.

また、上記の目的を達成するため、第3の発明は、第2の発明と同様の動画像復号化装置において、ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、エントロピー復号手段からの動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、エントロピー復号手段より出力された量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、直交変換係数推定手段より出力された推定直交変換係数と、復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に復号直交変換係数を推定直交変換係数に置き換えるか判断を行い、置き換える係数と直交変換係数との差分情報である補正差分直交変換係数を出力する係数補正差分生成手段と、係数補正差分生成手段より出力される補正差分直交変換係数に対し、逆直交変換処理を施すことで補正差分信号に変換する逆直交変換手段と、復号直交変換係数を逆直交変換して得た信号と動き補償予測信号とを用いて復号した復号画像信号を参照画像として格納した後に、出力画像として出力する復号画像信号に対してのみ前記補正差分信号を加算して、再生画像に対して補正された復号画像信号を出力する画像信号復号手段とを有することを特徴とする。   In order to achieve the above object, the third invention provides an entropy decoding means for decoding orthogonal transform coefficients and motion vectors quantized from a bitstream in the same video decoding apparatus as the second invention. Based on the motion vector from the entropy decoding means, a motion compensation means for extracting a past decoded image signal as a reference signal to generate a motion compensated prediction signal, and an inverse of the quantized orthogonal transform coefficient output from the entropy decoding means Orthogonal transform coefficient estimation that receives the decoded orthogonal transform coefficient generated by quantization and the motion compensated prediction signal as input, estimates the orthogonal transform coefficient lost as a result of quantization, and outputs the estimated orthogonal transform coefficient , The estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation means, the decoded orthogonal transform coefficient, and the quantization details when the quantization process is performed The region information that can be taken by the orthogonal transform coefficient before quantization is calculated from the quantized value, and the decoded orthogonal transform coefficient is converted into the estimated orthogonal transform coefficient based on the region information. For the correction difference orthogonal transform coefficient output from the coefficient correction difference generation means that outputs the correction difference orthogonal transform coefficient that is the difference information between the replacement coefficient and the orthogonal transform coefficient Inverse orthogonal transform means for transforming into a corrected differential signal by performing inverse orthogonal transform processing, and a decoded image signal decoded using a signal obtained by inverse orthogonal transform of a decoded orthogonal transform coefficient and a motion compensated prediction signal, as a reference image And then adding the corrected difference signal only to a decoded image signal output as an output image and outputting a decoded image signal corrected for the reproduced image. Characterized in that it has and.

また、上記の目的を達成するため、第4の発明は、入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して行う符号化をコンピュータにより実行させる動画像符号化プログラムにおいて、上記コンピュータを、第1の発明の構成である直交変換係数推定手段と、係数補正手段と、補正画像信号生成手段として機能させ、補正復号画像信号を続いて符号化対象となる動画像信号の参照画像として用いることを特徴とする。   In order to achieve the above object, according to a fourth aspect of the present invention, an input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and encoding is performed in the past using the rectangular region as a processing unit. The motion compensation prediction process is performed using the decoded image signal of the converted image as a reference image, and the difference signal between the encoding target image that is the encoding target moving image signal and the motion compensation prediction signal is separated from the rectangular area. In a moving image encoding program for causing a computer to execute encoding by sequentially performing orthogonal transform processing and quantization processing using a defined rectangular area as a processing unit, the computer is connected to the orthogonal transform according to the configuration of the first invention. It functions as a coefficient estimation unit, a coefficient correction unit, and a corrected image signal generation unit, and uses the corrected decoded image signal as a reference image of a moving image signal to be encoded subsequently. To.

また、上記の目的を達成するため、第5の発明は、入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する、動画像復号化をコンピュータにより実行させる動画像復号化プログラムにおいて、上記コンピュータを、第2の発明のエントロピー復号手段と、動き補償手段と、復号直交変換係数と、直交変換係数推定手段と、係数補正手段と、補正復号画像信号生成手段として機能させ、補正復号画像信号を、続いて符号化対象となる動画像信号の参照画像として用いることを特徴とする。   In order to achieve the above object, according to a fifth aspect of the present invention, an input moving image signal to be encoded is divided into rectangular areas each having a predetermined number of pixels, and encoding is performed in the past using the rectangular area as a processing unit. The motion compensation prediction process is performed using the decoded image signal of the converted image as a reference image, and the difference signal between the encoding target image that is the encoding target moving image signal and the motion compensation prediction signal is separated from the rectangular area. In a moving picture decoding program for decoding a bit stream of a moving picture signal encoded by sequentially performing orthogonal transform processing and quantization processing on a defined rectangular area as a processing unit, and causing a computer to execute moving picture decoding The computer includes the entropy decoding means, the motion compensation means, the decoded orthogonal transform coefficient, the orthogonal transform coefficient estimation means, the coefficient correction means, the corrected decoded image signal of the second invention. To function as a generator, the correction decoded image signal, subsequently characterized by using as a reference image of the moving image signal to be encoded.

また、上記の目的を達成するため、第6の発明は、第3の発明と同様の動画像復号化をコンピュータにより実行させる動画像復号化プログラムにおいて、上記コンピュータを、第3の発明のエントロピー復号手段と、動き補償手段と、直交変換係数推定手段と、係数補正差分生成手段と、逆直交変換手段と、画像信号復号手段として機能させることを特徴とする。   In order to achieve the above object, according to a sixth aspect of the present invention, there is provided a moving picture decoding program for causing a computer to execute the same moving picture decoding as in the third aspect of the invention. Means, motion compensation means, orthogonal transform coefficient estimation means, coefficient correction difference generation means, inverse orthogonal transform means, and image signal decoding means.

本発明によれば、動き補償予測処理が施された予測誤差信号が直交変換処理及び量子化処理によって生じる劣化成分を、量子化された予測誤差直交変換信号の切り捨てられた成分を推定する事により、劣化成分を補正することができる。その結果、復号画像信号に単純に平滑化処理を行い視覚的に目立たなくする方式でなく、ブロック間の不連続な状態に起因するブロック歪を解消すると共に、消失した高解像度成分や動き補償ミスマッチ成分を復元し、劣化の少ない復号画像を得ることができる。   According to the present invention, the prediction error signal subjected to the motion compensation prediction process is estimated to be the degradation component generated by the orthogonal transform process and the quantization process, and the truncated component of the quantized prediction error orthogonal transform signal is estimated. The deterioration component can be corrected. As a result, it is not a method that simply smoothes the decoded image signal to make it visually inconspicuous, but also eliminates block distortion caused by discontinuous states between blocks, as well as lost high-resolution components and motion compensation mismatches. It is possible to restore the components and obtain a decoded image with little deterioration.

また、本発明によれば、復号直交変換係数を推定する際に、ブロック内の信号の振る舞いを規定する2次関数等の所定のソースモデルで表現し、ブロック内の信号をブロックの境界条件に基づいて推定信号を生成する技術を用いる事で、ブロック間の歪成分が除去された形でブロック全体が保持している信号特性を推定できるため、領域情報により置き換え選択される有意な推定信号を生成でき、より補正処理を適切に機能できる。これにより、本発明によれば、従来よりも圧縮率を高めても劣化の少ない動画像符号化装置および動画像符号化プログラムを提供することができる。   Further, according to the present invention, when estimating the decoding orthogonal transform coefficient, it is expressed by a predetermined source model such as a quadratic function that defines the behavior of the signal in the block, and the signal in the block is used as the boundary condition of the block. By using the technology to generate the estimated signal based on the signal characteristics that the entire block holds with the distortion component between the blocks removed, the significant estimated signal that is selected and replaced by the region information can be Can be generated and the correction process can function more appropriately. As a result, according to the present invention, it is possible to provide a moving picture coding apparatus and a moving picture coding program that are less deteriorated even when the compression rate is increased than before.

更に、本発明によれば、従来よりも圧縮率が高められて伝送された情報を少ない劣化で再生できる、動画像復号化装置および動画像復号化プログラムを提供することができる。   Furthermore, according to the present invention, it is possible to provide a moving picture decoding apparatus and a moving picture decoding program capable of reproducing transmitted information with a higher compression rate than before with less deterioration.

次に、発明を実施するための最良の形態について図面を併せ参照して説明する。   Next, the best mode for carrying out the invention will be described with reference to the drawings.

(第1の実施の形態)
まず、本発明の動画像符号化装置、動画像復号化装置の第1の実施の形態について説明する。図1は、本発明になる動画像符号化装置の第1の実施の形態のブロック図を示す。
(First embodiment)
First, a first embodiment of the video encoding device and video decoding device of the present invention will be described. FIG. 1 shows a block diagram of a first embodiment of a video encoding apparatus according to the present invention.

図1に示すように、本実施の形態の符号化装置は、入力端子100、入力画像メモリ101、2次元ブロック変換器102、減算器103、直交変換器104、量子化器105、エントロピー符号化器106、符号化テーブル107、ストリームバッファ108、出力端子109、逆量子化器110、逆直交変換器111、加算器112、2次元ブロック逆変換器113、参照画像メモリ114、ME(動き推定)器115、MC(動き補償)器116、符号量制御器117、直交変換係数推定器118、係数補正器119、及び画像バッファ120から構成される。入力端子100から符号量制御器117に関しては、従来技術である図12の入力端子1200から符号量制御器1217と同じ構成を用いる。本実施の形態は、加えて直交変換係数推定器118、係数補正器119を設けた点に特徴がある。   As shown in FIG. 1, the encoding apparatus according to the present embodiment includes an input terminal 100, an input image memory 101, a two-dimensional block transformer 102, a subtractor 103, an orthogonal transformer 104, a quantizer 105, and entropy coding. 106, coding table 107, stream buffer 108, output terminal 109, inverse quantizer 110, inverse orthogonal transformer 111, adder 112, two-dimensional block inverse transformer 113, reference image memory 114, ME (motion estimation) 115, MC (motion compensation) unit 116, code amount controller 117, orthogonal transform coefficient estimator 118, coefficient corrector 119, and image buffer 120. Regarding the code amount controller 117 from the input terminal 100, the same configuration as the code amount controller 1217 from the input terminal 1200 of FIG. The present embodiment is characterized in that an orthogonal transform coefficient estimator 118 and a coefficient corrector 119 are additionally provided.

次に、本実施の形態の動画像符号化装置の動作について説明する。図1において、入力端子100より入力された符号化対象の動画像信号であるデジタル画像信号は、入力画像メモリ101に供給されて記憶され2次元ブロック変換器102にてマクロブロックデータが切り出される。マクロブロックデータは減算器103を介して直交変換器104に供給され、水平方向8画素、垂直方向8画素の2次元ブロック単位で直交変換の一種であるDCTが行われてDCT係数が出力される。DCT係数は更に輝度信号で水平方向16画素、垂直方向16画素のマクロブロック単位にまとめられて、量子化器105に送られる。   Next, the operation of the moving picture coding apparatus according to the present embodiment will be described. In FIG. 1, a digital image signal that is a moving image signal to be encoded input from an input terminal 100 is supplied to and stored in an input image memory 101, and macroblock data is cut out by a two-dimensional block converter 102. The macroblock data is supplied to the orthogonal transformer 104 via the subtractor 103, and DCT, which is a kind of orthogonal transformation, is performed on a two-dimensional block unit of 8 pixels in the horizontal direction and 8 pixels in the vertical direction to output DCT coefficients. . The DCT coefficients are further collected as a luminance signal in units of macroblocks of 16 pixels in the horizontal direction and 16 pixels in the vertical direction, and sent to the quantizer 105.

量子化器105はDCT係数に量子化処理を施す。エントロピー符号化器106は、量子化器105から出力された量子化されたDCT係数に対して、符号化テーブル107を参照して、可変長または固定長の符号化を行ってビットストリームを生成する。エントロピー符号化器106から出力されたビットストリームは、ストリームバッファ108を介して出力端子109より出力される。   The quantizer 105 performs a quantization process on the DCT coefficient. The entropy encoder 106 refers to the encoding table 107 for the quantized DCT coefficient output from the quantizer 105 and performs variable length or fixed length encoding to generate a bitstream. . The bit stream output from the entropy encoder 106 is output from the output terminal 109 via the stream buffer 108.

一方、量子化器105において量子化されたDCT係数は、また、逆量子化器110において逆量子化処理が行われDCT係数が復号される。復号されたDCT係数は、直交変換係数推定器118及び係数補正器119に入力される、直交変換係数推定器118は、復号されたDCT係数から、量子化されたDCT係数が失われた係数成分を推定し、その推定されたDCT係数を出力する。係数補正器119は、直交変換係数推定器118から出力される推定されたDCT係数と、逆量子化器110から出力される復号されたDCT係数とより、入力画像信号の持っていたDCT係数が量子化で失われた成分を判断し係数に補正を加える。詳細動作は後述する。   On the other hand, the DCT coefficient quantized in the quantizer 105 is also subjected to inverse quantization processing in the inverse quantizer 110, and the DCT coefficient is decoded. The decoded DCT coefficient is input to the orthogonal transform coefficient estimator 118 and the coefficient corrector 119. The orthogonal transform coefficient estimator 118 is a coefficient component in which the quantized DCT coefficient is lost from the decoded DCT coefficient. And the estimated DCT coefficients are output. The coefficient corrector 119 uses the estimated DCT coefficient output from the orthogonal transform coefficient estimator 118 and the decoded DCT coefficient output from the inverse quantizer 110 to determine the DCT coefficient possessed by the input image signal. The component lost by quantization is judged and the coefficient is corrected. Detailed operation will be described later.

係数補正器119から出力された補正DCT係数は、逆直交変換器111により逆DCT処理が行われ、復号された画像信号として加算器112及び2次元ブロック逆変換器113を介して、参照画像メモリ114に供給されて参照画像として格納される。基準フレームおいては、加算器112に入力される予測ブロックはMC器116より生成されないため、画像バッファ120は機能しない。参照画像メモリ114に格納された復号画像信号は、予測フレームの符号化処理時に参照画像として使用される。   The corrected DCT coefficient output from the coefficient corrector 119 is subjected to inverse DCT processing by the inverse orthogonal transformer 111, and the decoded image signal is added to the reference image memory via the adder 112 and the two-dimensional block inverse transformer 113. 114 and stored as a reference image. In the reference frame, since the prediction block input to the adder 112 is not generated by the MC unit 116, the image buffer 120 does not function. The decoded image signal stored in the reference image memory 114 is used as a reference image during the prediction frame encoding process.

続いて、予測フレームにおいては、ME(動き推定)器115は、入力画像メモリ101から切り出されたマクロブロックデータと参照画像メモリ114に格納されている画像との間で動きベクトルを求める。MC(動き補償)器116は、ME器115で求められた動きベクトルに基づいて、参照画像メモリ114内の参照画像から予測ブロックを切り出す。更に、MC器116では、複数切り出した予測ブロックの中から最適な予測モードの選択を行い、選択した予測ブロックを減算器103、画像バッファ120及び直交変換係数推定器118にそれぞれ供給する。   Subsequently, in the prediction frame, the ME (motion estimator) 115 obtains a motion vector between the macroblock data cut out from the input image memory 101 and the image stored in the reference image memory 114. The MC (motion compensation) unit 116 extracts a prediction block from the reference image in the reference image memory 114 based on the motion vector obtained by the ME unit 115. Further, the MC unit 116 selects an optimal prediction mode from a plurality of prediction blocks cut out, and supplies the selected prediction block to the subtractor 103, the image buffer 120, and the orthogonal transform coefficient estimator 118, respectively.

減算器103は、入力画像ブロックと予測ブロックとの差分信号を直交変換器104に送り出す。直交変換器104は、上記の差分信号に対して、前記基準フレームの各ブロックと同様のDCT処理を行い、これにより得た予測差分DCT係数を量子化器105により量子化処理させる。エントロピー符号化器106は、MC器116から出力される動きベクトルや予測モードを、量子化器105から出力される符号化処理されたDCT係数と共に、所定の構文構造に基づいて符号化し出力することで、符号化ビットストリームを生成する。生成された符号化ビットストリームは、ストリームバッファ108を介して出力端子109に出力される。   The subtracter 103 sends the difference signal between the input image block and the prediction block to the orthogonal transformer 104. The orthogonal transformer 104 performs DCT processing similar to that of each block of the reference frame on the difference signal, and causes the quantizer 105 to quantize the prediction difference DCT coefficient obtained thereby. The entropy encoder 106 encodes and outputs the motion vector and prediction mode output from the MC unit 116 together with the encoded DCT coefficient output from the quantizer 105 based on a predetermined syntax structure. Thus, an encoded bit stream is generated. The generated encoded bit stream is output to the output terminal 109 via the stream buffer 108.

一方、量子化器105において量子化された予測差分DCT係数は、逆量子化器110において逆量子化処理が行われ予測差分DCT係数が復号される。復号された予測差分DCT係数は、直交変換係数推定器118及び係数補正器119に入力される、直交変換係数推定器118は、逆量子化器110から供給される復号された予測差分DCT係数と共に、MC器116より予測ブロックを受け取り、量子化された差分DCT係数が失われた係数成分を推定し、推定された差分DCT係数を出力する。係数補正器119は、直交変換係数推定器118で推定された差分DCT係数と、逆量子化器110で復号された差分DCT係数より、動き補償予測差分信号の持っていたDCT係数が量子化で失われた成分を判断し係数に補正を加える。この処理の詳細も後述する。   On the other hand, the prediction difference DCT coefficient quantized by the quantizer 105 is subjected to inverse quantization processing by the inverse quantizer 110, and the prediction difference DCT coefficient is decoded. The decoded prediction difference DCT coefficient is input to the orthogonal transform coefficient estimator 118 and the coefficient corrector 119. The orthogonal transform coefficient estimator 118 is supplied together with the decoded prediction difference DCT coefficient supplied from the inverse quantizer 110. The prediction block is received from the MC unit 116, the coefficient component in which the quantized differential DCT coefficient is lost is estimated, and the estimated differential DCT coefficient is output. The coefficient corrector 119 quantizes the DCT coefficient held by the motion compensated prediction difference signal from the difference DCT coefficient estimated by the orthogonal transform coefficient estimator 118 and the difference DCT coefficient decoded by the inverse quantizer 110. The lost component is judged and the coefficient is corrected. Details of this processing will also be described later.

係数補正器119より出力された補正差分DCT係数は、逆直交変換器111により逆DCT処理が行われ、復号された予測差分信号とされる。画像バッファ120は、直交変換係数推定器118において、係数推定処理のために要する遅延を吸収するためのバッファであり、MC器116から出力された予測ブロック信号を固定時間遅延させ、加算器112に出力する。画像バッファ120の大きさは直交変換係数推定器118が要する遅延に依存し、遅延を生じない推定処理を行う場合には画像バッファ120を削除することが可能である。加算器112は、逆直交変換器111により得られた復号された予測差分信号と、画像バッファ120により遅延された予測ブロックとを加算し、復号画像信号を生成して出力する。   The corrected differential DCT coefficient output from the coefficient corrector 119 is subjected to inverse DCT processing by the inverse orthogonal transformer 111, and becomes a decoded predicted difference signal. The image buffer 120 is a buffer for absorbing the delay required for the coefficient estimation processing in the orthogonal transform coefficient estimator 118. The image buffer 120 delays the prediction block signal output from the MC unit 116 for a fixed time, and sends it to the adder 112. Output. The size of the image buffer 120 depends on the delay required by the orthogonal transform coefficient estimator 118, and the image buffer 120 can be deleted when performing an estimation process that does not cause a delay. The adder 112 adds the decoded prediction difference signal obtained by the inverse orthogonal transformer 111 and the prediction block delayed by the image buffer 120 to generate and output a decoded image signal.

加算器112から出力された復号画像信号は、参照を受ける画像の場合には、2次元ブロック逆変換器113を介して参照画像メモリ114に供給されて参照画像として格納される。参照画像メモリ114に格納された参照画像が、続く予測フレームの符号化処理時に使用される。非参照となる予測フレームの場合には、逆量子化器110以降の復号画像信号生成処理は機能しなくてもよい。   In the case of an image that receives a reference, the decoded image signal output from the adder 112 is supplied to the reference image memory 114 via the two-dimensional block inverse transformer 113 and stored as a reference image. The reference image stored in the reference image memory 114 is used at the time of encoding processing of the subsequent prediction frame. In the case of a non-referenced prediction frame, the decoded image signal generation process after the inverse quantizer 110 may not function.

次に、直交変換係数推定器118について更に詳細に説明する。図2は、直交変換係数推定器118の一実施の形態のブロック図を示す。同図において、直交変換係数推定器118には、MC器116より動き補償予測信号が、逆量子化器110より復号された予測差分DCT係数が入力される。動き補償予測信号は、直交変換器200において、水平方向8画素、垂直方向8画素の2次元ブロック単位で、直交変換(ここでは、直交変換の一種であるDCT)が行われて予測DCT係数とされて出力される。加算器201は、直交変換器200から出力された予測DCT係数と、逆量子化器110から出力された復号された予測差分DCT係数とを係数単位で加算することにより、復号DCT係数を生成する。この復号DCT係数は、復号画像信号に対して直交変換を施した結果と同等の成分になる。復号DCT係数は、係数バッファ202において水平方向分に相当するマクロブロック期間遅延される。本実施の形態では、水平方向分のマクロブロック係数を蓄積することにより、ターゲットとするDCTブロックの上下左右のDCTブロックに対する復号DCT係数を得る。   Next, the orthogonal transform coefficient estimator 118 will be described in more detail. FIG. 2 shows a block diagram of an embodiment of orthogonal transform coefficient estimator 118. In the figure, an orthogonal transform coefficient estimator 118 receives a motion compensated prediction signal from the MC unit 116 and a prediction difference DCT coefficient decoded from the inverse quantizer 110. The motion compensated prediction signal is subjected to orthogonal transform (DCT which is a kind of orthogonal transform in this case) in units of two-dimensional blocks of 8 pixels in the horizontal direction and 8 pixels in the vertical direction in the orthogonal transformer 200 and the predicted DCT coefficients. Is output. The adder 201 generates a decoded DCT coefficient by adding the predicted DCT coefficient output from the orthogonal transformer 200 and the decoded predicted difference DCT coefficient output from the inverse quantizer 110 in coefficient units. . The decoded DCT coefficient has a component equivalent to the result obtained by performing orthogonal transformation on the decoded image signal. The decoded DCT coefficients are delayed in the coefficient buffer 202 by a macroblock period corresponding to the horizontal direction. In this embodiment, by accumulating macroblock coefficients for the horizontal direction, decoded DCT coefficients for the DCT blocks on the top, bottom, left, and right of the target DCT block are obtained.

係数バッファ202からは、ターゲットとするDCTブロックとその上下左右のDCTブロックの復号DCT係数が、傾き相殺直交変換係数生成器203に入力される。傾き相殺直交変換係数生成器203においては、ターゲットとするブロックの画像信号と隣接するブロックの画像信号とのブロック境界を滑らかに接続するための、ブロック境界傾き相殺関数のDCT係数を生成する。   From the coefficient buffer 202, the target DCT block and the decoded DCT coefficients of the upper, lower, left, and right DCT blocks are input to the slope-cancellation orthogonal transform coefficient generator 203. The slope cancellation orthogonal transform coefficient generator 203 generates a DCT coefficient of a block boundary slope cancellation function for smoothly connecting the block boundaries between the image signal of the target block and the image signal of the adjacent block.

ブロック境界傾き相殺関数のDCT係数を生成する手法として、本実施の形態においては、ブロック境界の画像信号の傾きを境界条件としてポアソン方程式に適用することによってブロック内の予測信号を推定し、そのDCT係数を生成する多重調和局所余弦変換手法で用いられている推定技術を適用する。 続いて、この多重調和局所余弦変換手法の説明を行う。   As a technique for generating a DCT coefficient of a block boundary slope cancellation function, in this embodiment, a prediction signal in a block is estimated by applying the slope of an image signal at a block boundary to a Poisson equation as a boundary condition, and the DCT Apply the estimation technique used in the multiple harmonic local cosine transform method to generate the coefficients. Next, the multiple harmonic local cosine transform method will be described.

図3は、多重調和局所余弦変換手法の基本概念を示すための概念図である。多重調和局所余弦変換手法は、公知の文献(Improvement of DCT-based Compression Algorithms Using Poisson's Equation)等で述べられているように、JPEG(Joint Photographic Experts Group)などで用いられるDCTの符号化効率を改善するための手法である。図3は、原画像フレーム内のある特定のブロックにおいて、その中のある特定のラインに注目し、注目したラインの原信号と、ブロック境界上にあるその原信号の境界の状態が、この手法によってどのように推移するかを示している。   FIG. 3 is a conceptual diagram for illustrating the basic concept of the multiple harmonic local cosine transform method. The multiple harmonic local cosine transform method improves the coding efficiency of DCT used in JPEG (Joint Photographic Experts Group), etc. as described in well-known literature (Improvement of DCT-based Compression Algorithms Using Poisson's Equation) It is a technique to do. FIG. 3 shows a particular block in an original image frame in which attention is paid to a particular line in the block, and the state of the original signal on the noticed line and the boundary of the original signal on the block boundary is shown in FIG. Shows how it changes.

図3(a)に示す原信号301に対して、ブロック境界304、305に対応する原信号301の両端部分における画像信号の傾き302、303を求める。この両端部分の画像信号の傾き302、303を境界条件とする。多重調和局所余弦変換手法は、ブロック内の信号の振る舞いを規定する2次関数等の所定のソースモデルを規定し、ブロック内の信号をその所定のソースモデルにより表現し、所定のソースモデルにより表現したブロック内の信号をブロックの境界条件に基づいて推定信号を生成することを、DCT(離散余弦変換)係数から導出できるようにした手法である。   With respect to the original signal 301 shown in FIG. 3A, the inclinations 302 and 303 of the image signal at both ends of the original signal 301 corresponding to the block boundaries 304 and 305 are obtained. The slopes 302 and 303 of the image signals at both ends are used as boundary conditions. The multiharmonic local cosine transform method defines a predetermined source model such as a quadratic function that defines the behavior of a signal in a block, expresses a signal in the block by the predetermined source model, and expresses it by a predetermined source model. In this method, generation of an estimated signal based on the boundary condition of the block can be derived from DCT (discrete cosine transform) coefficients.

ここでは、図3(b)に示すような原信号301の両端部分の画像信号の傾きを境界条件として、推定信号306を生成する。所定のソースモデルは、境界条件の下で原信号に最も近い信号を推定することができるモデルを採用することが望ましい。一般に、図3のような1次元の信号の場合には所定のソースモデルとして2次関数を適用することで容易に求めることが可能であるが、ここでは特にこのモデルに限定されるものではなく、1次関数等の低次の関数や、3次関数、4次関数等のより高次な関数でもよい。このように本実施の形態では、所定のソースモデルを導入することで膨大な演算量を費やしてポアソン方程式を数値的に解くことなく、解析的にブロック内の推定信号を生成している。   Here, the estimation signal 306 is generated using the gradients of the image signals at both ends of the original signal 301 as shown in FIG. As the predetermined source model, it is desirable to adopt a model that can estimate a signal closest to the original signal under boundary conditions. In general, in the case of a one-dimensional signal as shown in FIG. 3, it can be easily obtained by applying a quadratic function as a predetermined source model, but here it is not particularly limited to this model. It may be a low-order function such as a linear function or a higher-order function such as a cubic function or a quartic function. As described above, in the present embodiment, by introducing a predetermined source model, an estimated signal in a block is generated analytically without spending a large amount of calculation and solving the Poisson equation numerically.

多重調和局所余弦変換手法においては、図3(b)のような境界条件に基づいた推定信号306を生成した後、原信号301と推定信号306との間で差分を求めることで、図3(c)に示すような残差信号307を生成する。このようにして求めた残差信号307に対して、通常の直交変換であるDCTや量子化及びエントロピー符号化を行うことで、通常のDCTによる符号化を行った場合よりも発生する符号量を抑制することが可能である。   In the multiharmonic local cosine transform method, after generating an estimated signal 306 based on the boundary condition as shown in FIG. 3B, a difference is obtained between the original signal 301 and the estimated signal 306, so that FIG. A residual signal 307 as shown in c) is generated. The residual signal 307 thus obtained is subjected to normal orthogonal transform DCT, quantization, and entropy encoding, thereby reducing the amount of code generated compared to the case of performing normal DCT encoding. It is possible to suppress.

本実施の形態においては、多重調和局所余弦変換手法におけるブロック内の推定処理を、復号画像信号に対して施すことにより、入力された原信号に近い信号を推定し、その推定信号から動き補償予測信号を減ずることにより、量子化処理によって切り捨てられた本来有していた予測差分DCT係数を復元させる処理に適用する。   In the present embodiment, estimation processing within a block in the multiple harmonic local cosine transform method is performed on the decoded image signal to estimate a signal close to the input original signal, and motion compensation prediction is performed from the estimated signal. By subtracting the signal, the present invention is applied to a process of restoring the originally predicted difference DCT coefficient that has been truncated by the quantization process.

続いて、傾き相殺直交変換係数生成器203における具体的な処理を説明する。まず、入力される動画像フレーム(本実施の形態では復号画像信号を示す)に対して、数1によって表現される図4に示される各ブロックとして動画像フレームの画像信号をとらえる。   Next, specific processing in the slope cancellation orthogonal transform coefficient generator 203 will be described. First, an image signal of a moving image frame is captured as each block shown in FIG. 4 expressed by Equation 1 with respect to an input moving image frame (in this embodiment, a decoded image signal is indicated).

Figure 0004784618
図4のΩ(0,0)が現在処理対象となっているブロックであるものとする。また、各ブロック内の各画素は、数2で表現される。
Figure 0004784618
Assume that Ω (0,0) in FIG. 4 is the block currently being processed. In addition, each pixel in each block is expressed by Equation 2.

Figure 0004784618
続いて、図4に示すブロックの境界部分Γ(1)、Γ(2)、Γ(3)、Γ(4)の境界条件である画像信号の傾きを周波数領域で議論することができるように、DCT級数で表現する。ここでは数3に示した境界条件のDCT級数展開の式を利用して画像信号の傾きをgとした場合に数3に示した式中のGのようなDCT係数で表現する。
Figure 0004784618
Subsequently, the inclination of the image signal, which is the boundary condition of the block boundary portions Γ (1) , Γ (2) , Γ (3) , Γ (4) shown in FIG. 4, can be discussed in the frequency domain. , Expressed as a DCT series. Here, when the gradient of the image signal is set to g using the DCT series expansion formula of the boundary condition shown in Formula 3, it is expressed by a DCT coefficient such as G k in the formula shown in Formula 3.

Figure 0004784618
また、ポアソン方程式の概念を導入してブロック内の原信号に対する推定信号を求める。ここで、ポアソン方程式は、処理対象ブロックQjにおいて、ブロック内の推定信号uのラプラシアンであるΔuがソース項Kとの間において、次式が成立する方程式である。
Figure 0004784618
In addition, the concept of the Poisson equation is introduced to obtain an estimated signal for the original signal in the block. Here, the Poisson equation is an equation in the processing target block Qj in which Δu j, which is a Laplacian of the estimation signal u in the block, and the source term K j hold the following equation.

Δu=K
ブロック内の推定信号uはノイマンの境界条件とDCT級数表記を用いることで、数5に示す式のように表現することができる。これは、数4で示すような各境界からの推定信号のDCT級数展開成分を足し合わせることで求められる。
Δu j = K j
The estimated signal u in the block can be expressed as shown in Equation 5 using Neumann boundary conditions and DCT series notation. This can be obtained by adding the DCT series expansion components of the estimated signal from each boundary as shown in Equation 4.

Figure 0004784618
Figure 0004784618

Figure 0004784618
このような推定信号uに対してDCTを行うことで、数7を伴う数6で示されるような推定信号Uを得る。
Figure 0004784618
By performing DCT on such an estimated signal u, an estimated signal U as shown in Expression 6 accompanied by Expression 7 is obtained.

Figure 0004784618
Figure 0004784618

Figure 0004784618
数7に示した式より、ηおよびη*はブロック内の位置情報のみに依存し、ブロック内の画像信号には依存しないことから、予め一意に計算して求めておくことができる。従って、推定信号Uを求めるためには、傾きのDCT係数情報Gkを求めることが重要となる。
Figure 0004784618
From the equation shown in Equation 7, since η and η * depend only on the position information in the block and do not depend on the image signal in the block, they can be uniquely calculated in advance. Therefore, in order to obtain the estimated signal U, it is important to obtain the slope DCT coefficient information G k .

ここで、Gkをブロック内の原信号に対してDCTを行った後のDCT係数情報を利用して求めることを可能にするため、境界条件であるブロック境界における画像信号の傾きを求める際に、数8の式で示されるようなブロック内の各方向における信号成分の平均値を代表値としてブロック間の傾きを算出し、この傾きをブロック境界での傾きとして近似することでgを求める。 Here, in order to make it possible to obtain G k by using DCT coefficient information after performing DCT on the original signal in the block, when obtaining the inclination of the image signal at the block boundary, which is a boundary condition. The slope between the blocks is calculated using the average value of the signal components in each direction in the block as represented by the equation (8) as a representative value, and g is obtained by approximating this slope as the slope at the block boundary.

Figure 0004784618
続いて、この近似されたgに対してDCTを行うことでGを求める。ここで、傾きのDCT係数情報Gを求める際に数8に示した式を考慮して数9に示した式変形を行うことで、Gを数9に示した式中のF、つまりブロック内のDCT係数情報を利用して求めることが可能となる。
Figure 0004784618
Subsequently, G is obtained by performing DCT on the approximated g. Here, when obtaining the DCT coefficient information G of the slope, the equation shown in Equation 9 is taken into consideration when the equation shown in Equation 8 is taken into consideration, so that G in the equation shown in Equation 9, that is, in the block It is possible to obtain using the DCT coefficient information.

Figure 0004784618
傾き相殺直交変換係数生成器203においては、係数バッファ202より入力されたDCT係数情報をFとして数9に示した式から傾きのDCT係数情報Gを求めることで、推定信号uのDCT係数Uを生成する処理が施される。
Figure 0004784618
In the inclination canceling orthogonal transform coefficient generator 203, the DCT coefficient information G inputted from the coefficient buffer 202 is set as F, and the DCT coefficient information G of the estimated signal u is obtained from the equation shown in Equation 9 to obtain the DCT coefficient U of the estimated signal u. Processing to generate is performed.

具体的には、図5に示されるように、ターゲットとなる対象復号DCTブロック501、及びその対象復号DCTブロック501の左、上、右、下にそれぞれ隣接する復号DCTブロック502、503、504、505に対する、2次元DCTにおけるDC項及び1次元DCTにおけるDC項の係数値を持ってGを計算し、ターゲットとなる対象復号DCTブロック501のDC項を除く推定信号DCT係数Uを算出する処理が施される。   Specifically, as shown in FIG. 5, the target decoding DCT block 501 as a target and the decoding DCT blocks 502, 503, 504 adjacent to the left, top, right, and bottom of the target decoding DCT block 501, respectively. A process of calculating G with the coefficient values of the DC term in the two-dimensional DCT and the DC term in the one-dimensional DCT and calculating the estimated signal DCT coefficient U excluding the DC term of the target decoding DCT block 501 to be the target 505. Applied.

ここで、図5において、c00は対象復号DCTブロック501の2次元DCTのDC項、水平方向に並ぶc01〜c07は復号DCTブロック501の垂直1次元DCTのDC項、垂直方向に並ぶc10〜c70は復号DCTブロック501の水平1次元DCTのDC項を示す。また、l00、u00、r00、d00は、隣接復号DCTブロック502、503、504、505の2次元DCTのDC項を示す。また、水平方向に並ぶl01〜l07、u01〜u07、r01〜r07、d01〜d07は、それぞれ隣接復号DCTブロック502、503、504、505の垂直1次元DCTのDC項、垂直方向に並ぶc10〜c70、u10〜u70、r10〜r70、d10〜d70は、それぞれ隣接復号DCTブロック502、503、504、505の水平1次元DCTのDC項である。   Here, in FIG. 5, c00 is the DC term of the two-dimensional DCT of the target decoding DCT block 501, and c01 to c07 arranged in the horizontal direction are DC terms of the vertical one-dimensional DCT of the decoding DCT block 501, and c10 to c70 are arranged in the vertical direction. Indicates the DC term of the horizontal one-dimensional DCT of the decoded DCT block 501. Further, l00, u00, r00, and d00 indicate DC terms of the two-dimensional DCT of adjacent decoding DCT blocks 502, 503, 504, and 505. Also, l01 to l07, u01 to u07, r01 to r07, and d01 to d07 arranged in the horizontal direction are respectively the DC terms of the vertical one-dimensional DCT of adjacent decoding DCT blocks 502, 503, 504, and 505, and c10 arranged in the vertical direction. c70, u10 to u70, r10 to r70, and d10 to d70 are DC terms of the horizontal one-dimensional DCT of adjacent decoding DCT blocks 502, 503, 504, and 505, respectively.

図2に戻って説明する。傾き相殺直交変換係数生成器203から出力された推定信号DCT係数は、係数バッファ204から出力された予測DCT係数と共に、減算器205に入力され、推定信号DCT係数から予測DCT係数が係数単位で減算され、推定予測差分DCT係数として係数補正器119に出力される。   Returning to FIG. The estimated signal DCT coefficient output from the slope cancellation orthogonal transform coefficient generator 203 is input to the subtractor 205 together with the predicted DCT coefficient output from the coefficient buffer 204, and the predicted DCT coefficient is subtracted from the estimated signal DCT coefficient in coefficient units. And output to the coefficient corrector 119 as the estimated prediction difference DCT coefficient.

傾き相殺直交変換係数生成器203には、基準フレームの画像信号の場合には、逆量子化器110より復号DCT係数が入力され、MC器116からは動き補償予測信号は入力されないため、加算器201、減算器205への動き補償予測DCT係数は入力されず、係数補正器119へは、推定DCT係数が出力される。   In the case of the image signal of the reference frame, since the decoded DCT coefficient is input from the inverse quantizer 110 and the motion compensated prediction signal is not input from the MC unit 116, the slope cancellation orthogonal transform coefficient generator 203 receives the adder. 201, the motion compensated prediction DCT coefficient is not input to the subtracter 205, and the estimated DCT coefficient is output to the coefficient corrector 119.

次に、係数補正器119の動作を説明する。係数補正器119には、基準フレームの場合には逆量子化器110より復号DCT係数が入力され、直交変換係数推定器118より推定DCT係数が入力される。動き補償予測が用いられた場合には、上記の復号DCT係数は復号予測差分DCT係数となり、上記の推定DCT係数は推定予測差分DCT係数となる。   Next, the operation of the coefficient corrector 119 will be described. In the case of the reference frame, the coefficient corrector 119 receives the decoded DCT coefficient from the inverse quantizer 110 and the estimated DCT coefficient from the orthogonal transform coefficient estimator 118. When motion compensated prediction is used, the decoded DCT coefficient is a decoded prediction difference DCT coefficient, and the estimated DCT coefficient is an estimated prediction difference DCT coefficient.

係数補正器119は、復号予測差分DCT係数を直交変換係数推定器118が推定予測差分DCT係数を算出するために必要な遅延を行い、ターゲットとなるDCTブロックの処理タイミングを一致させ、復号予測差分DCT係数と推定予測差分DCT係数とを係数毎に比較し、どちらのDCT係数を適用するかを選択する。   The coefficient corrector 119 performs a delay necessary for the orthogonal transform coefficient estimator 118 to calculate the estimated prediction difference DCT coefficient for the decoded prediction difference DCT coefficient, matches the processing timing of the target DCT block, and decodes the prediction difference The DCT coefficient and the estimated prediction difference DCT coefficient are compared for each coefficient, and which DCT coefficient is to be applied is selected.

係数補正器119における、DCTブロック単位での係数を選択するアルゴリズムを図6のフローチャートを参照して説明する。まず、係数補正器119は、ターゲットとなるDCTブロックに対する、復号DCT係数DecCと推定DCT係数EstCを得る(ステップS600)。   An algorithm for selecting a coefficient in units of DCT blocks in the coefficient corrector 119 will be described with reference to the flowchart of FIG. First, the coefficient corrector 119 obtains a decoded DCT coefficient DecC and an estimated DCT coefficient EstC for a target DCT block (step S600).

続いて、ターゲットとなるDCTブロックが量子化された際の量子化ステップQ及び量子化マトリクスMを得る(ステップS601)。次に、係数補正器119は、DCTブロックのそれぞれの係数項に関して、復号されたDCT係数が量子化される前に取りうる範囲を計算する。MPEG2符号化においては、動き補償予測を用いたDCTブロックに関しては、DCT係数は量子化時に切り捨て処理が行われ、動き補償予測が用いられず、画像信号そのものがDCT処理された場合には、四捨五入処理が行われる。よって、ターゲットのDCTブロックが動き補償予測を用いた予測差分ブロックであるかどうかを判断する(ステップS602)。   Subsequently, a quantization step Q and a quantization matrix M when the target DCT block is quantized are obtained (step S601). Next, the coefficient corrector 119 calculates a possible range for each coefficient term of the DCT block before the decoded DCT coefficient is quantized. In MPEG2 coding, for DCT blocks using motion compensated prediction, DCT coefficients are rounded off when quantized, motion compensated prediction is not used, and the image signal itself is DCT processed. Processing is performed. Therefore, it is determined whether the target DCT block is a prediction difference block using motion compensated prediction (step S602).

係数補正器119は、ターゲットのDCTブロックが予測差分DCTの場合には、復号予測差分DCTにおける水平x、垂直yの係数をDecC(x,y)、水平x、垂直yの項の量子化マトリクス値をM(x,y)とすると、量子化される前に取りうる係数の絶対値の範囲を、以下のように計算する(ステップS603)。   When the target DCT block is the prediction difference DCT, the coefficient corrector 119 converts the horizontal x and vertical y coefficients in the decoded prediction difference DCT into a quantization matrix of terms of DecC (x, y), horizontal x, and vertical y. If the value is M (x, y), the range of absolute values of coefficients that can be taken before quantization is calculated as follows (step S603).

最小値 EstCmin=abs(DecC(x,y))
最大値 EstCmax=abs(DecC(x,y))+Q*M(x,y)
一方、ターゲットのDCTブロックが予測差分DCTでない場合には、係数補正器119は、以下の計算を行う(ステップS604)。
Minimum value EstCmin = abs (DecC (x, y))
Maximum value EstCmax = abs (DecC (x, y)) + Q * M (x, y)
On the other hand, when the target DCT block is not the prediction difference DCT, the coefficient corrector 119 performs the following calculation (step S604).

最小値 EstCmin=0 : DecC(x,y)=0の時
abs(DecC(x,y))−Q*M(x,y)/2
: DecC(x,y)≠0の時
最大値 EstCmax=abs(DecC(x,y))+Q*M(x,y)/2
続いて、係数補正器119は、ステップS603又はS604で計算した最大値、最小値と推定DCT係数とを、以下の量子化される前に取りうる係数の範囲内であることを満たす条件を満足するか否か比較し(ステップS605)、その条件を満足する場合には、推定DCT係数EstC(x,y)を補正DCT係数CorC(x,y)として選択し(ステップS606)、その条件を満足しない場合には復号DCT係数DecC(x,y)を補正DCT係数CorC(x,y)として選択する(ステップS607)。
Minimum value EstCmin = 0: When DecC (x, y) = 0
abs (DecC (x, y))-Q * M (x, y) / 2
: When DecC (x, y) ≠ 0, the maximum value EstCmax = abs (DecC (x, y)) + Q * M (x, y) / 2
Subsequently, the coefficient corrector 119 satisfies a condition satisfying that the maximum value, the minimum value, and the estimated DCT coefficient calculated in step S603 or S604 are within the range of coefficients that can be taken before the following quantization. (Step S605), and if the condition is satisfied, the estimated DCT coefficient EstC (x, y) is selected as the corrected DCT coefficient CorC (x, y) (step S606). If not satisfied, the decoded DCT coefficient DecC (x, y) is selected as the corrected DCT coefficient CorC (x, y) (step S607).

ここで、上記の取りうる係数の範囲内であることを満たす条件は、以下(1)と(2)と(3)とをすべて同時に満たすことである。   Here, the condition that satisfies the above-described range of the coefficients that can be taken is that all of the following (1), (2), and (3) are simultaneously satisfied.

(1)推定DCT係数EstC(x,y)と復号DCT係数DecC(x,y)の極性が同一、もしくはDecC(x,y)=0
(2)EstCmin≦abs(EstC(x,y))<EstCmax
(3)DC項(x=0,y=0)でない
最後に、係数補正器119は、DCTブロックのDC項は復号DCTを選択し、その他すべての係数項に対して、ステップS606又はS607で得たDecC(x,y)とEstC(x,y)の選択された係数を、補正DCT係数CorC(x,y)として格納する(ステップS608)。係数補正器119は、上記のアルゴリズムに従いマクロブロック内のすべてのDCTブロックに対して補正DCT係数を求め、図1の逆直交変換器111に出力する。
(1) The polarity of the estimated DCT coefficient EstC (x, y) and the decoded DCT coefficient DecC (x, y) are the same, or DecC (x, y) = 0
(2) EstCmin ≦ abs (EstC (x, y)) <EstCmax
(3) Not DC term (x = 0, y = 0) Finally, the coefficient corrector 119 selects the decoded DCT as the DC term of the DCT block, and for all other coefficient terms, in step S606 or S607 The obtained coefficients of DecC (x, y) and EstC (x, y) are stored as corrected DCT coefficients CorC (x, y) (step S608). The coefficient corrector 119 calculates corrected DCT coefficients for all the DCT blocks in the macroblock according to the above algorithm, and outputs the corrected DCT coefficients to the inverse orthogonal transformer 111 in FIG.

本実施形態においては、予測残差成分のDCT領域にて量子化により切り捨てられた予測残差成分を推定して補正を行う仕組みを提供する。DCT領域でカットされた成分の範囲は、量子化スケールより推測できるため、推定されたDCT係数が適切な補正量の範囲にあるかどうかを復号されたDCT係数の各成分個別に判断を行う。DCT係数の推定処理に関しては、復号した画像の歪成分が除去された想定の信号を生成し、その信号が復号されるために出力されるべきDCT係数、及び予測差分DCT係数を算出することで実現する。   In the present embodiment, there is provided a mechanism for estimating and correcting a prediction residual component truncated by quantization in the DCT region of the prediction residual component. Since the range of the component cut in the DCT region can be estimated from the quantization scale, whether or not the estimated DCT coefficient is in an appropriate correction amount range is determined individually for each component of the decoded DCT coefficient. With regard to the DCT coefficient estimation process, an assumed signal from which the distortion component of the decoded image is removed is generated, and a DCT coefficient to be output for decoding the signal and a prediction difference DCT coefficient are calculated. Realize.

本実施の形態においては、ターゲットとするブロックの画像信号と隣接するブロックの画像信号とのブロック境界連続性より推定信号を特定する手法を用いたが、他の復号信号推定技術を用いることも可能である。本実施の形態では、推定された信号の正当性の判断を量子化処理が施された、DCT係数及び予測差分DCT係数の量子化誤差範囲に存在することを確認することで実現しており、そのため不必要な成分を変化させることなく、劣化成分を復元させることができる。   In the present embodiment, a method for specifying an estimation signal based on block boundary continuity between an image signal of a target block and an image signal of an adjacent block is used, but other decoded signal estimation techniques can also be used. It is. In this embodiment, the validity of the estimated signal is realized by confirming that it exists in the quantization error range of the DCT coefficient and the prediction difference DCT coefficient subjected to the quantization process, Therefore, the deteriorated component can be restored without changing unnecessary components.

次に、本発明になる動画像復号化装置について説明する。図7は、本発明になる動画像復号化装置の第1の実施の形態のブロック図を示す。同図に示すように、本実施の形態の復号化装置は、入力端子700、ストリームバッファ701、エントロピー復号器702、符号化テーブル703、逆量子化器704、逆直交変換器705、加算器706、2次元ブロック逆変換器707、参照画像メモリ708、MC(動き補償)器709、出力画像メモリ710、出力端子711、直交変換係数推定器712、係数補正器713、および画像バッファ714から構成される。   Next, the moving picture decoding apparatus according to the present invention will be described. FIG. 7 shows a block diagram of the first embodiment of the moving picture decoding apparatus according to the present invention. As shown in the figure, the decoding apparatus according to the present embodiment includes an input terminal 700, a stream buffer 701, an entropy decoder 702, a coding table 703, an inverse quantizer 704, an inverse orthogonal transformer 705, and an adder 706. It comprises a two-dimensional block inverse transformer 707, a reference image memory 708, an MC (motion compensation) unit 709, an output image memory 710, an output terminal 711, an orthogonal transform coefficient estimator 712, a coefficient corrector 713, and an image buffer 714. The

入力端子700から出力端子711までの各部に関しては、図13の従来の動画像復号化装置の入力端子1300から出力端子1311までと同じ構成を用いる。本実施の形態は、従来の動画像復号化装置の構成に加えて、直交変換係数推定器712と係数補正器713と画像バッファ714とを設けた点に特徴がある。   With respect to each part from the input terminal 700 to the output terminal 711, the same configuration as that from the input terminal 1300 to the output terminal 1311 of the conventional video decoding device in FIG. 13 is used. The present embodiment is characterized in that an orthogonal transform coefficient estimator 712, a coefficient corrector 713, and an image buffer 714 are provided in addition to the configuration of the conventional moving picture decoding apparatus.

入力端子700に入力された図1の動画像符号化装置又は後述する動画像符号化プログラムにより生成されたビットストリームは、ストリームバッファ701に蓄えられ、エントロピー復号器702に供給される。エントロピー復号器702では、符号化テーブル703を用いて可変長又は固定長の符号を復号し、量子化されたDCT係数と動きベクトルや予測モードを復元する。量子化されたDCT係数は、逆量子化器704により逆量子化処理が行われ、復号DCT係数が算出される。   The bit stream generated by the moving picture coding apparatus in FIG. 1 or the moving picture coding program described later input to the input terminal 700 is stored in the stream buffer 701 and supplied to the entropy decoder 702. The entropy decoder 702 decodes a variable-length or fixed-length code using the encoding table 703 and restores the quantized DCT coefficient, motion vector, and prediction mode. The quantized DCT coefficient is subjected to an inverse quantization process by an inverse quantizer 704, and a decoded DCT coefficient is calculated.

復号されたDCT係数は、直交変換係数推定器712及び係数補正器713に入力される。直交変換係数推定器712は、符号化時に量子化によってDCT係数が失われた係数成分を推定し、推定されたDCT係数を出力する。係数補正器713は、推定されたDCT係数と復号されたDCT係数より、符号化された画像信号の持っていたDCT係数が量子化で失われた成分を選択し、復号されたDCT係数に補正を加えて補正DCT係数を算出する。   The decoded DCT coefficient is input to an orthogonal transform coefficient estimator 712 and a coefficient corrector 713. The orthogonal transform coefficient estimator 712 estimates a coefficient component in which the DCT coefficient is lost due to quantization during encoding, and outputs the estimated DCT coefficient. The coefficient corrector 713 selects a component in which the DCT coefficient of the encoded image signal is lost from the estimated DCT coefficient and the decoded DCT coefficient, and corrects it to the decoded DCT coefficient. To calculate a corrected DCT coefficient.

係数補正器713より出力された補正DCT係数は、逆直交変換器705により逆DCT処理が行われ、復号された画像信号として加算器706及び2次元ブロック逆変換器707を介して、参照画像メモリ708に供給されて格納される。基準フレームおいては、加算器706に画像バッファ714を介して入力される予測ブロックは、MC器709により生成されないため、画像バッファ714は機能しない。   The corrected DCT coefficient output from the coefficient corrector 713 is subjected to inverse DCT processing by an inverse orthogonal transformer 705, and the decoded image signal is added to a reference image memory via an adder 706 and a two-dimensional block inverse transformer 707. 708 to be stored. In the reference frame, since the prediction block input to the adder 706 via the image buffer 714 is not generated by the MC unit 709, the image buffer 714 does not function.

参照画像メモリ708に格納された復号画像信号は、予測フレームの符号化処理時に使用される。また、復号画像信号は、出力画像メモリ710に蓄えられ出力時刻順に並べ替えられ、出力端子711より出力されることにより、符号化された動画像信号を再生することができる。   The decoded image signal stored in the reference image memory 708 is used when the prediction frame is encoded. Also, the decoded image signal is stored in the output image memory 710, rearranged in the order of output time, and output from the output terminal 711, whereby the encoded moving image signal can be reproduced.

予測フレームにおいては、予測ブロックがエントロピー復号器702から出力される動きベクトル及びモード信号をMC器709に入力し、参照画像メモリ708より参照画像を切り出すことにより生成される。生成された予測ブロックは、画像バッファ714及び直交変換係数推定器712に供給される。予測フレームにおいては、逆量子化器704からは復号された差分DCT係数が出力され、直交変換係数推定器712及び係数補正器713に送られる。   In the prediction frame, the prediction block is generated by inputting the motion vector and the mode signal output from the entropy decoder 702 to the MC unit 709 and cutting out the reference image from the reference image memory 708. The generated prediction block is supplied to the image buffer 714 and the orthogonal transform coefficient estimator 712. In the prediction frame, the decoded differential DCT coefficient is output from the inverse quantizer 704 and sent to the orthogonal transform coefficient estimator 712 and the coefficient corrector 713.

直交変換係数推定器712は、復号された差分DCT係数と共に、MC器709より予測ブロックを受け取り、量子化された差分DCT係数が失われた係数成分を推定し、推定された差分DCT係数を出力する。係数補正器713は、推定された差分DCT係数と復号された差分DCT係数より、動き補償予測差分信号の持っていたDCT係数が量子化によって失った成分を選択し、復号された差分DCT係数に補正を加えて補正差分DCT係数を算出する。   The orthogonal transform coefficient estimator 712 receives the prediction block from the MC unit 709 together with the decoded differential DCT coefficient, estimates the coefficient component in which the quantized differential DCT coefficient is lost, and outputs the estimated differential DCT coefficient To do. The coefficient corrector 713 selects, from the estimated differential DCT coefficient and the decoded differential DCT coefficient, a component in which the DCT coefficient possessed by the motion compensated prediction differential signal has been lost due to quantization, and determines the decoded differential DCT coefficient. Correction is applied and a correction difference DCT coefficient is calculated.

係数補正器713より出力された補正差分DCT係数は、逆直交変換器705により逆DCT処理が行われ、復号された予測差分信号として、加算器706において画像バッファ714からの予測ブロックと加算され、復号画像信号として出力される。画像バッファ714は、直交変換係数推定器712において、係数推定処理のために要する遅延を吸収するためのバッファであり、MC器709から出力された予測ブロックを固定時間遅延させ、加算器706に出力する。画像バッファ714の容量の大きさは、直交変換係数推定器712が要する遅延に依存し、遅延を生じない推定処理を行う場合には画像バッファ714を削除することが可能である。   The corrected differential DCT coefficient output from the coefficient corrector 713 is subjected to inverse DCT processing by the inverse orthogonal transformer 705, and is added to the prediction block from the image buffer 714 in the adder 706 as a decoded prediction difference signal. It is output as a decoded image signal. The image buffer 714 is a buffer for absorbing the delay required for the coefficient estimation process in the orthogonal transform coefficient estimator 712, delays the prediction block output from the MC unit 709 for a fixed time, and outputs it to the adder 706. To do. The capacity of the image buffer 714 depends on the delay required by the orthogonal transform coefficient estimator 712, and the image buffer 714 can be deleted when performing an estimation process that does not cause a delay.

加算器706から出力された復号画像信号は出力画像メモリ710に蓄えられ出力時刻順に並べ替えられ、出力端子711より出力される。また、加算器706から出力された復号画像信号は、該当フレームが参照を受ける画像の場合には、2次元ブロック逆変換器707を介して参照画像メモリ708に供給されて格納される。参照画像メモリ708に格納された画像が、続く予測フレームの符号化処理時に使用される。   The decoded image signals output from the adder 706 are stored in the output image memory 710, rearranged in order of output time, and output from the output terminal 711. Also, the decoded image signal output from the adder 706 is supplied to and stored in the reference image memory 708 via the two-dimensional block inverse converter 707 when the corresponding frame is an image to be referenced. The image stored in the reference image memory 708 is used at the time of the subsequent prediction frame encoding process.

第1の実施の形態の動画像復号化装置における、直交変換係数推定器712及び係数補正器713の詳細動作に関しては、図1に示す第1の実施の形態の動画像符号化装置における、直交変換係数推定器118及び係数補正器119と同じ動作を行うことによって、符号化時と復号時の復元画像を一致させ、動き補償予測符号化処理における参照画像のミスマッチが生じないようにする。   Regarding the detailed operations of the orthogonal transform coefficient estimator 712 and the coefficient corrector 713 in the video decoding apparatus of the first embodiment, the orthogonal operations in the video encoding apparatus of the first embodiment shown in FIG. By performing the same operation as that of the transform coefficient estimator 118 and the coefficient corrector 119, the restored image at the time of encoding and that at the time of decoding are made coincident with each other so that the mismatch of the reference image in the motion compensated prediction encoding process does not occur.

第1の実施の形態においては、復号画像にDCTを施して生成された各係数値を求め、対象となるDCTブロックの入力時に保持していた係数成分を、対象ブロックの復号画像が持つDCT係数及び周辺ブロックの復号画像が持つDCT係数を基に推定し、動き補償予測符号化時の予測差分DCT成分を、推定した入力画像のDCT成分から予測ブロックのDCT成分より減算することで推定する。   In the first embodiment, each coefficient value generated by applying DCT to a decoded image is obtained, and the DCT coefficient that the decoded image of the target block has the coefficient component held at the time of input of the target DCT block In addition, the estimation is performed on the basis of the DCT coefficients of the decoded images of the surrounding blocks, and the estimation is performed by subtracting the prediction difference DCT component at the time of motion compensation prediction encoding from the DCT component of the prediction block from the estimated DCT component of the input image.

第1の実施の形態においては、動き補償予測処理が施された予測誤差信号が直交変換処理及び量子化処理によって生じる劣化成分を、量子化された予測誤差直交変換信号の切り捨てられた成分を推定することにより、劣化成分を補正する。量子化で切り捨てられた差分成分は、量子化スケールと量子化マトリクスより範囲を限定できるため、推定された成分の妥当性を係数別に判断することができる。これにより、本実施の形態によれば、予測誤差信号が直交変換処理及び量子化処理によって生じる劣化成分である、ブロック歪を補正する成分、モスキート歪を補正する成分、動き補償予測のミスマッチにより生じた差分信号が量子化で切り捨てられた成分、それぞれに対して失われた成分などを適切に選択して符号化時に施された量子化処理を基準に復元させることができる。   In the first embodiment, a prediction error signal subjected to motion compensation prediction processing is estimated to be a degradation component caused by orthogonal transform processing and quantization processing, and a truncated component of a quantized prediction error orthogonal transform signal is estimated. By doing so, the deterioration component is corrected. Since the range of the difference component rounded down by quantization can be limited by the quantization scale and the quantization matrix, the validity of the estimated component can be determined for each coefficient. As a result, according to the present embodiment, the prediction error signal is caused by a mismatch between a component that corrects block distortion, a component that corrects mosquito distortion, and a motion-compensated prediction that is a degradation component caused by orthogonal transform processing and quantization processing. Thus, it is possible to appropriately select a component obtained by truncating the difference signal, a component lost for each of the difference signals, and restore the signal based on the quantization processing performed at the time of encoding.

復元した画像信号は、また動き補償予測の参照画像として用いられるため、品質の向上した参照画像と入力画像の時間方向相関を算出することができ、動きベクトルの精度も向上できると共に、劣化成分が予測フレームの復号画像に残ることによる劣化も防ぐことができる。   Since the restored image signal is also used as a reference image for motion compensation prediction, the time direction correlation between the reference image with improved quality and the input image can be calculated, the accuracy of the motion vector can be improved, and the degradation component can be reduced. Deterioration due to the prediction frame remaining in the decoded image can also be prevented.

更に、本実施の形態によれば、復号直交変換係数を推定する際に、ブロック内の信号の振る舞いを規定する2次関数等の所定のソースモデルで表現し、ブロック内の信号をブロックの境界条件に基づいて推定信号を生成する技術を用いることで、ブロック間の歪成分が除去された形でブロック全体が保持している信号特性を推定できるため、領域情報により置き換え選択される有意な推定信号を生成でき、より補正処理を適切に機能できる。   Furthermore, according to the present embodiment, when estimating the decoding orthogonal transform coefficient, it is expressed by a predetermined source model such as a quadratic function that defines the behavior of the signal in the block, and the signal in the block is expressed as a block boundary. By using a technique that generates an estimated signal based on conditions, it is possible to estimate the signal characteristics held by the entire block in a form in which distortion components between blocks are removed. A signal can be generated, and correction processing can function more appropriately.

(第2の実施の形態)
次に、本発明の動画像符号化装置、及び動画像復号化装置の第2の実施の形態について説明する。この第2の実施の形態は、動画像符号化装置に関して標準の符号化処理を行った場合に、復号される復号画像の品質を向上させる動画像復号化装置を提供する。
(Second Embodiment)
Next, a second embodiment of the video encoding device and video decoding device of the present invention will be described. This second embodiment provides a moving picture decoding apparatus that improves the quality of a decoded picture that is decoded when standard coding processing is performed on the moving picture coding apparatus.

図8は、本発明になる動画像復号化装置の第2の実施の形態のブロック図を示す。同図に示すように、本実施の形態の動画像復号化装置は、入力端子800、ストリームバッファ801、エントロピー復号器802、符号化テーブル803、逆量子化器804、逆直交変換器805、加算器806、2次元ブロック逆変換器807、参照画像メモリ808、MC(動き補償)器809、出力画像メモリ810、出力端子811、直交変換係数推定器812、係数補正差分生成器813、逆直交変換器814、補正画像差分メモリ815及び加算器816から構成される。入力端子800から出力端子811までの回路部に関しては、図13の従来の動画像復号化装置の入力端子1200から出力端子1211までの回路部と同じ構成である。   FIG. 8 shows a block diagram of a second embodiment of the moving picture decoding apparatus according to the present invention. As shown in the figure, the moving picture decoding apparatus according to the present embodiment includes an input terminal 800, a stream buffer 801, an entropy decoder 802, a coding table 803, an inverse quantizer 804, an inverse orthogonal transformer 805, an addition 806, two-dimensional block inverse transformer 807, reference image memory 808, MC (motion compensation) unit 809, output image memory 810, output terminal 811, orthogonal transform coefficient estimator 812, coefficient correction difference generator 813, inverse orthogonal transform And a correction image difference memory 815 and an adder 816. The circuit unit from the input terminal 800 to the output terminal 811 has the same configuration as the circuit unit from the input terminal 1200 to the output terminal 1211 of the conventional video decoding device in FIG.

また、直交変換係数推定器812は、第1の実施の形態の動画像復号化装置内の直交変換係数推定器712と同じ構成を用いる。本実施の形態は、第1の実施の形態の動画像復号化装置と比較すると、係数補正差分生成器813、逆直交変換器814、補正画像差分メモリ815を設け、画像バッファ714に相当する画像バッファを削除した点に特徴がある。   Also, the orthogonal transform coefficient estimator 812 uses the same configuration as the orthogonal transform coefficient estimator 712 in the video decoding device according to the first embodiment. Compared with the moving picture decoding apparatus according to the first embodiment, this embodiment includes a coefficient correction difference generator 813, an inverse orthogonal transformer 814, and a corrected image difference memory 815, and an image corresponding to the image buffer 714. It is characterized in that the buffer is deleted.

図8において、図12の動画像符号化装置などにより標準の符号化処理を行って得られたビットストリームが入力端子800に入力され、更にストリームバッファ801、エントロピー復号器802、符号化テーブル803、逆量子化器804からなる回路部により復号DCT係数が算出される。この動作は従来の動画像復号化装置と同様である。   In FIG. 8, a bit stream obtained by performing standard encoding processing by the moving image encoding apparatus of FIG. 12 or the like is input to the input terminal 800, and further, a stream buffer 801, an entropy decoder 802, an encoding table 803, Decoded DCT coefficients are calculated by a circuit unit including the inverse quantizer 804. This operation is the same as that of a conventional video decoding device.

復号されたDCT係数は、逆直交変換器805、直交変換係数推定器812及び係数補正差分生成器813に入力される、直交変換係数推定器812は、符号化時に量子化によってDCT係数が失った係数成分を推定し、推定されたDCT係数を出力する。係数補正差分生成器813は、推定されたDCT係数と復号されたDCT係数より、符号化された画像信号の持っていたDCT係数が量子化で失われた成分を選択し、選択された成分と復号されたDCT係数との差分情報を算出する。第1の実施の形態の動画像復号化装置との構成で異なる部分は、復号されたDCT係数に直接補正係数を加える処理を行わずに、局部復号処理を従来のDCT係数を処理させる部分である。   The decoded DCT coefficient is input to the inverse orthogonal transformer 805, the orthogonal transform coefficient estimator 812, and the coefficient correction difference generator 813. The orthogonal transform coefficient estimator 812 lost the DCT coefficient due to quantization during encoding. The coefficient component is estimated, and the estimated DCT coefficient is output. The coefficient correction difference generator 813 selects, from the estimated DCT coefficients and the decoded DCT coefficients, a component in which the DCT coefficient that the encoded image signal has lost due to quantization, and the selected component and Difference information with the decoded DCT coefficient is calculated. The difference from the configuration of the moving picture decoding apparatus according to the first embodiment is that the local decoding process is performed on the conventional DCT coefficient without performing the process of directly adding the correction coefficient to the decoded DCT coefficient. is there.

ここで、係数補正差分生成器813における、DCTブロック単位での係数を選択するアルゴリズムを図9のフローチャートを参照して説明する。まず、係数補正差分生成器813は、ターゲットとなるDCTブロックに対する、復号DCT係数DecCと推定DCT係数EstCを得る(ステップS900)。   Here, an algorithm for selecting a coefficient in units of DCT blocks in the coefficient correction difference generator 813 will be described with reference to the flowchart of FIG. First, the coefficient correction difference generator 813 obtains a decoded DCT coefficient DecC and an estimated DCT coefficient EstC for the target DCT block (step S900).

続いて、ターゲットとなるDCTブロックが量子化された際の量子化ステップQ及び量子化マトリクスMを得る(ステップS901)。次に、係数補正差分生成器813は、DCTブロックのそれぞれの係数項に関して、復号されたDCT係数が量子化される前に取りうる範囲を計算する。MPEG2符号化においては、動き補償予測を用いたDCTブロックに関しては、DCT係数は量子化時に切り捨て処理が行われ、動き補償予測が用いられず、画像信号そのものがDCT処理された場合には、四捨五入処理が行われる。よって、ターゲットのDCTブロックが動き補償予測を用いた予測差分ブロックであるかどうかを判断する(ステップS902)。   Subsequently, a quantization step Q and a quantization matrix M when the target DCT block is quantized are obtained (step S901). Next, the coefficient correction difference generator 813 calculates, for each coefficient term of the DCT block, a possible range before the decoded DCT coefficient is quantized. In MPEG2 coding, for DCT blocks using motion compensated prediction, DCT coefficients are rounded off when quantized, motion compensated prediction is not used, and the image signal itself is DCT processed. Processing is performed. Therefore, it is determined whether the target DCT block is a prediction difference block using motion compensated prediction (step S902).

係数補正差分生成器813は、ターゲットのDCTブロックが予測差分DCTの場合には、復号DCT係数における水平x、垂直yの係数をDecC(x,y)、水平x、垂直yの項の量子化マトリクス値をM(x,y)とすると、量子化される前に取りうる係数の絶対値の範囲を、以下のように計算する(ステップS903)。   When the target DCT block is the prediction difference DCT, the coefficient correction difference generator 813 quantizes the horizontal x and vertical y coefficients in the decoded DCT coefficient into terms of DecC (x, y), horizontal x, and vertical y. Assuming that the matrix value is M (x, y), the range of absolute values of coefficients that can be taken before quantization is calculated as follows (step S903).

最小値 EstCmin=abs(DecC(x,y))
最大値 EstCmax=abs(DecC(x,y))+Q*M(x,y)
一方、ターゲットのDCTブロックが予測差分DCTでない場合には、係数補正差分生成器813は、以下の計算を行う(ステップS904)。
Minimum value EstCmin = abs (DecC (x, y))
Maximum value EstCmax = abs (DecC (x, y)) + Q * M (x, y)
On the other hand, when the target DCT block is not the prediction difference DCT, the coefficient correction difference generator 813 performs the following calculation (step S904).

最小値 EstCmin=0 : DecC(x,y)=0の時
abs(DecC(x,y))−Q*M(x,y)/2
: DecC(x,y)≠0の時
最大値 EstCmax=abs(DecC(x,y))+Q*M(x,y)/2
続いて、係数補正差分生成器813は、ステップS903又はS904で計算した最大値、最小値と取得した推定DCT係数とを、以下の量子化される前に取りうる係数の範囲内であることを満たす条件を満足するか否か比較し(ステップS905)、その条件を満足する場合には、推定DCT係数EstC(x,y)を補正DCT係数CorC(x,y)として選択し(ステップS906)、その条件を満足しない場合には復号DCT係数DecC(x,y)を補正DCT係数CorC(x,y)として選択する(ステップS907)。ここで、上記の取りうる係数の範囲内であることを満たす条件は、前述した図6のフローチャートのステップS605における条件と同じである。
Minimum value EstCmin = 0: When DecC (x, y) = 0
abs (DecC (x, y))-Q * M (x, y) / 2
: When DecC (x, y) ≠ 0, the maximum value EstCmax = abs (DecC (x, y)) + Q * M (x, y) / 2
Subsequently, the coefficient correction difference generator 813 determines that the maximum value and minimum value calculated in step S903 or S904 and the obtained estimated DCT coefficient are within the range of coefficients that can be taken before the following quantization. It is compared whether or not the condition to be satisfied is satisfied (step S905). If the condition is satisfied, the estimated DCT coefficient EstC (x, y) is selected as the corrected DCT coefficient CorC (x, y) (step S906). If the condition is not satisfied, the decoded DCT coefficient DecC (x, y) is selected as the corrected DCT coefficient CorC (x, y) (step S907). Here, the condition that satisfies the above-described range of possible coefficients is the same as the condition in step S605 in the flowchart of FIG. 6 described above.

最後に、係数補正差分生成器813は、DCTブロックのDC項に対しては補正DCT係数差分情報DifC(x,y)を0とし、残りのすべての復号DCT係数に対しては、次式
DifC(x,y)=CorC(x,y)−DecC(x,y)
に基づいて補正DCT係数差分情報DifCを算出し、出力する(ステップS908)。係数補正差分生成器813は、上記のアルゴリズムに従いマクロブロック内のすべてのDCTブロックに対して補正DCT係数差分情報DifCを求める。
Finally, the coefficient correction difference generator 813 sets the correction DCT coefficient difference information DifC (x, y) to 0 for the DC term of the DCT block, and the following expression DifC for all the remaining decoded DCT coefficients. (X, y) = CorC (x, y) −DecC (x, y)
Based on the above, the corrected DCT coefficient difference information DifC is calculated and output (step S908). The coefficient correction difference generator 813 obtains corrected DCT coefficient difference information DifC for all DCT blocks in the macro block according to the above algorithm.

係数補正差分生成器813より出力された補正DCT係数差分情報DifCは、従来の復号化装置が施す処理とは異なり、図8の逆直交変換器814により逆DCT処理が行われ、復号された画像信号に補正を行うための補正画像差分信号とされた後、補正画像差分メモリ815に格納される。補正画像差分メモリ815及び出力画像メモリ810においては、符号化処理構造に合わせて出力時刻順に並べ替えられると共に、同一時刻・同一位置の信号が出力されるように補正画像差分信号と出力画像の出力タイミングを一致させる。   The corrected DCT coefficient difference information DifC output from the coefficient correction difference generator 813 differs from the processing performed by the conventional decoding device, and is subjected to inverse DCT processing by the inverse orthogonal transformer 814 in FIG. The corrected image difference signal for correcting the signal is stored in the corrected image difference memory 815. In the corrected image difference memory 815 and the output image memory 810, the corrected image difference signal and the output image are output so that the signals are rearranged in the order of the output time according to the encoding processing structure and the signals at the same time and the same position are output. Match timing.

一方、逆直交変換器805においては、逆量子化器804から復号DCT係数が入力されて逆DCT処理を施すことで、復号データを生成する。基準フレームの場合には、その復号データは、加算器806、及び2次元ブロック逆変換器807を介して復号画像信号として出力画像メモリ810に蓄えられると共に、参照画像メモリ808にも供給されて参照画像として格納される。   On the other hand, the inverse orthogonal transformer 805 receives the decoded DCT coefficient from the inverse quantizer 804 and performs inverse DCT processing to generate decoded data. In the case of a reference frame, the decoded data is stored in the output image memory 810 as a decoded image signal via the adder 806 and the two-dimensional block inverse transformer 807, and is also supplied to the reference image memory 808 for reference. Stored as an image.

予測フレームにおいては、予測ブロックがエントロピー復号器802から出力される動きベクトル及びモード信号をMC器809に入力し、参照画像メモリ808より参照画像を切り出す事により生成される。生成された予測ブロックは加算器806に供給され、逆直交変換器805からの復号データと加算される。加算された復号データは、基準フレームと同様に2次元ブロック逆変換器807を介して復号画像信号として出力画像メモリ810に蓄えられると共に、該当フレームが参照を受ける画像の場合には、参照画像メモリ808にも供給されて参照画像として格納される。このように、参照画像として内部に格納される画像においては、従来の動画像符号化装置で生成される情報を格納できるように、処理を構成している。   In the prediction frame, the prediction block is generated by inputting the motion vector and the mode signal output from the entropy decoder 802 to the MC unit 809 and cutting out the reference image from the reference image memory 808. The generated prediction block is supplied to the adder 806 and added with the decoded data from the inverse orthogonal transformer 805. The added decoded data is stored in the output image memory 810 as a decoded image signal via the two-dimensional block inverse transformer 807 as in the case of the base frame, and when the corresponding frame is a reference image, the reference image memory Also supplied to 808 and stored as a reference image. As described above, in the image stored internally as the reference image, the processing is configured so that the information generated by the conventional moving image encoding apparatus can be stored.

加算器816は、出力画像メモリ810から出力された復号画像信号と、補正画像差分メモリ815から出力された補正画像差分信号とを加算することで補正された復号画像信号生成し、出力端子811より補正復号画像信号として出力する。   The adder 816 generates a decoded image signal corrected by adding the decoded image signal output from the output image memory 810 and the corrected image difference signal output from the corrected image difference memory 815, and outputs from the output terminal 811. Output as a corrected decoded image signal.

この第2の実施の形態においては、第1の実施の形態と同様に、対象とするブロックの復号画像信号が入力時に保持しているDCT係数を推定し、動き補償予測符号化時の予測差分DCT成分を、推定した入力画像のDCT成分から予測ブロックのDCT成分より減算する事で推定する。推定された成分の妥当性は、量子化スケールと量子化マトリクスより係数別に判断する部分も同様であるが、その推定成分に関しては、続く動画像の動き補償予測に用いられる参照画像には反映させないことで、既存の動画像符号化装置で生成されたビットストリームを誤差蓄積なく復号することが可能になる。   In the second embodiment, similarly to the first embodiment, the DCT coefficient held at the time of input by the decoded image signal of the target block is estimated, and the prediction difference at the time of motion compensation prediction encoding is estimated. The DCT component is estimated by subtracting from the estimated DCT component of the input image from the DCT component of the prediction block. The validity of the estimated component is the same for the part determined by the coefficient based on the quantization scale and the quantization matrix, but the estimated component is not reflected in the reference image used for motion compensation prediction of the subsequent moving image. As a result, it becomes possible to decode the bitstream generated by the existing video encoding device without accumulating errors.

また、本実施の形態では、推定されたDCT成分から、復号されたDCT成分との差分成分を算出し、その差分成分に対する逆直交変換(IDCT)を施すことで、復号画像信号に対する補正信号を生成する。そして、生成した補正信号を、復号画像信号出力時に加算することで、ブロック歪補正、モスキート歪補正、動き補償予測のミスマッチにより生じた差分信号が量子化で切り捨てられた成分の補正が施された信号を再生できる。よって、本実施の形態によれば、既存の符号化処理により符号化され伝送・記録された情報の劣化成分を補正して再生できる動画像復号化装置を構築できる。
(第3の実施の形態)
次に、本発明の第3の実施の形態について説明する。この第3の実施の形態は、第1及び第2の実施の形態の動画像符号化装置、及び動画像復号化装置の機能を図10、図11に示すコンピュータである中央処理制御装置において実現させるための動画像符号化プログラム、及び動画像復号化プログラムであり、以下それらのプログラムについて説明する。
In the present embodiment, a difference component with the decoded DCT component is calculated from the estimated DCT component, and an inverse orthogonal transform (IDCT) is performed on the difference component, whereby a correction signal for the decoded image signal is obtained. Generate. Then, by adding the generated correction signal when the decoded image signal is output, correction of the component in which the difference signal generated by the mismatch of the block distortion correction, the mosquito distortion correction, and the motion compensation prediction is rounded down by the quantization is performed. The signal can be reproduced. Therefore, according to the present embodiment, it is possible to construct a moving picture decoding apparatus capable of correcting and reproducing a deterioration component of information encoded and transmitted / recorded by an existing encoding process.
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the third embodiment, the functions of the moving picture coding apparatus and the moving picture decoding apparatus according to the first and second embodiments are realized in a central processing control apparatus which is a computer shown in FIGS. A moving picture encoding program and a moving picture decoding program are described below.

図10は、本発明になる動画像符号化プログラムにより動作する情報処理装置の一例の構成図を示す。同図において、情報処理装置1000は、各種の情報を入力するための入力装置1001と、各種の情報を出力するための出力装置1002と、本実施の形態の動画像符号化プログラムにより動作する中央処理制御装置1003と、外部記憶装置1004と、中央処理制御装置1003による演算処理の際の作業領域などに用いる一時記憶装置1005と、外部と通信するための通信装置1006とが、双方向のバス1007により接続された構成とされている。   FIG. 10 shows a configuration diagram of an example of an information processing apparatus that operates according to the moving picture encoding program of the present invention. In the figure, an information processing device 1000 includes an input device 1001 for inputting various types of information, an output device 1002 for outputting various types of information, and a central operation that is operated by the moving image encoding program of the present embodiment. A processing control device 1003, an external storage device 1004, a temporary storage device 1005 used as a work area for arithmetic processing by the central processing control device 1003, and a communication device 1006 for communicating with the outside include a bidirectional bus. 1007 is connected.

中央処理制御装置1003は、本実施の形態の動画像符号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置1006により取り込まれ、図1に示した2次元ブロック変換器102に相当する2次元ブロック変換手段1008、減算器103に相当する減算1009、直交変換器104に相当する直交変換手段1010、量子化器105に相当する量子化手段1011、エントロピー符号化器106に相当するエントロピー符号化手段1012、逆量子化器110に相当する逆量子化手段1013、逆直交変換器111に相当する逆直交変換手段1014、加算器112に相当する加算手段1015、2次元ブロック逆変換器113に相当する2次元ブロック逆変換手段1016、ME器115に相当するME手段1017、MC器116に相当するMC手段1018、符号量制御器117に相当する符号化制御手段1019、直交変換係数推定器118に相当する直交変換係数推定手段1020、係数補正器119に相当する係数補正手段1021の各機能を少なくとも有し、図1に示す動画像符号化装置と同様の動作をソフトウェア処理により実行する。   The central processing control apparatus 1003 receives the moving picture coding program of the present embodiment from a recording medium or via a communication network and is taken in by the communication apparatus 1006, and is stored in the two-dimensional block converter 102 shown in FIG. Corresponding to a two-dimensional block transform unit 1008 corresponding to the subtractor 1009 corresponding to the subtractor 103, an orthogonal transform unit 1010 corresponding to the orthogonal transformer 104, a quantizing unit 1011 corresponding to the quantizer 105, and an entropy encoder 106. Entropy encoding means 1012, inverse quantization means 1013 corresponding to inverse quantizer 110, inverse orthogonal transform means 1014 corresponding to inverse orthogonal transformer 111, addition means 1015 equivalent to adder 112, two-dimensional block inverse transformer 2 dimensional block inverse transform means 1016 corresponding to 113 and ME device 115 E means 1017, MC means 1018 corresponding to MC unit 116, coding control means 1019 corresponding to code amount controller 117, orthogonal transform coefficient estimation means 1020 equivalent to orthogonal transform coefficient estimator 118, and coefficient corrector 119 And at least the functions of the coefficient correction unit 1021 for performing the same operation as the moving image encoding apparatus shown in FIG. 1 by software processing.

図11は、本発明になる動画像復号化プログラムの一実施の形態により動作する情報処理装置の一例の構成図を示す。同図において、情報処理装置1100に含まれる装置の基本構成は、図10における情報処理装置1000と同様であるため、説明を省略する。中央処理制御装置1103は、本実施の形態の動画像復号化プログラムが記録媒体から、あるいは通信ネットワークを介して配信されて通信装置1106により取り込まれ、図7のエントロピー復号化器702に相当するエントロピー復号化手段1108、逆量子化器704に相当する逆量子化手段1109、逆直交変換器705に相当する逆直交変換手段1110、加算器706に相当する加算手段1111、2次元ブロック逆変換器707に相当する2次元ブロック逆変換手段1112、MC器709に相当するMC手段1113、直交変換係数推定器712に相当する直交変換係数推定手段1114の各機能を少なくとも有し、係数補正器713に相当する係数補正手段1115の機能を有する事で、図7に示した第1の実施例の復号化装置と同様の動作をソフトウェア処理により実行する。   FIG. 11 shows a configuration diagram of an example of an information processing apparatus that operates according to an embodiment of a moving picture decoding program according to the present invention. In this figure, the basic configuration of the apparatus included in the information processing apparatus 1100 is the same as that of the information processing apparatus 1000 in FIG. The central processing control device 1103 has the entropy corresponding to the entropy decoder 702 in FIG. 7 as the moving picture decoding program according to the present embodiment is distributed from a recording medium or distributed via a communication network and taken in by the communication device 1106. Decoding means 1108, inverse quantization means 1109 corresponding to inverse quantizer 704, inverse orthogonal transform means 1110 corresponding to inverse orthogonal transformer 705, addition means 1112 corresponding to adder 706, and two-dimensional block inverse transformer 707 Two-dimensional block inverse transform unit 1112 corresponding to, MC unit 1113 corresponding to MC unit 709, and orthogonal transform coefficient estimation unit 1114 corresponding to orthogonal transform coefficient estimator 712, and corresponding to coefficient corrector 713 By having the function of the coefficient correction means 1115 to perform the decoding of the first embodiment shown in FIG. The apparatus similar operations performed by software processing.

また、係数補正手段1115の替りに、図8に示した係数補正差分生成器813に相当する係数補正差分生成手段1116を有することで、図8に示した第2の実施の形態の動画像復号化装置と同様の動作をソフトウェアにより実行する。   In addition, instead of the coefficient correction means 1115, the coefficient correction difference generation means 1116 corresponding to the coefficient correction difference generator 813 shown in FIG. 8 is provided, so that the moving picture decoding according to the second embodiment shown in FIG. The same operation as that of the computer is executed by software.

図10及び図11において、画像及び係数を蓄えるメモリは一時記憶装置1002、1102において構成され、図8における逆直交変換器814の処理は、ソフトウェアとしては逆直交変換手段1014、1110で共用可能であるため、特に追加の手段を有してはいない。   10 and 11, the memory for storing images and coefficients is configured in the temporary storage devices 1002 and 1102, and the processing of the inverse orthogonal transformer 814 in FIG. 8 can be shared by the inverse orthogonal transform means 1014 and 1110 as software. As such, it does not have any additional means.

なお、本発明の各実施の形態においては、動画像符号化の構成としてMPEG2符号化方式を用いたが、MPEG1、MPEG4 ASP、MPEG4 AVC、VC1などの、動き補償予測及び直交変換を用いた他の動画像符号化規格を用いても同様の効果を発揮する事が期待でき、有効に活用することが可能である。   In each embodiment of the present invention, the MPEG2 encoding method is used as a moving image encoding configuration. However, other methods using motion compensated prediction and orthogonal transform such as MPEG1, MPEG4 ASP, MPEG4 AVC, and VC1 are used. It is expected that the same effect can be exhibited even if the moving image coding standard is used, and it can be effectively utilized.

本発明は、動画像信号を圧縮して伝送する符号化装置及び符号化プログラム等に適用できる。また本発明は、動画像信号が圧縮されて伝送された情報を復元する、復号化装置および復号化プログラム等に適用できる。   The present invention can be applied to an encoding device and an encoding program that compress and transmit a moving image signal. Further, the present invention can be applied to a decoding device, a decoding program, and the like that restore information transmitted by compressing a moving image signal.

本発明の動画像符号化装置の第1の実施の形態のブロック図である。It is a block diagram of 1st Embodiment of the moving image encoder of this invention. 図1中の直交変換係数推定器の一実施の形態のブロック図である。FIG. 2 is a block diagram of an embodiment of an orthogonal transform coefficient estimator in FIG. 1. 多重調和局所直交変換の基本概念を表す概念図である。It is a conceptual diagram showing the basic concept of multiple harmonic local orthogonal transformation. 復号画像ブロックにおけるブロック間の境界に関する定義を示すための概念図である。It is a conceptual diagram for showing the definition regarding the boundary between blocks in a decoded image block. 本発明の第1の実施の形態の直交変換係数推定器において処理される係数データを示す概念図である。It is a conceptual diagram which shows the coefficient data processed in the orthogonal transformation coefficient estimator of the 1st Embodiment of this invention. 図1中の係数補正器の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the coefficient corrector in FIG. 本発明の第1の実施の形態の動画像復号化装置のブロック図である。It is a block diagram of the moving picture decoding apparatus of the 1st Embodiment of this invention. 本発明の第2の実施の形態の動画像復号化装置のブロック図である。It is a block diagram of the moving image decoding apparatus of the 2nd Embodiment of this invention. 図8中の係数補正差分生成器の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the coefficient correction | amendment difference generator in FIG. 本発明の動画像符号化装置が備える機能を、本発明の動画像符号化プログラムを実行させることにより実現する情報処理装置の基本構成を表す機能ブロック図である。It is a functional block diagram showing the basic composition of the information processor which realizes the function with which the moving picture coding device of the present invention is provided by running the moving picture coding program of the present invention. 本発明の動画像復号化装置が備える機能を、本発明の動画像復号化プログラムを実行させることにより実現する情報処理装置の基本構成を表す機能ブロック図である。It is a functional block diagram showing the basic composition of an information processor which realizes the function with which the video decoding device of the present invention is provided, by running the video decoding program of the present invention. 従来のMPEG2符号化装置の一例を示すブロック図である。It is a block diagram which shows an example of the conventional MPEG2 encoding apparatus. 従来のMPEG2復号化装置の一例を示すブロック図である。It is a block diagram which shows an example of the conventional MPEG2 decoding apparatus. 従来のブロック歪除去フィルタの動作概念を示す概念図である。It is a conceptual diagram which shows the operation | movement concept of the conventional block distortion removal filter.

符号の説明Explanation of symbols

100 デジタル画像信号入力端子
101 入力画像メモリ
102 2次元ブロック変換器
103、205 減算器
104、200 直交変換器
105 量子化器
106 エントロピー符号化器
107、703、803 符号化テーブル
108、701、801 ストリームバッファ
109、711、811 出力端子
110、704、804 逆量子化器
111、705、805 逆直交変換器
112、201、706、806、816 加算器
113、707、807 2次元ブロック逆変換器
114、708、808 参照画像メモリ
115 ME(動き推定)器
116、709、809 MC(動き補償)器
117 符号量制御器
118 直交変換係数推定器
119 係数補正器
120 画像バッファ
202、204 係数バッファ
203 傾き相殺直交変換係数生成器
700、800 ビットストリーム入力端子
702、802 エントロピー復号器
710 出力画像メモリ
711 出力端子
712、812 直交変換係数推定器
713 係数補正器
714 画像バッファ
813 係数補正差分生成器
815 補正画像差分メモリ
1000、1100 情報処理装置
1001、1101 入力装置
1002、1102 出力装置
1003、1103 中央処理制御装置
1004、1104 外部記憶装置
1005、1105 一時記憶装置
1006、1106 通信装置
1007、1107 双方向バス
1008 2次元ブロック変換手段
1009 減算手段
1010 直交変換手段
1011 量子化手段
1012 エントロピー符号化手段
1013、1109 逆量子化手段
1014、1110 逆直交変換手段
1015、1111 加算手段
1016、1112 2次元ブロック逆変換手段
1017 ME手段
1018、1113 MC手段
1019 符号量制御手段
1020、1114 直交変換係数推定手段
1021、1115 係数補正手段
1116 係数補正差分生成手段
100 Digital Image Signal Input Terminal 101 Input Image Memory 102 Two-dimensional Block Transformer 103, 205 Subtractor 104, 200 Orthogonal Transformer 105 Quantizer 106 Entropy Encoder 107, 703, 803 Coding Table 108, 701, 801 Stream Buffer 109, 711, 811 Output terminal 110, 704, 804 Inverse quantizer 111, 705, 805 Inverse orthogonal transformer 112, 201, 706, 806, 816 Adder 113, 707, 807 Two-dimensional block inverse transformer 114, 708, 808 Reference image memory 115 ME (motion estimator) 116, 709, 809 MC (motion compensation) unit 117 Code amount controller 118 Orthogonal transform coefficient estimator 119 Coefficient corrector 120 Image buffer 202, 204 Coefficient buffer 203 Inclination cancellation Interchange coefficient generator 700, 800 Bit stream input terminal 702, 802 Entropy decoder 710 Output image memory 711 Output terminal 712, 812 Orthogonal transform coefficient estimator 713 Coefficient corrector 714 Image buffer 813 Coefficient correction difference generator 815 Corrected image difference Memory 1000, 1100 Information processing device 1001, 1101 Input device 1002, 1102 Output device 1003, 1103 Central processing control device 1004, 1104 External storage device 1005, 1105 Temporary storage device 1006, 1106 Communication device 1007, 1107 Bidirectional bus 1008 Two-dimensional Block transformation means 1009 Subtraction means 1010 Orthogonal transformation means 1011 Quantization means 1012 Entropy coding means 1013, 1109 Inverse quantization means 1014, 1110 Inverse orthogonality Switch means 1015,1111 addition means 1016,1112 2-dimensional block inverse transform unit 1017 ME unit 1018,1113 MC 1019 code amount control unit 1020,1114 orthogonal transform coefficient estimating means 1021,1115 coefficient correction unit 1116 coefficient correction difference generation means

Claims (10)

入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化を行う動画像符号化装置において、
前記動き補償予測信号と、前記直交変換処理及び量子化処理が施された結果生成される量子化データを逆量子化することで生成される復号直交変換係数とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数と、量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか否かの判断を行って補正直交変換係数を生成する係数補正手段と、
前記係数補正手段より出力される補正直交変換係数に逆直交変換処理を施して得た信号を前記動き補償予測信号と加算することで補正復号画像信号を生成する補正画像信号生成手段とを有し、
前記補正復号画像信号を、続いて符号化対象となる動画像信号の前記参照画像として用いることを特徴とする動画像符号化装置。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a video encoding device that performs encoding by sequentially performing quantization processing,
The motion compensated prediction signal and a decoded orthogonal transform coefficient generated by dequantizing the quantized data generated as a result of the orthogonal transform process and the quantization process are input and quantized. An orthogonal transform coefficient estimating means for estimating an orthogonal transform coefficient lost as a result and outputting an estimated orthogonal transform coefficient;
Using the estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation means, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed Then, region information that can be taken by the orthogonal transform coefficient before quantization is calculated from the quantized value, and whether or not the decoded orthogonal transform coefficient is replaced with the estimated orthogonal transform coefficient is determined based on the region information. Coefficient correction means for generating a corrected orthogonal transform coefficient;
Correction image signal generation means for generating a corrected decoded image signal by adding a signal obtained by performing inverse orthogonal transform processing to the corrected orthogonal transform coefficient output from the coefficient correction means and the motion compensation prediction signal. ,
A moving image encoding apparatus, wherein the corrected decoded image signal is used as the reference image of a moving image signal to be subsequently encoded.
前記直交変換係数推定手段は、
前記動き補償予測信号に対する直交変換係数を生成するための直交変換手段と、
前記動き補償予測信号と前記復号直交変換係数とより復号画像信号の直交変換係数を生成する手段と、
生成された前記復号画像信号の直交変換係数を、直交変換処理の対象となる矩形領域単位で周囲に存在する矩形領域の復号画像信号との対応する境界部分の境界条件を基に、ポアソン方程式を満たすような、前記矩形領域内の推定復号画像信号を生成することで、復号画像信号の推定直交変換係数を生成する、傾き相殺直交変換係数生成手段と、
前記推定直交変換係数より、前記直交変換手段から出力された前記動き補償予測信号に対する直交変換係数を減算することで、推定予測差分直交変換係数を生成する減算手段と
を有することを特徴とする請求項1記載の動画像符号化装置。
The orthogonal transform coefficient estimation means includes
Orthogonal transform means for generating orthogonal transform coefficients for the motion compensated prediction signal;
Means for generating an orthogonal transform coefficient of a decoded image signal from the motion compensated prediction signal and the decoded orthogonal transform coefficient;
Based on the boundary condition of the corresponding boundary portion of the generated orthogonal transform coefficient of the decoded image signal and the corresponding rectangular region decoded image signal in the rectangular region unit to be subjected to orthogonal transformation processing, the Poisson equation An inclination-cancellation orthogonal transform coefficient generating means for generating an estimated orthogonal transform coefficient of the decoded image signal by generating an estimated decoded image signal in the rectangular region that satisfies
Subtracting means for generating an estimated prediction difference orthogonal transform coefficient by subtracting an orthogonal transform coefficient for the motion compensated prediction signal output from the orthogonal transform means from the estimated orthogonal transform coefficient. Item 4. A moving image encoding apparatus according to Item 1.
前記傾き相殺直交変換係数生成手段は、前記直交変換処理の対象となる矩形領域及び、その直交変換処理の対象となる矩形領域の周囲に存在する矩形領域の復号画像信号に対する直交変換係数とを入力として受け、入力された前記直交変換係数の加算・乗算により復号画像信号の推定直交変換係数を生成することを特徴とする請求項2記載の動画像符号化装置。   The inclination canceling orthogonal transform coefficient generating means inputs a rectangular area to be subjected to the orthogonal transform process and an orthogonal transform coefficient for a decoded image signal of the rectangular area existing around the rectangular area to be subjected to the orthogonal transform process. The moving picture coding apparatus according to claim 2, wherein the estimated orthogonal transform coefficient of the decoded image signal is generated by adding and multiplying the input orthogonal transform coefficients. 入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する、動画像復号化装置において、
前記ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、
前記エントロピー復号手段からの前記動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、
前記エントロピー復号手段より出力された前記量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、前記動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか判断を行って補正直交変換係数を生成する係数補正手段と、
前記係数補正手段より出力される前記補正直交変換係数に逆直交変換処理を行って得た信号に前記動き補償予測信号を加算することで補正復号画像信号を生成する補正復号画像信号生成手段とを有し、
前記補正復号画像信号を、続いて符号化対象となる動画像信号の前記参照画像として用いることを特徴とする動画像復号化装置。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a moving picture decoding apparatus that sequentially decodes a bit stream of a moving picture signal that has been encoded by performing quantization processing,
Entropy decoding means for decoding orthogonal transform coefficients and motion vectors quantized from the bitstream;
Based on the motion vector from the entropy decoding unit, a motion compensation unit that cuts out a past decoded image signal as a reference signal and generates a motion compensated prediction signal;
The decoded orthogonal transform coefficient generated by dequantizing the quantized orthogonal transform coefficient output from the entropy decoding means and the motion compensated prediction signal are received as inputs, and the quantized result is lost. Orthogonal transform coefficient estimating means for estimating the orthogonal transform coefficient and outputting the estimated orthogonal transform coefficient;
The estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation unit, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed are received as inputs. Calculating the region information that can be taken by the orthogonal transform coefficient before quantization from the quantized value, and determining whether or not to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient based on the region information. Coefficient correction means for generating
Corrected decoded image signal generating means for generating a corrected decoded image signal by adding the motion compensated prediction signal to a signal obtained by performing inverse orthogonal transform processing on the corrected orthogonal transform coefficient output from the coefficient correcting means; Have
A moving picture decoding apparatus, wherein the corrected decoded picture signal is used as the reference picture of a moving picture signal to be encoded subsequently.
入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する、動画像復号化装置において、
前記ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、
前記エントロピー復号手段からの前記動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、
前記エントロピー復号手段より出力された前記量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、前記動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか判断を行い、置き換える係数と前記直交変換係数との差分情報である補正差分直交変換係数を出力する係数補正差分生成手段と、
前記係数補正差分生成手段より出力される前記補正差分直交変換係数に対し、逆直交変換処理を施すことで補正差分信号に変換する逆直交変換手段と、
前記復号直交変換係数を逆直交変換して得た信号と前記動き補償予測信号とを用いて復号した復号画像信号を前記参照画像として格納した後に、出力画像として出力する前記復号画像信号に対してのみ前記補正差分信号を加算して、再生画像に対して補正された復号画像信号を出力する画像信号復号手段と
を有することを特徴とする動画像復号化装置。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a moving picture decoding apparatus that sequentially decodes a bit stream of a moving picture signal that has been encoded by performing quantization processing,
Entropy decoding means for decoding orthogonal transform coefficients and motion vectors quantized from the bitstream;
Based on the motion vector from the entropy decoding unit, a motion compensation unit that cuts out a past decoded image signal as a reference signal and generates a motion compensated prediction signal;
The decoded orthogonal transform coefficient generated by dequantizing the quantized orthogonal transform coefficient output from the entropy decoding means and the motion compensated prediction signal are received as inputs, and the quantized result is lost. Orthogonal transform coefficient estimating means for estimating the orthogonal transform coefficient and outputting the estimated orthogonal transform coefficient;
The estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation unit, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed are received as inputs. , Calculating region information that can be taken by the orthogonal transform coefficient before quantization from the quantized value, and determining whether to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient based on the region information, Coefficient correction difference generation means for outputting a correction difference orthogonal transformation coefficient that is difference information from the orthogonal transformation coefficient;
An inverse orthogonal transform unit that converts the correction difference orthogonal transform coefficient output from the coefficient correction difference generation unit into a correction difference signal by performing an inverse orthogonal transform process;
After the decoded image signal decoded using the signal obtained by inverse orthogonal transformation of the decoded orthogonal transform coefficient and the motion compensated prediction signal is stored as the reference image, the decoded image signal output as an output image is stored. A video decoding apparatus comprising: an image signal decoding unit that adds the corrected difference signal only and outputs a decoded image signal corrected for a reproduced image.
前記直交変換係数推定手段は、
前記動き補償予測信号に対する直交変換係数を生成するための直交変換手段と、
前記動き補償予測信号と前記復号直交変換係数とより復号画像信号の直交変換係数を生成する手段と、
生成された前記復号画像信号の直交変換係数を、直交変換処理の対象となる矩形領域単位で周囲に存在する矩形領域の復号画像信号との対応する境界部分の境界条件を基に、ポアソン方程式を満たすような、前記矩形領域内の推定復号画像信号を生成することで、復号画像信号の推定直交変換係数を生成する、傾き相殺直交変換係数生成手段と、
前記推定直交変換係数より、前記直交変換手段から出力された前記動き補償予測信号に対する直交変換係数を減算することで、推定予測差分直交変換係数を生成する減算手段と
を有することを特徴とする請求項4又は5記載の動画像復号装置。
The orthogonal transform coefficient estimation means includes
Orthogonal transform means for generating orthogonal transform coefficients for the motion compensated prediction signal;
Means for generating an orthogonal transform coefficient of a decoded image signal from the motion compensated prediction signal and the decoded orthogonal transform coefficient;
Based on the boundary condition of the corresponding boundary portion of the generated orthogonal transform coefficient of the decoded image signal and the corresponding rectangular region decoded image signal in the rectangular region unit to be subjected to orthogonal transformation processing, the Poisson equation An inclination-cancellation orthogonal transform coefficient generating means for generating an estimated orthogonal transform coefficient of the decoded image signal by generating an estimated decoded image signal in the rectangular region that satisfies
Subtracting means for generating an estimated prediction difference orthogonal transform coefficient by subtracting an orthogonal transform coefficient for the motion compensated prediction signal output from the orthogonal transform means from the estimated orthogonal transform coefficient. Item 6. The moving picture decoding device according to Item 4 or 5.
前記傾き相殺直交変換係数生成手段は、前記直交変換処理の対象となる矩形領域及び、その直交変換処理の対象となる矩形領域の周囲に存在する矩形領域の復号画像信号に対する直交変換係数とを入力として受け、入力された前記直交変換係数の加算・乗算により前記補正直交変換係数を生成することを特徴とする請求項6記載の動画像復号化装置。   The inclination canceling orthogonal transform coefficient generating means inputs a rectangular area to be subjected to the orthogonal transform process and an orthogonal transform coefficient for a decoded image signal of the rectangular area existing around the rectangular area to be subjected to the orthogonal transform process. 7. The moving picture decoding apparatus according to claim 6, wherein the corrected orthogonal transform coefficient is generated by adding and multiplying the input orthogonal transform coefficients. 入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して行う符号化を、コンピュータにより実行させる動画像符号化プログラムにおいて、
前記コンピュータを、
前記動き補償予測信号と、前記直交変換処理及び量子化処理が施された結果生成される量子化データを逆量子化することで生成される復号直交変換係数とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数と、量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか否かの判断を行って補正直交変換係数を生成する係数補正手段と、
前記係数補正手段より出力される補正直交変換係数に逆直交変換処理を施して得た信号を前記動き補償予測信号と加算することで補正復号画像信号を生成する補正画像信号生成手段と、
して機能させ、前記補正復号画像信号を、続いて符号化対象となる動画像信号の前記参照画像として用いることを特徴とする動画像符号化プログラム。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a moving image encoding program that causes a computer to execute encoding by sequentially performing quantization processing,
The computer,
The motion compensated prediction signal and a decoded orthogonal transform coefficient generated by dequantizing the quantized data generated as a result of the orthogonal transform process and the quantization process are input and quantized. An orthogonal transform coefficient estimating means for estimating an orthogonal transform coefficient lost as a result and outputting an estimated orthogonal transform coefficient;
Using the estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation means, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed Then, region information that can be taken by the orthogonal transform coefficient before quantization is calculated from the quantized value, and whether or not the decoded orthogonal transform coefficient is replaced with the estimated orthogonal transform coefficient is determined based on the region information. Coefficient correction means for generating a corrected orthogonal transform coefficient;
A corrected image signal generating unit that generates a corrected decoded image signal by adding a signal obtained by performing an inverse orthogonal transform process to the corrected orthogonal transform coefficient output from the coefficient correcting unit, and the motion compensated prediction signal;
And the corrected decoded image signal is used as the reference image of the moving image signal to be encoded subsequently.
入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する動作をコンピュータにより実行させる動画像復号化プログラムにおいて、
前記コンピュータを、
前記ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、
前記エントロピー復号手段からの前記動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、
前記エントロピー復号手段より出力された前記量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、前記動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか判断を行って補正直交変換係数を生成する係数補正手段と、
前記係数補正手段より出力される前記補正直交変換係数に逆直交変換処理を行って得た信号に前記動き補償予測信号を加算することで補正復号画像信号を生成する補正復号画像信号生成手段と
して機能させ、前記補正復号画像信号を、続いて符号化対象となる動画像信号の前記参照画像として用いることを特徴とする動画像復号化プログラム。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a moving picture decoding program for causing a computer to execute an operation of decoding a bit stream of a moving picture signal encoded by sequentially performing quantization processing,
The computer,
Entropy decoding means for decoding orthogonal transform coefficients and motion vectors quantized from the bitstream;
Based on the motion vector from the entropy decoding unit, a motion compensation unit that cuts out a past decoded image signal as a reference signal and generates a motion compensated prediction signal;
The decoded orthogonal transform coefficient generated by dequantizing the quantized orthogonal transform coefficient output from the entropy decoding means and the motion compensated prediction signal are received as inputs, and the quantized result is lost. Orthogonal transform coefficient estimating means for estimating the orthogonal transform coefficient and outputting the estimated orthogonal transform coefficient;
The estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation unit, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed are received as inputs. Calculating the region information that can be taken by the orthogonal transform coefficient before quantization from the quantized value, and determining whether or not to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient based on the region information. Coefficient correction means for generating
A corrected decoded image signal generating unit that generates a corrected decoded image signal by adding the motion compensation prediction signal to a signal obtained by performing an inverse orthogonal transform process on the corrected orthogonal transform coefficient output from the coefficient correction unit. And the corrected decoded image signal is used as the reference image of the moving image signal to be encoded subsequently.
入力された符号化対象の動画像信号を所定の画素数からなる矩形領域毎に分割し、前記矩形領域を処理単位として、過去に符号化された画像の復号画像信号を参照画像として動き補償予測処理を行い、前記符号化対象の動画像信号である符号化対象画像と動き補償予測信号との差分信号に対して、前記矩形領域とは別に定義された矩形領域を処理単位として直交変換処理及び量子化処理を順次に施して符号化された動画像信号のビットストリームを復号する動作をコンピュータにより実行させる動画像復号化プログラムにおいて、
前記コンピュータを、
前記ビットストリームから量子化された直交変換係数と動きベクトルを復号するエントロピー復号手段と、
前記エントロピー復号手段からの前記動きベクトルに基づき、過去の復号画像信号を参照信号として切り出して動き補償予測信号を生成する動き補償手段と、
前記エントロピー復号手段より出力された前記量子化された直交変換係数を逆量子化することで生成される復号直交変換係数と、前記動き補償予測信号とを入力として受け、量子化された結果失われた直交変換係数を推定して推定直交変換係数を出力する直交変換係数推定手段と、
前記直交変換係数推定手段より出力された前記推定直交変換係数と、前記復号直交変換係数及び量子化処理が施された際の量子化の細かさを示す係数毎の量子化値とを入力として受け、前記量子化値より量子化前の直交変換係数が取りうる領域情報を算出し、その領域情報を基に前記復号直交変換係数を前記推定直交変換係数に置き換えるか判断を行い、置き換える係数と前記直交変換係数との差分情報である補正差分直交変換係数を出力する係数補正差分生成手段と、
前記係数補正差分生成手段より出力される前記補正差分直交変換係数に対し、逆直交変換処理を施すことで補正差分信号に変換する逆直交変換手段と、
前記復号直交変換係数を逆直交変換して得た信号と前記動き補償予測信号とを用いて復号した復号画像信号を前記参照画像として格納した後に、出力画像として出力する前記復号画像信号に対してのみ前記補正差分信号を加算して、再生画像に対して補正された復号画像信号を出力する画像信号復号手段と
して機能させることを特徴とする動画像復号化プログラム。
The input moving image signal to be encoded is divided into rectangular regions each having a predetermined number of pixels, and motion compensation prediction is performed using the rectangular region as a processing unit and a decoded image signal of a previously encoded image as a reference image. An orthogonal transform process using a rectangular area defined separately from the rectangular area as a processing unit for the difference signal between the encoding target image that is the moving image signal to be encoded and the motion compensated prediction signal; In a moving picture decoding program for causing a computer to execute an operation of decoding a bit stream of a moving picture signal encoded by sequentially performing quantization processing,
The computer,
Entropy decoding means for decoding orthogonal transform coefficients and motion vectors quantized from the bitstream;
Based on the motion vector from the entropy decoding unit, a motion compensation unit that cuts out a past decoded image signal as a reference signal and generates a motion compensated prediction signal;
The decoded orthogonal transform coefficient generated by dequantizing the quantized orthogonal transform coefficient output from the entropy decoding means and the motion compensated prediction signal are received as inputs, and the quantized result is lost. Orthogonal transform coefficient estimating means for estimating the orthogonal transform coefficient and outputting the estimated orthogonal transform coefficient;
The estimated orthogonal transform coefficient output from the orthogonal transform coefficient estimation unit, the decoded orthogonal transform coefficient, and a quantized value for each coefficient indicating the fineness of quantization when the quantization process is performed are received as inputs. , Calculating region information that can be taken by the orthogonal transform coefficient before quantization from the quantized value, and determining whether to replace the decoded orthogonal transform coefficient with the estimated orthogonal transform coefficient based on the region information, Coefficient correction difference generation means for outputting a correction difference orthogonal transformation coefficient that is difference information from the orthogonal transformation coefficient;
An inverse orthogonal transform unit that converts the correction difference orthogonal transform coefficient output from the coefficient correction difference generation unit into a correction difference signal by performing an inverse orthogonal transform process;
After the decoded image signal decoded using the signal obtained by inverse orthogonal transformation of the decoded orthogonal transform coefficient and the motion compensated prediction signal is stored as the reference image, the decoded image signal output as an output image is stored. A moving picture decoding program that functions as an image signal decoding unit that adds the corrected difference signal only and outputs a decoded image signal corrected for a reproduced image.
JP2008120155A 2008-05-02 2008-05-02 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program Active JP4784618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008120155A JP4784618B2 (en) 2008-05-02 2008-05-02 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008120155A JP4784618B2 (en) 2008-05-02 2008-05-02 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program

Publications (2)

Publication Number Publication Date
JP2009272792A JP2009272792A (en) 2009-11-19
JP4784618B2 true JP4784618B2 (en) 2011-10-05

Family

ID=41438971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008120155A Active JP4784618B2 (en) 2008-05-02 2008-05-02 Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program

Country Status (1)

Country Link
JP (1) JP4784618B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4951113B1 (en) 2010-12-20 2012-06-13 株式会社東芝 Image decoding apparatus, image decoding method and program
WO2012127706A1 (en) * 2011-03-18 2012-09-27 株式会社日立国際電気 Video encoding device and video encoding method
JP6294810B2 (en) * 2014-11-11 2018-03-14 日本電信電話株式会社 Moving picture encoding apparatus, moving picture decoding apparatus, and computer program

Also Published As

Publication number Publication date
JP2009272792A (en) 2009-11-19

Similar Documents

Publication Publication Date Title
US8625916B2 (en) Method and apparatus for image encoding and image decoding
JP4111351B2 (en) Apparatus and method for optimizing rate control in a coding system
CN100364338C (en) Method of and apparatus for estimating noise of input image, and method and recording media of eliminating noise
KR100723403B1 (en) A prediction image generating method and apparatus using using single coding mode among color components, and an image and video encoding/decoding method and apparatus using it
US20150312575A1 (en) Advanced video coding method, system, apparatus, and storage medium
TWI452907B (en) Optimized deblocking filters
US11743475B2 (en) Advanced video coding method, system, apparatus, and storage medium
JP2006211152A (en) Device and method for coding image and decoding image, and programs for coding and decoding image
JP2008507190A (en) Motion compensation method
JP2006509437A (en) Unified Metric for Digital Video Processing (UMDVP)
JP2007336468A (en) Re-encoding apparatus, re-encoding method and program
JP2004215275A (en) Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same
JP4784618B2 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding program, and moving picture decoding program
JP5362723B2 (en) Compressed image noise removal device and playback device
KR101979857B1 (en) A method and an apparatus for decoding a video signal
JP2008109700A (en) Method and device for converting digital signal
KR101379189B1 (en) Video Coding Method and Apparatus by Using Filtering Motion Compensation Frame
KR100801155B1 (en) A spatial error concealment method with low complexity in h. 264/avc video coding
WO2016193949A1 (en) Advanced video coding method, system, apparatus and storage medium
JP2007020216A (en) Encoding apparatus, encoding method, filtering apparatus and filtering method
JP5256095B2 (en) Compressed image noise removal device and playback device
JP2001145108A (en) Device and method for converting image information
JP2009260661A (en) Image processor, and image processing method
JP2007006533A (en) Encoding apparatus, encoding method, filter processing apparatus and filter processing method
JP2008118693A (en) Digital signal conversion method and digital signal conversion device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110627

R151 Written notification of patent or utility model registration

Ref document number: 4784618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350