JP2011166357A - Image encoding device - Google Patents

Image encoding device Download PDF

Info

Publication number
JP2011166357A
JP2011166357A JP2010025514A JP2010025514A JP2011166357A JP 2011166357 A JP2011166357 A JP 2011166357A JP 2010025514 A JP2010025514 A JP 2010025514A JP 2010025514 A JP2010025514 A JP 2010025514A JP 2011166357 A JP2011166357 A JP 2011166357A
Authority
JP
Japan
Prior art keywords
image
signal
unit
prediction
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010025514A
Other languages
Japanese (ja)
Inventor
Etsuhisa Yamada
悦久 山田
Shuichi Yamagishi
秀一 山岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010025514A priority Critical patent/JP2011166357A/en
Publication of JP2011166357A publication Critical patent/JP2011166357A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image encoding device that reduces an influence of burst noise without performing detailed quantization. <P>SOLUTION: A quantization unit 8 determines whether or not an input image has flat texture by referring to a component of a DCT coefficient output from a conversion unit 6, and quantizes an AC component and a DC component of the DCT coefficient when the input image does not has flat texture, or corrects the DC component of the DCT coefficient and quantizes the AC component of the DCT coefficient and a DC component after the correction when the input image has flat texture. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、画像信号をマクロブロック単位に符号化する画像符号化装置に関するものである。   The present invention relates to an image encoding apparatus that encodes an image signal in units of macroblocks.

図10は非特許文献1に開示されている従来の画像符号化装置を示す構成図である。
図10の画像符号化装置では、国際標準方式であるAVC/H.264(ISO/IEC 14496−10|ITU−T H.264)に規定されている画像信号の符号化処理を行う。
以下、従来の画像符号化装置の処理内容を説明する。
FIG. 10 is a block diagram showing a conventional image encoding device disclosed in Non-Patent Document 1. In FIG.
In the image encoding device of FIG. 10, the AVC / H. H.264 (ISO / IEC 14496-10 | ITU-T H.264) is encoded.
Hereinafter, processing contents of the conventional image coding apparatus will be described.

AVC/H.264(以下、「AVC」と称する)では、入力画像を示す画像信号の各フレームが16×16のサイズのマクロブロックに分割されて画像符号化装置に入力される。
なお、マクロブロック単位の画像信号は、輝度信号16×16画素と、その輝度信号16×16画素に対応する色差信号8×8画素とから構成されている。
AVC / H. In H.264 (hereinafter, referred to as “AVC”), each frame of an image signal indicating an input image is divided into 16 × 16 macroblocks and input to an image encoding device.
The image signal for each macroblock is composed of a luminance signal 16 × 16 pixels and a color difference signal 8 × 8 pixels corresponding to the luminance signal 16 × 16 pixels.

画像符号化装置のイントラ予測部101は、マクロブロック単位の画像信号を入力すると、イントラ予測用メモリ112に格納されている局部復号信号を使用して、その画像信号を構成している輝度信号および色差信号に対するイントラ予測処理を実施する。
AVCでは、輝度信号に対するイントラ予測処理として、4×4ブロックを一単位とする方式で9種類、8×8ブロックを一単位とする方式で9種類、16×16ブロックを一単位とする方式で4種類が、色差信号に対するイントラ予測処理として4種類がそれぞれ定義されており、イントラ予測部101では、これら定義されているイントラ予測方式の中から、使用するイントラ予測方式を決定し、そのイントラ予測方式でイントラ予測処理を実施する。
イントラ予測部101は、入力信号に対するイントラ予測処理を実施することで予測画像を生成すると、その予測画像を示すイントラ予測信号を選択スイッチ104に出力し、その決定したイントラ予測方式を示すイントラ予測方式情報をエントロピー符号化部115に出力する。
When the intra prediction unit 101 of the image encoding device receives an image signal in units of macroblocks, the local decoding signal stored in the intra prediction memory 112 is used, and the luminance signal constituting the image signal and An intra prediction process is performed on the color difference signal.
In AVC, as an intra prediction process for a luminance signal, there are 9 types with a 4 × 4 block as a unit, 9 types with a 8 × 8 block as a unit, and 16 × 16 blocks as a unit. Four types are defined as intra prediction processes for color difference signals, and the intra prediction unit 101 determines an intra prediction method to be used from these defined intra prediction methods, and the intra prediction is performed. Intra-prediction processing is performed by the method.
When the intra prediction unit 101 performs intra prediction processing on an input signal to generate a prediction image, the intra prediction unit 101 outputs an intra prediction signal indicating the prediction image to the selection switch 104, and the intra prediction method indicating the determined intra prediction method Information is output to the entropy encoding unit 115.

動き検出部102は、マクロブロック単位の画像信号を入力すると、その画像信号と動き補償予測用フレームメモリ114に格納されている局部復号画像信号との間で動きを検出し、その動きを示す動きベクトルを動き補償予測部103及びエントロピー符号化部115に出力する。
動き補償予測部103は、動き検出部102から動きベクトルを受けると、その動きベクトルと動き補償予測用フレームメモリ114に格納されている局部復号画像信号を用いて予測画像を生成し、その予測画像を示す動き補償予測信号を選択スイッチ104に出力する。
When an image signal in units of macroblocks is input, the motion detection unit 102 detects a motion between the image signal and the locally decoded image signal stored in the motion compensation prediction frame memory 114, and indicates the motion The vector is output to the motion compensation prediction unit 103 and the entropy encoding unit 115.
When the motion compensation prediction unit 103 receives a motion vector from the motion detection unit 102, the motion compensation prediction unit 103 generates a prediction image using the motion vector and a locally decoded image signal stored in the motion compensation prediction frame memory 114, and the prediction image Is output to the selection switch 104.

選択スイッチ104は、イントラ予測部101からイントラ予測信号を受け、動き補償予測部103から動き補償予測信号を受けると、例えば、符号化制御部107の指示の下、イントラ予測信号又は動き補償予測信号のいずれか一方を予測信号として選択し、その予測信号を減算器105及び加算器111に出力する。
また、選択スイッチ104は、イントラ予測信号又は動き補償予測信号のいずれを選択したかを示す予測信号選択情報をエントロピー符号化部115に出力する。
When the selection switch 104 receives the intra prediction signal from the intra prediction unit 101 and the motion compensation prediction signal from the motion compensation prediction unit 103, for example, under the instruction of the encoding control unit 107, the selection switch 104 receives the intra prediction signal or the motion compensation prediction signal. Is selected as a prediction signal, and the prediction signal is output to the subtractor 105 and the adder 111.
The selection switch 104 also outputs prediction signal selection information indicating which of the intra prediction signal or the motion compensation prediction signal has been selected to the entropy encoding unit 115.

減算器105は、マクロブロック単位の画像信号と選択スイッチ104から出力された予測信号の差分を算出し、その差分を示す予測差分信号を変換部106に出力する。
変換部106は、減算器105から予測差分信号を受けると、その予測差分信号を離散コサイン変換(DCT)することで、その予測差分信号を空間領域の信号から時間領域の信号に変換し、その離散コサイン変換結果を示すDCT係数を量子化部108に出力する。
量子化部108は、変換部106からDCT係数を受けると、符号化制御部107から出力された量子化パラメータにしたがってDCT係数を量子化し、量子化後のDCT係数を示す量子化係数を逆量子化部109及びエントロピー符号化部115に出力する。
The subtractor 105 calculates a difference between the image signal in units of macroblocks and the prediction signal output from the selection switch 104, and outputs a prediction difference signal indicating the difference to the conversion unit 106.
Upon receiving the prediction difference signal from the subtractor 105, the conversion unit 106 performs a discrete cosine transform (DCT) on the prediction difference signal, thereby converting the prediction difference signal from a spatial domain signal to a time domain signal. The DCT coefficient indicating the result of the discrete cosine transform is output to the quantization unit 108.
When the quantization unit 108 receives the DCT coefficient from the conversion unit 106, the quantization unit 108 quantizes the DCT coefficient according to the quantization parameter output from the encoding control unit 107, and dequantizes the quantization coefficient indicating the quantized DCT coefficient. Output to the encoding unit 109 and the entropy encoding unit 115.

逆量子化部109は、量子化部108から量子化係数を受けると、符号化制御部107から出力された量子化パラメータにしたがって、量子化部108の量子化処理に対応する逆量子化処理を実施することで、その量子化係数を逆量子化して、変換部106から出力されたDCT係数に相当するDCT係数(量子化係数の逆量子化結果)を逆変換部110に出力する。
逆変換部110は、逆量子化部109からDCT係数を受けると、そのDCT係数を逆離散コサイン変換(逆DCT)することで、その予測差分信号を時間領域の信号から空間領域の信号に戻し、その逆離散コサイン変換結果を示す予測誤差信号(減算器105から出力された予測差分信号に相当する信号)を加算器111に出力する。
Upon receiving the quantization coefficient from the quantization unit 108, the inverse quantization unit 109 performs an inverse quantization process corresponding to the quantization process of the quantization unit 108 according to the quantization parameter output from the encoding control unit 107. By performing the quantization, the quantization coefficient is inversely quantized, and the DCT coefficient corresponding to the DCT coefficient output from the conversion unit 106 (dequantization result of the quantization coefficient) is output to the inverse conversion unit 110.
When the inverse transform unit 110 receives the DCT coefficient from the inverse quantization unit 109, the inverse transform unit 110 performs the inverse discrete cosine transform (inverse DCT) on the DCT coefficient, thereby returning the prediction difference signal from the time domain signal to the spatial domain signal. The prediction error signal indicating the inverse discrete cosine transform result (a signal corresponding to the prediction difference signal output from the subtractor 105) is output to the adder 111.

加算器111は、選択スイッチ104から予測信号を受け、逆変換部110から予測誤差信号を受けると、その予測信号と予測誤差信号を加算することで局部復号信号を算出し、その局部復号信号をイントラ予測用メモリ112に格納する。
ループフィルタ113は、イントラ予測用メモリ112に格納されている局部復号信号に対してデブロッキングフィルタ処理を実施し、フィルタ処理後の局部復号信号である局部復号画像信号を動き補償予測用フレームメモリ114に格納する。
When the adder 111 receives the prediction signal from the selection switch 104 and receives the prediction error signal from the inverse transform unit 110, the adder 111 calculates the local decoded signal by adding the prediction signal and the prediction error signal, and the local decoded signal is calculated. Store in the intra prediction memory 112.
The loop filter 113 performs a deblocking filter process on the local decoded signal stored in the intra prediction memory 112, and uses the local decoded image signal, which is the local decoded signal after the filter process, as a motion compensated prediction frame memory 114. To store.

エントロピー符号化部115は、イントラ予測部101から出力されたイントラ予測方式情報、動き検出部102から出力された動きベクトル、選択スイッチ104から出力された予測信号選択情報、符号化制御部107から出力された量子化パラメータ及び量子化部108から出力された量子化係数をエントロピー符号化し、その符号化結果を示す符号化データを出力する。
なお、エントロピー符号化部115は、必要に応じて上記に記載していない情報も符号化データに含めて出力する。
The entropy coding unit 115 outputs the intra prediction method information output from the intra prediction unit 101, the motion vector output from the motion detection unit 102, the prediction signal selection information output from the selection switch 104, and the output from the coding control unit 107. The quantized parameters output from the quantization unit 108 and the quantized coefficient are entropy encoded, and encoded data indicating the encoding result is output.
Note that the entropy encoding unit 115 outputs information not described above in the encoded data as necessary.

従来の画像符号化装置は上記のように構成されており、画像符号化装置の変換部106及び逆変換部110では、MPEG−2やMPEG−4が適用される場合、離散コサイン変換(DCT)・逆離散コサイン変換(逆DCT)が使用され、AVCが適用される場合、整数計算のみで変換・逆変換が可能になるようにDCTを変形した整数変換が使用されている。
以下、8×8ブロックサイズのDCTを用いる場合の変換処理について説明する。
図3は変換部によって得られる64個の変換係数のインデックスを示す説明図である。
図3において、「DC」は変換係数におけるDC成分であり、「AC」は変換係数におけるAC成分である。
The conventional image coding apparatus is configured as described above. In the conversion unit 106 and the inverse conversion unit 110 of the image coding apparatus, when MPEG-2 or MPEG-4 is applied, discrete cosine transform (DCT) is performed. When inverse discrete cosine transform (inverse DCT) is used and AVC is applied, integer transform obtained by transforming DCT is used so that transform / inverse transform can be performed only by integer calculation.
Hereinafter, the conversion process in the case of using 8 × 8 block size DCT will be described.
FIG. 3 is an explanatory diagram showing indexes of 64 transform coefficients obtained by the transform unit.
In FIG. 3, “DC” is a DC component in the conversion coefficient, and “AC” is an AC component in the conversion coefficient.

図4は変換部に入力される8×8ブロックの画像信号の一例を示す説明図である。
図4の例では、画像信号における63個の画素の値は“100”であるが、1個の画素の値だけが“164”であり、バースト雑音が重畳されている例を示している。
このようなブロックに対して、MPEG−2で定められている離散コサイン変換(DCT)を行うと、図5に示すようなDCT係数が得られる。
FIG. 4 is an explanatory diagram illustrating an example of an 8 × 8 block image signal input to the conversion unit.
In the example of FIG. 4, the value of 63 pixels in the image signal is “100”, but only the value of one pixel is “164” and burst noise is superimposed.
When such a block is subjected to discrete cosine transform (DCT) defined in MPEG-2, DCT coefficients as shown in FIG. 5 are obtained.

DC成分は、ブロック内の64個の画素の値の平均値の8倍の値をとるので、64個の画素の値が全て“100”である場合には、DC成分の値が“800”になり、63個のAC成分の値が全てゼロになる。
しかし、図4に示すような画像信号が入力された場合には、1個の画素のバースト雑音のために63個のAC成分の全てが非ゼロになり、また、この1個の雑音画素のためにDC成分も“800”ではなく“808”の値をとる。
Since the DC component takes a value that is eight times the average value of the 64 pixels in the block, when the values of the 64 pixels are all “100”, the value of the DC component is “800”. And 63 AC component values are all zero.
However, when an image signal as shown in FIG. 4 is input, all 63 AC components become non-zero due to burst noise of one pixel. Therefore, the DC component also takes a value of “808” instead of “800”.

以下の特許文献1に開示されている画像符号化装置では、上記のようなDCT係数を量子化して符号化データを生成する際、平坦なテクスチャであることを判別して、量子化レベルを小さくするようにしている。
この場合、細かな量子化を行うことになるため、バースト雑音も高品質に再現することができて、符号化前の画像信号とほぼ同じ復号画像信号が得られるが、63個の全てのAC成分、もしくは、それに近い個数のAC成分を符号化する必要があるため、符号量が増大してしまって、データ圧縮を実現することができなくなる。
In the image encoding device disclosed in the following Patent Document 1, when generating encoded data by quantizing the DCT coefficients as described above, it is determined that the texture is flat and the quantization level is reduced. Like to do.
In this case, since fine quantization is performed, burst noise can also be reproduced with high quality, and a decoded image signal almost the same as the image signal before encoding can be obtained. Since it is necessary to encode the component or a number of AC components close to it, the amount of code increases, and data compression cannot be realized.

逆に粗い量子化を行うと、符号量を減らすことができるが、復号画像信号には符号化雑音が多く発生してしまうことになる。
特に、63個のAC成分の全てをゼロに量子化する場合を考えると、DC成分の値は、“808”であるために、復号画像信号の画素値が“100”ではなく“101”になり、ブロック全体の画素値が1だけ大きくなってしまう。
このようなブロックが広い平坦なテクスチャの中に含まれていると、たいへん目立つ符号化雑音になる。
Conversely, if coarse quantization is performed, the amount of code can be reduced, but a large amount of coding noise is generated in the decoded image signal.
In particular, considering the case where all 63 AC components are quantized to zero, the value of the DC component is “808”, so the pixel value of the decoded image signal is not “100” but “101”. Therefore, the pixel value of the entire block is increased by 1.
When such a block is included in a wide flat texture, coding noise becomes very conspicuous.

特開平9−172641号公報Japanese Patent Laid-Open No. 9-172641

MPEG−4 AVC(ISO/IEC 14496−10)/ITU−T H.264規格MPEG-4 AVC (ISO / IEC 14496-10) / ITU-TH H.264 standard

従来の画像符号化装置は以上のように構成されているので、バースト雑音が入力画像を示す画像信号の中に含まれている場合に粗い量子化を行うと、入力画像を示す画像信号では、1画素だけの雑音であっても、ブロックの全体に雑音の影響が及ぶことになり、顕著な符号化雑音が発生してしまうなどの課題があった。   Since the conventional image coding apparatus is configured as described above, when coarse quantization is performed when burst noise is included in the image signal indicating the input image, the image signal indicating the input image is Even if the noise is only one pixel, the entire block is affected by the noise, and there is a problem that significant coding noise is generated.

この発明は上記のような課題を解決するためになされたもので、細かな量子化を行うことなく、バースト雑音の影響を軽減することができる画像符号化装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image coding apparatus that can reduce the influence of burst noise without performing fine quantization.

この発明に係る画像符号化装置は、量子化手段が、信号変換手段から出力された変換係数の成分を参照して、入力画像が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、その変換係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、その変換係数のDC成分を補正して、その変換係数のAC成分及び補正後のDC成分を量子化するようにしたものである。   In the image encoding device according to the present invention, the quantization unit refers to the component of the transform coefficient output from the signal conversion unit, determines whether or not the input image has a flat texture, and the input image is flat. If the texture is not a smooth texture, the AC component and DC component of the conversion coefficient are quantized. If the input image is a flat texture, the DC component of the conversion coefficient is corrected, and the AC component and the corrected component of the conversion coefficient are corrected. The DC component is quantized.

この発明によれば、量子化手段が、信号変換手段から出力された変換係数の成分を参照して、入力画像が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、その変換係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、その変換係数のDC成分を補正して、その変換係数のAC成分及び補正後のDC成分を量子化するように構成したので、細かな量子化を行うことなく、バースト雑音の影響を軽減することができる効果がある。   According to this invention, the quantizing unit refers to the component of the transform coefficient output from the signal converting unit to determine whether or not the input image has a flat texture, and the input image must have a flat texture. For example, the AC component and DC component of the conversion coefficient are quantized, and if the input image has a flat texture, the DC component of the conversion coefficient is corrected, and the AC component and the corrected DC component of the conversion coefficient are quantized. Therefore, there is an effect that the influence of burst noise can be reduced without performing fine quantization.

この発明の実施の形態1による画像符号化装置を示す構成図である。It is a block diagram which shows the image coding apparatus by Embodiment 1 of this invention. この発明の実施の形態1による画像符号化装置の量子化部8の内部を示す構成図である。It is a block diagram which shows the inside of the quantization part 8 of the image coding apparatus by Embodiment 1 of this invention. 変換部6によって得られる64個の変換係数のインデックスを示す説明図である。It is explanatory drawing which shows the index of 64 conversion coefficients obtained by the conversion part. 変換部6に入力される8×8ブロックの画像信号の一例を示す説明図である。6 is an explanatory diagram illustrating an example of an 8 × 8 block image signal input to a conversion unit 6; FIG. 変換部6から出力されるDCT係数の一例を示す説明図である。It is explanatory drawing which shows an example of the DCT coefficient output from the conversion part. この発明の実施の形態3による画像符号化装置を示す構成図である。It is a block diagram which shows the image coding apparatus by Embodiment 3 of this invention. この発明の実施の形態3による画像符号化装置の量子化部16の内部を示す構成図である。It is a block diagram which shows the inside of the quantization part 16 of the image coding apparatus by Embodiment 3 of this invention. この発明の実施の形態4による画像符号化装置を示す構成図である。It is a block diagram which shows the image coding apparatus by Embodiment 4 of this invention. 変換部6から出力された図5のDCT係数に対して、やや粗い量子化が行われた後に、逆量子化及び逆変換が行われた場合の局部復号画像信号を示す説明図である。FIG. 6 is an explanatory diagram showing a locally decoded image signal when inverse quantization and inverse transformation are performed on the DCT coefficient of FIG. 5 output from the transform unit 6 after a slightly coarse quantization. 非特許文献1に開示されている従来の画像符号化装置を示す構成図である。1 is a configuration diagram illustrating a conventional image encoding device disclosed in Non-Patent Document 1. FIG.

実施の形態1.
この実施の形態1では、画像符号化装置がAVCを適用し、入力画像を示す画像信号の各フレームが16×16のサイズのマクロブロックに分割されて、画像符号化装置に入力されるものとする。
なお、マクロブロック単位の画像信号は、輝度信号16×16画素と、その輝度信号16×16画素に対応する色差信号8×8画素とから構成されている。
Embodiment 1 FIG.
In the first embodiment, the image encoding apparatus applies AVC, and each frame of the image signal indicating the input image is divided into 16 × 16 macroblocks and input to the image encoding apparatus. To do.
The image signal for each macroblock is composed of a luminance signal 16 × 16 pixels and a color difference signal 8 × 8 pixels corresponding to the luminance signal 16 × 16 pixels.

図1はこの発明の実施の形態1による画像符号化装置を示す構成図である。
図1において、イントラ予測部1はマクロブロック単位の画像信号を入力すると、イントラ予測用メモリ12に格納されている局部復号信号を使用して、その画像信号を構成している輝度信号および色差信号に対するイントラ予測処理を実施する。
AVCでは、輝度信号に対するイントラ予測処理として、4×4ブロックを一単位とする方式で9種類、8×8ブロックを一単位とする方式で9種類、16×16ブロックを一単位とする方式で4種類が、色差信号に対するイントラ予測処理として4種類がそれぞれ定義されており、イントラ予測部1では、これら定義されているイントラ予測方式の中から、使用するイントラ予測方式を決定し、そのイントラ予測方式でイントラ予測処理を実施する。
イントラ予測部1は入力信号に対するイントラ予測処理を実施することで予測画像を生成すると、その予測画像を示すイントラ予測信号を選択スイッチ4に出力し、その決定したイントラ予測方式を示すイントラ予測方式情報をエントロピー符号化部15に出力する処理を実施する。
FIG. 1 is a block diagram showing an image coding apparatus according to Embodiment 1 of the present invention.
In FIG. 1, when an intra prediction unit 1 inputs an image signal in units of macroblocks, a luminance signal and a color difference signal constituting the image signal are used using a local decoded signal stored in the intra prediction memory 12. Intra prediction processing is performed for.
In AVC, as an intra prediction process for a luminance signal, there are 9 types with a 4 × 4 block as a unit, 9 types with a 8 × 8 block as a unit, and 16 × 16 blocks as a unit. Four types are defined as intra prediction processes for color difference signals, and the intra prediction unit 1 determines an intra prediction method to be used from the defined intra prediction methods, and the intra prediction is performed. Intra-prediction processing is performed by the method.
When the intra prediction unit 1 generates a prediction image by performing an intra prediction process on the input signal, the intra prediction unit 1 outputs an intra prediction signal indicating the prediction image to the selection switch 4, and intra prediction method information indicating the determined intra prediction method Is output to the entropy encoding unit 15.

動き検出部2はマクロブロック単位の画像信号を入力すると、その画像信号と動き補償予測用フレームメモリ14に格納されている局部復号画像信号との間で動きを検出し、その動きを示す動きベクトルを動き補償予測部3及びエントロピー符号化部15に出力する処理を実施する。
動き補償予測部3は動き検出部2から出力された動きベクトルと動き補償予測用フレームメモリ14に格納されている局部復号画像信号を用いて予測画像を生成し、その予測画像を示す動き補償予測信号を選択スイッチ4に出力する処理を実施する。
When the motion detection unit 2 inputs an image signal in units of macroblocks, the motion detection unit 2 detects a motion between the image signal and the locally decoded image signal stored in the motion compensation prediction frame memory 14, and a motion vector indicating the motion Is output to the motion compensation prediction unit 3 and the entropy encoding unit 15.
The motion compensation prediction unit 3 generates a prediction image using the motion vector output from the motion detection unit 2 and the local decoded image signal stored in the motion compensation prediction frame memory 14, and motion compensated prediction indicating the prediction image Processing for outputting a signal to the selection switch 4 is performed.

選択スイッチ4は例えば符号化制御部7の指示の下、イントラ予測部1から出力されたイントラ予測信号又は動き補償予測部3から出力された動き補償予測信号のいずれか一方を予測信号として選択し、その予測信号を減算器5及び加算器11に出力する処理を実施する。
また、選択スイッチ4はイントラ予測信号又は動き補償予測信号のいずれを選択したかを示す予測信号選択情報をエントロピー符号化部15に出力する処理を実施する。
なお、イントラ予測部1、動き検出部2、動き補償予測部3及び選択スイッチ4から予測画像生成手段が構成されている。
The selection switch 4 selects, for example, either an intra prediction signal output from the intra prediction unit 1 or a motion compensated prediction signal output from the motion compensated prediction unit 3 as a prediction signal under the instruction of the encoding control unit 7. Then, a process of outputting the prediction signal to the subtracter 5 and the adder 11 is performed.
Further, the selection switch 4 performs a process of outputting prediction signal selection information indicating which of the intra prediction signal or the motion compensation prediction signal is selected to the entropy encoding unit 15.
The intra prediction unit 1, the motion detection unit 2, the motion compensation prediction unit 3, and the selection switch 4 constitute a predicted image generation unit.

減算器5はマクロブロック単位の画像信号と選択スイッチ4から出力された予測信号の差分を算出し、その差分を示す予測差分信号を変換部6に出力する処理を実施する。なお、減算器5は予測差分信号算出手段を構成している。
変換部6は減算器5から出力された予測差分信号を離散コサイン変換(DCT)することで、その予測差分信号を空間領域の信号から時間領域の信号に変換し、その離散コサイン変換結果を示すDCT係数(変換係数)を量子化部8に出力する処理を実施する。なお、変換部6は信号変換手段を構成している。
ここでは、変換部6が予測差分信号を離散コサイン変換(DCT)することで、その予測差分信号を空間領域の信号から時間領域の信号に変換する例を示しているが、その予測差分信号を空間領域の信号から時間領域の信号に変換するものであれば、予測差分信号を離散コサイン変換(DCT)するものに限るものではない。
The subtractor 5 calculates a difference between the image signal in units of macroblocks and the prediction signal output from the selection switch 4 and performs a process of outputting a prediction difference signal indicating the difference to the conversion unit 6. The subtracter 5 constitutes a prediction difference signal calculation unit.
The conversion unit 6 performs discrete cosine transform (DCT) on the prediction difference signal output from the subtractor 5 to convert the prediction difference signal from a spatial domain signal to a time domain signal, and shows the discrete cosine transformation result. A process of outputting the DCT coefficient (transform coefficient) to the quantization unit 8 is performed. The conversion unit 6 constitutes signal conversion means.
In this example, the transform unit 6 performs discrete cosine transform (DCT) on the prediction difference signal to convert the prediction difference signal from a spatial domain signal to a time domain signal. As long as the signal in the space domain is converted into the signal in the time domain, the prediction difference signal is not limited to the one subjected to the discrete cosine transform (DCT).

符号化制御部7は量子化部8及び逆量子化部9が量子化・逆量子化を実施する際に参照する量子化パラメータを出力して、符号化データの符号量や符号化画質を制御する処理を実施する。
量子化部8は符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数を量子化し、量子化のDCT係数を量子化係数として、逆量子化部9及びエントロピー符号化部15に出力する処理を実施する。
ただし、量子化部8は変換部6から出力されたDCT係数を量子化する際、変換部6から出力されたDCT係数の成分を参照して、入力画像(例えば、符号化対象の8×8ブロック)が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、そのDCT係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、そのDCT係数のDC成分を補正して、そのDCT係数のAC成分及び補正後のDC成分を量子化する。
なお、符号化制御部7及び量子化部8から量子化手段が構成されている。
The encoding control unit 7 outputs a quantization parameter that is referred to when the quantization unit 8 and the inverse quantization unit 9 perform quantization / inverse quantization, and controls the code amount and the encoded image quality of the encoded data. Perform the process.
The quantization unit 8 quantizes the DCT coefficient output from the transform unit 6 according to the quantization parameter output from the encoding control unit 7, and uses the quantization DCT coefficient as a quantization coefficient, and the inverse quantization unit 9 and The process which outputs to the entropy encoding part 15 is implemented.
However, when the quantizing unit 8 quantizes the DCT coefficient output from the converting unit 6, the quantizing unit 8 refers to the component of the DCT coefficient output from the converting unit 6, and inputs the input image (for example, 8 × 8 to be encoded). Block) is a flat texture. If the input image is not a flat texture, the AC and DC components of the DCT coefficient are quantized. If the input image is a flat texture, the DCT The DC component of the coefficient is corrected, and the AC component and the corrected DC component of the DCT coefficient are quantized.
The encoding control unit 7 and the quantization unit 8 constitute quantization means.

逆量子化部9は符号化制御部7から出力された量子化パラメータにしたがって、量子化部8から出力された量子化係数を逆量子化し、その逆量子化結果であるDCT係数を逆変換部10に出力する処理を実施する。
逆変換部10は逆量子化部9から出力されたDCT係数を逆離散コサイン変換(逆DCT)して、その予測差分信号を時間領域の信号から空間領域の信号に戻すことで、その逆離散コサイン変換結果を示す予測誤差信号(減算器5から出力された予測差分信号に相当する信号)を加算器11に出力する処理を実施する。
The inverse quantization unit 9 inversely quantizes the quantization coefficient output from the quantization unit 8 in accordance with the quantization parameter output from the encoding control unit 7 and converts the DCT coefficient that is the inverse quantization result into an inverse conversion unit. 10 is executed.
The inverse transform unit 10 performs inverse discrete cosine transform (inverse DCT) on the DCT coefficient output from the inverse quantization unit 9, and returns the prediction difference signal from the time domain signal to the spatial domain signal, thereby obtaining the inverse discrete signal. A process of outputting a prediction error signal (a signal corresponding to the prediction difference signal output from the subtractor 5) indicating the cosine transform result to the adder 11 is performed.

加算器11は選択スイッチ4から出力された予測信号と逆変換部10から出力された予測誤差信号を加算することで局部復号信号を算出し、その局部復号信号をイントラ予測用メモリ12に出力する処理を実施する。
イントラ予測用メモリ12は加算器11から出力された局部復号信号を格納する例えばRAMなどの記録媒体である。
The adder 11 calculates a local decoded signal by adding the prediction signal output from the selection switch 4 and the prediction error signal output from the inverse transform unit 10, and outputs the local decoded signal to the intra prediction memory 12. Implement the process.
The intra prediction memory 12 is a recording medium such as a RAM for storing the local decoded signal output from the adder 11.

ループフィルタ13はイントラ予測用メモリ12に格納されている局部復号信号に対してデブロッキングフィルタ処理を実施し、フィルタ処理後の局部復号信号である局部復号画像信号を動き補償予測用フレームメモリ14に出力する処理を実施する。
動き補償予測用フレームメモリ14はループフィルタ13から出力された局部復号画像信号を格納する例えばRAMなどの記録媒体である。
The loop filter 13 performs deblocking filter processing on the local decoded signal stored in the intra prediction memory 12, and the local decoded image signal, which is the local decoded signal after the filter processing, is stored in the motion compensated prediction frame memory 14. Perform the output process.
The motion compensation prediction frame memory 14 is a recording medium such as a RAM for storing the locally decoded image signal output from the loop filter 13.

エントロピー符号化部15はイントラ予測部1から出力されたイントラ予測方式情報と、動き検出部2から出力された動きベクトルと、選択スイッチ4から出力された予測信号選択情報と、符号化制御部7から出力された量子化パラメータと、量子化部8から出力された量子化係数と、その他の必要な情報とをエントロピー符号化し、その符号化結果を示す符号化データを出力する処理を実施する。なお、エントロピー符号化部15は可変長符号化手段を構成している。   The entropy encoding unit 15 includes the intra prediction method information output from the intra prediction unit 1, the motion vector output from the motion detection unit 2, the prediction signal selection information output from the selection switch 4, and the encoding control unit 7 The entropy encoding is performed on the quantization parameter output from, the quantization coefficient output from the quantization unit 8 and other necessary information, and the encoded data indicating the encoding result is output. The entropy encoding unit 15 constitutes variable length encoding means.

図1では、画像符号化装置の構成要素であるイントラ予測部1、動き検出部2、動き補償予測部3、選択スイッチ4、減算器5、変換部6、符号化制御部7、量子化部8、逆量子化部9、逆変換部10、加算器11、ループフィルタ13及びエントロピー符号化部15のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路や、ワンチップマイコンなど)で構成されているものを想定しているが、画像符号化装置がコンピュータで構成されている場合、イントラ予測部1、動き検出部2、動き補償予測部3、選択スイッチ4、減算器5、変換部6、符号化制御部7、量子化部8、逆量子化部9、逆変換部10、加算器11、ループフィルタ13及びエントロピー符号化部15の処理内容を記述しているプログラムを当該コンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されているプログラムを実行するようにしてもよい。   In FIG. 1, an intra prediction unit 1, a motion detection unit 2, a motion compensation prediction unit 3, a selection switch 4, a subtracter 5, a conversion unit 6, a coding control unit 7, and a quantization unit, which are components of the image coding device. 8, each of the inverse quantization unit 9, the inverse transform unit 10, the adder 11, the loop filter 13, and the entropy encoding unit 15 has dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, etc. However, when the image encoding device is configured by a computer, an intra prediction unit 1, a motion detection unit 2, a motion compensation prediction unit 3, a selection switch 4, a subtractor 5, a program describing processing contents of the transform unit 6, the encoding control unit 7, the quantization unit 8, the inverse quantization unit 9, the inverse transform unit 10, the adder 11, the loop filter 13 and the entropy coding unit 15. The Stored in the memory of the computer, CPU of the computer may execute a program stored in the memory.

図2はこの発明の実施の形態1による画像符号化装置の量子化部8の内部を示す構成図である。
図2において、信号判定部21は変換部6から出力されたDCT係数におけるAC成分のうち、絶対値が所定の閾値Sthを越えているAC成分の個数NACを計数して、その個数NACが規定数N(規定数Nは予め定められている1以上の正数)以上であるか否かを判定し、その個数NACが規定数N未満であれば、入力画像が平坦なテクスチャであると認識し、その個数NACが規定数N以上であれば、入力画像が複雑なテクスチャであると認識(平坦なテクスチャでないと認識)する処理を実施する。
FIG. 2 is a block diagram showing the inside of the quantization unit 8 of the image coding apparatus according to Embodiment 1 of the present invention.
In FIG. 2, the signal determination unit 21 counts the number N AC of AC components whose absolute values exceed a predetermined threshold S th among the AC components in the DCT coefficients output from the conversion unit 6, and the number N AC is the prescribed number N R (predetermined number N R is one or more positive numbers is predetermined) determines whether more, if the number N AC is lower than the specified number N R, the input image If the texture is recognized as a flat texture and the number NAC is equal to or greater than the specified number N R , a process of recognizing that the input image is a complex texture (recognizing that the texture is not a flat texture) is performed.

DC成分補正部22は信号判定部21により入力画像が平坦なテクスチャであると認識された場合、変換部6から出力されたDCT係数におけるAC成分の絶対値の総和に応じて、そのDCT係数のDC成分を補正する処理を実施する。
量子化処理部23は信号判定部21により入力画像が複雑なテクスチャであると認識されている場合、符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数のAC成分及びDC成分(DC成分補正部22により補正されていないDC成分)を量子化し、信号判定部21により入力画像が平坦なテクスチャであると認識されている場合、符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数のAC成分及び補正後のDC成分(DC成分補正部22により補正されたDC成分)を量子化する処理を実施する。
When the signal determination unit 21 recognizes that the input image has a flat texture, the DC component correction unit 22 determines the DCT coefficient according to the sum of the absolute values of the AC components in the DCT coefficient output from the conversion unit 6. A process of correcting the DC component is performed.
When the signal determination unit 21 recognizes that the input image has a complex texture, the quantization processing unit 23 outputs the DCT coefficient output from the conversion unit 6 according to the quantization parameter output from the encoding control unit 7. When the signal determination unit 21 recognizes that the input image has a flat texture, the encoding control unit 7 determines that the AC component and the DC component (DC component not corrected by the DC component correction unit 22) are quantized. In accordance with the output quantization parameter, a process of quantizing the AC component of the DCT coefficient output from the conversion unit 6 and the DC component after correction (the DC component corrected by the DC component correction unit 22) is performed.

次に動作について説明する。
イントラ予測部1は、マクロブロック単位の画像信号を入力すると、イントラ予測用メモリ12に格納されている局部復号信号を使用して、その画像信号を構成している輝度信号および色差信号に対するイントラ予測処理を実施する。
AVCでは、輝度信号に対するイントラ予測処理として、4×4ブロックを一単位とする方式で9種類、8×8ブロックを一単位とする方式で9種類、16×16ブロックを一単位とする方式で4種類が、色差信号に対するイントラ予測処理として4種類がそれぞれ定義されており、イントラ予測部1では、定義されているイントラ予測方式の中から、使用するイントラ予測方式を決定し、そのイントラ予測方式でイントラ予測処理を実施する。
イントラ予測部1は、入力信号に対するイントラ予測処理を実施することで予測画像を生成すると、その予測画像を示すイントラ予測信号を選択スイッチ4に出力し、その決定したイントラ予測方式を示すイントラ予測方式情報をエントロピー符号化部15に出力する。
イントラ予測部1における予測画像の生成処理自体は公知の技術であるため詳細な説明を省略する。
Next, the operation will be described.
When the intra prediction unit 1 receives an image signal in units of macro blocks, the intra prediction unit 1 uses the local decoded signal stored in the intra prediction memory 12 to perform intra prediction on the luminance signal and the color difference signal constituting the image signal. Implement the process.
In AVC, as an intra prediction process for a luminance signal, there are 9 types with a 4 × 4 block as a unit, 9 types with a 8 × 8 block as a unit, and 16 × 16 blocks as a unit. Four types are defined as intra prediction processes for color difference signals, and the intra prediction unit 1 determines an intra prediction method to be used from the defined intra prediction methods, and the intra prediction method. Intra prediction processing is performed.
When the intra prediction unit 1 generates a prediction image by performing an intra prediction process on the input signal, the intra prediction unit 1 outputs an intra prediction signal indicating the prediction image to the selection switch 4 and indicates the determined intra prediction method. Information is output to the entropy encoding unit 15.
Since the prediction image generation process itself in the intra prediction unit 1 is a known technique, a detailed description thereof will be omitted.

動き検出部2は、マクロブロック単位の画像信号を入力すると、その画像信号と動き補償予測用フレームメモリ14に格納されている局部復号画像信号との間で動きを検出し、その動きを示す動きベクトルを動き補償予測部3及びエントロピー符号化部15に出力する。
動き検出部2における動きベクトルの検出処理自体は公知の技術であるため詳細な説明を省略する。
When an image signal in units of macroblocks is input, the motion detection unit 2 detects a motion between the image signal and the locally decoded image signal stored in the motion compensation prediction frame memory 14, and a motion indicating the motion The vector is output to the motion compensation prediction unit 3 and the entropy encoding unit 15.
Since the motion vector detection process itself in the motion detector 2 is a known technique, a detailed description thereof will be omitted.

動き補償予測部3は、動き検出部2から動きベクトルを受けると、その動きベクトルと動き補償予測用フレームメモリ14に格納されている局部復号画像信号を用いて予測画像を生成し、その予測画像を示す動き補償予測信号を選択スイッチ4に出力する。
動き補償予測部3における予測画像の生成処理自体は公知の技術であるため詳細な説明を省略する。
When the motion compensation prediction unit 3 receives the motion vector from the motion detection unit 2, the motion compensation prediction unit 3 generates a prediction image using the motion vector and the locally decoded image signal stored in the motion compensation prediction frame memory 14, and the prediction image Is output to the selection switch 4.
Since the prediction image generation process itself in the motion compensation prediction unit 3 is a known technique, a detailed description thereof is omitted.

選択スイッチ4は、イントラ予測部1からイントラ予測信号を受け、動き補償予測部3から動き補償予測信号を受けると、例えば、符号化制御部7の指示の下、イントラ予測信号又は動き補償予測信号のいずれか一方を予測信号として選択し、その予測信号を減算器5及び加算器11に出力する。
また、選択スイッチ4は、イントラ予測信号又は動き補償予測信号のいずれを選択したかを示す予測信号選択情報をエントロピー符号化部15に出力する。
減算器5は、マクロブロック単位の画像信号を入力すると、その画像信号と選択スイッチ4から出力された予測信号の差分を算出し、その差分を示す予測差分信号を変換部6に出力する。
When the selection switch 4 receives the intra prediction signal from the intra prediction unit 1 and the motion compensation prediction signal from the motion compensation prediction unit 3, for example, under the instruction of the encoding control unit 7, the selection switch 4 receives the intra prediction signal or the motion compensation prediction signal. Is selected as a prediction signal, and the prediction signal is output to the subtracter 5 and the adder 11.
Further, the selection switch 4 outputs prediction signal selection information indicating which of the intra prediction signal or the motion compensation prediction signal is selected to the entropy encoding unit 15.
When the image signal in units of macroblocks is input, the subtracter 5 calculates a difference between the image signal and the prediction signal output from the selection switch 4, and outputs a prediction difference signal indicating the difference to the conversion unit 6.

変換部6は、減算器5から予測差分信号を受けると、その予測差分信号を離散コサイン変換(DCT)して、その離散コサイン変換結果を示すDCT係数を量子化部8に出力する。
ここで、図3は変換部6によって得られる64個の変換係数のインデックスを示す説明図である。
図6において、「DC」は変換係数におけるDC成分であり、「AC」は変換係数におけるAC成分である。
このとき、図4に示すようなバースト雑音が重畳されている8×8ブロックの画像信号が変換部6に入力された場合、変換部6が離散コサイン変換(DCT)を行うと、図5に示すようなDCT係数が得られる。
したがって、背景技術の欄で説明したように、量子化部8が符号量の増加を抑えるために、単純に粗い量子化を行う(後述するDC成分の補正を行わずに、DCT係数の量子化を行う)と、復号画像信号には符号化雑音が多く発生してしまうことになる。
そこで、この実施の形態1では、量子化部8が以下に示すようなDCT係数の量子化を行うようにしている。
When receiving the prediction difference signal from the subtractor 5, the conversion unit 6 performs a discrete cosine transform (DCT) on the prediction difference signal and outputs a DCT coefficient indicating the result of the discrete cosine transformation to the quantization unit 8.
Here, FIG. 3 is an explanatory diagram showing indexes of 64 transform coefficients obtained by the transform unit 6.
In FIG. 6, “DC” is a DC component in the conversion coefficient, and “AC” is an AC component in the conversion coefficient.
At this time, when an 8 × 8 block image signal on which burst noise as shown in FIG. 4 is superimposed is input to the conversion unit 6, when the conversion unit 6 performs discrete cosine transform (DCT), FIG. DCT coefficients as shown are obtained.
Therefore, as described in the background art section, the quantizing unit 8 simply performs coarse quantization in order to suppress the increase in the code amount (the DCT coefficient quantization without correcting the DC component described later). ), A large amount of coding noise is generated in the decoded image signal.
Therefore, in the first embodiment, the quantization unit 8 performs the quantization of DCT coefficients as described below.

入力画像(符号化対象の8×8ブロック)が平坦なテクスチャである場合、変換部6から出力されたDCT係数のうち、63個のAC成分の絶対値の全てが“0”に近い小さな値をとる傾向がある。
一方、入力画像が複雑なテクスチャである場合、63個のAC成分の中に、絶対値が大きなAC成分が複数含まれる傾向がある。
そこで、量子化部8の信号判定部21は、変換部6からDCT係数を受けると、そのDCT係数におけるAC成分のうち、絶対値が所定の閾値Sthを越えているAC成分の個数NACを計数して、その個数NACが規定数N以上であるか否かを判定する。
信号判定部21は、絶対値が閾値Sthを越えているAC成分の個数NACが規定数N未満であれば(NAC<N)、入力画像が平坦なテクスチャであると認識する。
一方、絶対値が閾値Sthを越えているAC成分の個数NACが規定数N以上であれば(NAC≧N)、入力画像が複雑なテクスチャであると認識する。
When the input image (8 × 8 block to be encoded) has a flat texture, among the DCT coefficients output from the conversion unit 6, all the absolute values of the 63 AC components are small values close to “0”. There is a tendency to take.
On the other hand, when the input image has a complicated texture, 63 AC components tend to include a plurality of AC components having large absolute values.
Therefore, when the signal determination unit 21 of the quantization unit 8 receives the DCT coefficient from the conversion unit 6, the number N AC of AC components whose absolute value exceeds a predetermined threshold S th among the AC components in the DCT coefficient. To determine whether the number N AC is equal to or greater than a specified number N R.
The signal determination unit 21 recognizes that the input image has a flat texture if the number N AC of AC components whose absolute value exceeds the threshold S th is less than the specified number N R (N AC <N R ). .
On the other hand, if the number N AC of AC components whose absolute value exceeds the threshold value S th is equal to or greater than the specified number N R (N AC ≧ N R ), the input image is recognized as a complex texture.

量子化部8のDC成分補正部22は、信号判定部21により入力画像が平坦なテクスチャであると認識された場合(例えば、変換部6から図5に示すようなDCT係数が出力された場合)、DC成分の値が“808”であり、バースト雑音が含まれていないときの“800”よりも、“8”だけ大きい値をとっているので、DC成分の値が“800”になるような補正処理を行う。
バースト雑音が含まれている場合、実験結果より、DCT係数における63個のAC成分の絶対値の総和が、バースト雑音の影響で、DC成分の値が変化してしまう値と比例関係にあることが分かっている。
8×8ブロックの場合には、AC成分の絶対値の総和を“54.8348”で除した値を使用することで、バースト雑音の影響を除去したDC成分が得られる。
The DC component correction unit 22 of the quantization unit 8 recognizes that the input image has a flat texture by the signal determination unit 21 (for example, when a DCT coefficient as shown in FIG. 5 is output from the conversion unit 6. ) The value of the DC component is “808”, which is larger by “8” than “800” when no burst noise is included, so the value of the DC component is “800”. Such correction processing is performed.
When burst noise is included, from the experimental results, the sum of the absolute values of the 63 AC components in the DCT coefficient is proportional to the value at which the DC component value changes due to the influence of burst noise. I know.
In the case of an 8 × 8 block, by using a value obtained by dividing the sum of absolute values of AC components by “54.8348”, a DC component from which the influence of burst noise is removed can be obtained.

そこで、DC成分補正部22は、下記の式(1)に示すように、変換部6から出力されたDCT係数におけるAC成分の絶対値の総和に応じて、そのDCT係数のDC成分を補正するようにしている。
DC(補正値)
=DC(入力値)+α・(AC成分の絶対値の総和)÷54.8348 (1)
Therefore, the DC component correction unit 22 corrects the DC component of the DCT coefficient according to the sum of the absolute values of the AC components in the DCT coefficient output from the conversion unit 6, as shown in the following equation (1). I am doing so.
DC (correction value)
= DC (input value) + α · (sum of absolute values of AC components) ÷ 54.8348 (1)

ただし、式(1)における「α」は定数であり、“+1”もしくは“−1”の値をとるが、AC成分の値だけからは決定することができないので、周辺の符号化済みブロックのDC成分の値と比較して「α」の値を決定する。
即ち、平坦な領域は連続している傾向にあるため、DC成分の値も連続している傾向にある。
そこで、周辺の符号化済みブロックのDC成分と比較して、入力された符号化対象のDC成分の方が大きければ、α=−1に決定し、逆に、符号化対象のDC成分の方が小さければα=+1に決定する。
なお、周辺の符号化済みブロックとしては、隣接する左のブロックや上のブロックを使用する。さらに、左斜め上や右斜め上のブロック、あるいは、左に2つ離れたブロックや上に2つ離れたブロックのような遠方のブロックのDCT係数を使用すれば、「α」の値の信頼性を高めることができる。
However, “α” in equation (1) is a constant and takes a value of “+1” or “−1”, but cannot be determined only from the value of the AC component. The value of “α” is determined by comparison with the value of the DC component.
That is, since the flat region tends to be continuous, the value of the DC component also tends to be continuous.
Therefore, if the input DC component to be encoded is larger than the DC components of the surrounding encoded blocks, α = −1 is determined. Conversely, the DC component to be encoded is Is small, α = + 1 is determined.
It should be noted that adjacent left blocks and upper blocks are used as peripheral encoded blocks. In addition, if the DCT coefficient of the block on the left or upper right, or the block far away such as two blocks left or two blocks above is used, the reliability of the value of “α” can be obtained. Can increase the sex.

量子化部8の量子化処理部23は、信号判定部21により入力画像が複雑なテクスチャであると認識されている場合、符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数のAC成分及びDC成分(DC成分補正部22により補正されていないDC成分)を量子化し、量子化後のDCT係数を量子化係数として、逆量子化部9及びエントロピー符号化部15に出力する。
一方、信号判定部21により入力画像が平坦なテクスチャであると認識されている場合、符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数のAC成分及び補正後のDC成分(DC成分補正部22により補正されたDC成分)を量子化し、量子化後のDCT係数を量子化係数として、逆量子化部9及びエントロピー符号化部15に出力する。
When the signal determination unit 21 recognizes that the input image has a complex texture, the quantization processing unit 23 of the quantization unit 8 converts the conversion unit 6 according to the quantization parameter output from the encoding control unit 7. Quantize the AC component and DC component (DC component not corrected by the DC component correction unit 22) of the DCT coefficient output from the DCT coefficient and use the quantized DCT coefficient as a quantization coefficient, and the inverse quantization unit 9 and the entropy code To the conversion unit 15.
On the other hand, when the signal determination unit 21 recognizes that the input image has a flat texture, according to the quantization parameter output from the encoding control unit 7, the AC component of the DCT coefficient output from the conversion unit 6 and The corrected DC component (the DC component corrected by the DC component correction unit 22) is quantized, and the quantized DCT coefficient is output to the inverse quantization unit 9 and the entropy encoding unit 15 as a quantization coefficient.

逆量子化部9は、量子化部8から量子化係数を受けると、符号化制御部7から出力された量子化パラメータにしたがって、その量子化係数を逆量子化し、その逆量子化結果であるDCT係数を逆変換部10に出力する。
逆変換部10は、逆量子化部9からDCT係数を受けると、そのDCT係数を逆離散コサイン変換(逆DCT)して、その予測差分信号を時間領域の信号から空間領域の信号に戻すことで、その逆離散コサイン変換結果を示す予測誤差信号(減算器5から出力された予測差分信号に相当する信号)を加算器11に出力する。
When the inverse quantization unit 9 receives the quantization coefficient from the quantization unit 8, the inverse quantization unit 9 inversely quantizes the quantization coefficient in accordance with the quantization parameter output from the encoding control unit 7, and the inverse quantization result is obtained. The DCT coefficient is output to the inverse transform unit 10.
When the inverse transform unit 10 receives the DCT coefficient from the inverse quantization unit 9, the inverse transform unit 10 performs inverse discrete cosine transform (inverse DCT) on the DCT coefficient and returns the prediction difference signal from the time domain signal to the spatial domain signal. Then, a prediction error signal indicating the inverse discrete cosine transform result (a signal corresponding to the prediction difference signal output from the subtractor 5) is output to the adder 11.

加算器11は、選択スイッチ4から予測信号を受け、逆変換部10から予測誤差信号を受けると、次の符号化処理に備えるために、その予測信号と予測誤差信号を加算することで局部復号信号を算出し、その局部復号信号をイントラ予測用メモリ12に格納する。
ループフィルタ13は、加算器11が局部復号信号をイントラ予測用メモリ12に格納すると、その局部復号信号に対してデブロッキングフィルタ処理を実施し、フィルタ処理後の局部復号信号である局部復号画像信号を動き補償予測用フレームメモリ14に格納する。
When the adder 11 receives the prediction signal from the selection switch 4 and receives the prediction error signal from the inverse transform unit 10, the adder 11 adds the prediction signal and the prediction error signal in order to prepare for the next encoding process. The signal is calculated, and the locally decoded signal is stored in the intra prediction memory 12.
When the adder 11 stores the local decoded signal in the intra prediction memory 12, the loop filter 13 performs a deblocking filter process on the local decoded signal, and a local decoded image signal which is a local decoded signal after the filter process Are stored in the motion compensation prediction frame memory 14.

エントロピー符号化部15は、イントラ予測部1から出力されたイントラ予測方式情報と、動き検出部2から出力された動きベクトルと、選択スイッチ4から出力された予測信号選択情報と、符号化制御部7から出力された量子化パラメータと、量子化部8から出力された量子化係数と、その他の必要な情報とをエントロピー符号化し、その符号化結果を示す符号化データを出力する。   The entropy encoding unit 15 includes intra prediction scheme information output from the intra prediction unit 1, a motion vector output from the motion detection unit 2, prediction signal selection information output from the selection switch 4, and an encoding control unit. 7 is entropy-coded with the quantization parameter output from 7, the quantization coefficient output from the quantization unit 8, and other necessary information, and outputs encoded data indicating the encoding result.

以上で明らかなように、この実施の形態1によれば、量子化部8が、変換部6から出力されたDCT係数の成分を参照して、入力画像が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、そのDCT係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、そのDCT係数のDC成分を補正して、そのDCT係数のAC成分及び補正後のDC成分を量子化するように構成したので、細かな量子化を行うことなく、バースト雑音の影響を軽減することができる効果を奏する。   As apparent from the above, according to the first embodiment, the quantization unit 8 refers to the DCT coefficient component output from the conversion unit 6 to determine whether or not the input image has a flat texture. If the input image is not a flat texture, the AC and DC components of the DCT coefficient are quantized. If the input image is a flat texture, the DC component of the DCT coefficient is corrected and the DCT coefficient is corrected. Since the AC component and the DC component after correction are quantized, there is an effect that the influence of burst noise can be reduced without performing fine quantization.

なお、この実施の形態1では、DC成分補正部22が、周辺の符号化済みブロックのDC成分の値と比較して「α」の値を決定するものについて示したが、変換部6から出力されたDCT係数を“8”で除算し、その除算結果であるDC’と、減算器5から変換部6に与えられる予測差分信号における64個の画素の中のM個の画素(Mは1以上の正数)の大小関係を比較して、「α」の値を決定するようにしてもよい。
DC’は、バースト雑音を含むブロック内の64個の画素の平均値であり、DC成分補正部22の補正は、雑音を除いた63個の画素の平均値にする補正であるため、DC’の値と、雑音ではない画素の値と比較したときに、DC’の値の方が大きければ、α=−1に決定し、逆にDC’の値の方が小さければ、α=+1に決定するようにする。
ただし、M=1では、1/64の確率で雑音に当たってしまうため、信頼性の高い「α」を得るためには、M≧3以上とすることが望ましい。
In the first embodiment, the DC component correction unit 22 determines the value of “α” by comparing with the DC component values of the surrounding encoded blocks. The obtained DCT coefficient is divided by “8”, and DC ′ which is a result of the division and M pixels (M is 1) out of 64 pixels in the prediction difference signal supplied from the subtractor 5 to the conversion unit 6. The value of “α” may be determined by comparing the magnitude relationship of the above positive numbers).
DC ′ is an average value of 64 pixels in the block including burst noise, and the correction of the DC component correction unit 22 is correction to obtain an average value of 63 pixels excluding noise. When the value of DC ′ is larger than the value of the pixel that is not noise, α = −1 is determined. On the contrary, if the value of DC ′ is smaller, α = + 1 is determined. Make a decision.
However, when M = 1, noise is hit with a probability of 1/64. Therefore, in order to obtain “α” with high reliability, it is desirable that M ≧ 3 or more.

実施の形態2.
上記実施の形態1では、量子化部8の信号判定部21が、変換部6から出力されたDCT係数におけるAC成分のうち、絶対値が所定の閾値Sthを越えているAC成分の個数NACを計数して、その個数NACが規定数N以上であるか否かを判定し、その個数NACが規定数N未満であれば、入力画像が平坦なテクスチャであると認識し、その個数NACが規定数N以上であれば、入力画像が複雑なテクスチャであると認識するものについて示したが、入力画像が平坦なテクスチャであるか否かを更に精度良く識別するために、処理対象の画像信号に係るブロックの周辺に位置しているブロックが平坦なテクスチャである場合、周辺に位置しているブロックが平坦なテクスチャでない場合より、閾値Sth又は規定数Nを大きな値に設定して、その画像信号に係るブロックが平坦なテクスチャであるか否かを判定するようにしてもよい。
Embodiment 2. FIG.
In the first embodiment, the signal determination unit 21 of the quantization unit 8 includes the number N of AC components whose absolute values exceed the predetermined threshold S th among the AC components in the DCT coefficients output from the conversion unit 6. counts the AC, it is determined whether the number N or AC is the specified number N R above, if the number N AC is lower than the specified number N R, an input image is recognized as a flat texture However, in order to identify whether or not the input image has a flat texture, the input image is recognized as a complex texture if the number N AC is equal to or greater than the specified number N R. In addition, when the block located in the periphery of the block related to the image signal to be processed has a flat texture, the threshold value S th or the specified number N R is set as compared with the case where the block located in the periphery is not a flat texture. Big It is also possible to determine whether or not the block relating to the image signal has a flat texture.

具体的には、以下の通りである。
上記実施の形態1では、予め、閾値Sthを1つ用意しているが、この実施の形態2では、閾値Sthとして、閾値Sth1と閾値Sth2(Sth1<Sth2)を用意する。
ここでは、説明の簡単化のため、閾値Sthを2つ用意する例を説明するが、3つ以上用意するようにしてもよい。
Specifically, it is as follows.
In the first embodiment, one threshold value S th is prepared in advance. In the second embodiment, a threshold value S th1 and a threshold value S th2 (S th1 <S th2 ) are prepared as the threshold value S th. .
Here, for simplification of explanation, an example in which two threshold values Sth are prepared will be described, but three or more threshold values may be prepared.

信号判定部21は、既に判定処理が終えているブロックの判定結果(平坦なテクスチャであるか否かを示す判定結果)を記憶している。
信号判定部21は、符号化対象のブロックが平坦なテクスチャであるか否かを判定する際、既に判定処理が終えているブロックのうち、符号化対象のブロックの周辺に位置しているブロックの判定結果を参照する。
例えば、符号化対象のブロックの真上に位置しているブロックや、左側に位置しているブロックの判定結果を参照する。
The signal determination unit 21 stores a determination result (determination result indicating whether or not the texture is a flat texture) of a block that has already been determined.
When the signal determination unit 21 determines whether the block to be encoded has a flat texture, among the blocks that have already been subjected to the determination process, the signal determination unit 21 selects a block located around the block to be encoded. Refer to the judgment result.
For example, the determination result of the block located right above the block to be encoded or the block located on the left side is referred to.

周辺に位置しているブロックの判定結果が「平坦なテクスチャ」である旨を示していれば、平坦なブロックが連続している可能性が高い。
そこで、信号判定部21は、符号化対象のブロックが「平坦なテクスチャ」であると判別する可能性を高めるために、予め用意している2つの閾値のうち、大きい方の閾値Sth2を選択する。
そして、信号判定部21は、絶対値が閾値Sth2を越えているAC成分の個数NACを計数し、その個数NACが規定数N以上であるか否かを判定するようにする。
If the determination result of the blocks located in the vicinity indicates “flat texture”, there is a high possibility that the flat blocks are continuous.
Therefore, the signal determination unit 21 selects the larger threshold S th2 of the two thresholds prepared in advance in order to increase the possibility of determining that the block to be encoded is “flat texture”. To do.
Then, the signal determination unit 21 counts the number N AC of AC components whose absolute value exceeds the threshold value S th2 and determines whether or not the number N AC is equal to or greater than a specified number N R.

逆に、周辺に位置しているブロックの判定結果が「複雑なテクスチャ」である旨を示していれば、複雑なブロックが連続している可能性が高い。
そこで、信号判定部21は、符号化対象のブロックが「複雑なテクスチャ」であると判別する可能性を高めるために、予め用意している2つの閾値のうち、小さい方の閾値Sth1を選択する。
そして、信号判定部21は、絶対値が閾値Sth1を越えているAC成分の個数NACを計数し、その個数NACが規定数N以上であるか否かを判定するようにする。
On the other hand, if the determination result of the blocks located in the vicinity indicates “complex texture”, there is a high possibility that the complex blocks are continuous.
Therefore, the signal determination unit 21 selects the smaller threshold S th1 of the two thresholds prepared in advance in order to increase the possibility of determining that the block to be encoded is a “complex texture”. To do.
Then, the signal determination unit 21 counts the number N AC of AC components whose absolute value exceeds the threshold value S th1 and determines whether or not the number N AC is equal to or greater than a specified number N R.

ここでは、閾値Sthとして、閾値Sth1と閾値Sth2(Sth1<Sth2)を用意する例を示したが、規定数Nとして、規定数NR1と規定数NR2(NR1<NR2)を用意するようにしてもよい。
信号判定部21は、周辺に位置しているブロックの判定結果が「平坦なテクスチャ」である旨を示していれば、符号化対象のブロックが「平坦なテクスチャ」であると判別する可能性を高めるために、予め用意している2つの規定数のうち、大きい方の規定数NR2を選択する。
そして、信号判定部21は、絶対値が閾値Sthを越えているAC成分の個数NACを計数し、その個数NACが規定数NR2以上であるか否かを判定するようにする。
Here, an example in which the threshold value S th1 and the threshold value S th2 (S th1 <S th2 ) are prepared as the threshold value S th is shown, but as the specified number N R , the specified number N R1 and the specified number N R2 (N R1 < N R2 ) may be prepared.
If the determination result of the blocks located in the vicinity indicates that the block is a “flat texture”, the signal determination unit 21 may determine that the block to be encoded is a “flat texture”. In order to increase it, the larger prescribed number N R2 is selected from the two prescribed numbers prepared in advance.
Then, the signal determination unit 21 counts the number N AC of AC components whose absolute value exceeds the threshold value S th and determines whether or not the number N AC is equal to or greater than a specified number N R2 .

信号判定部21は、周辺に位置しているブロックの判定結果が「複雑なテクスチャ」である旨を示していれば、符号化対象のブロックが「複雑なテクスチャ」であると判別する可能性を高めるために、予め用意している2つの規定数のうち、小さい方の規定数NR1を選択する。
そして、信号判定部21は、絶対値が閾値Sthを越えているAC成分の個数NACを計数し、その個数NACが規定数NR1以上であるか否かを判定するようにする。
If the determination result of the blocks located in the vicinity indicates that the block is a “complex texture”, the signal determination unit 21 may determine that the block to be encoded is a “complex texture”. In order to increase it, the smaller prescribed number N R1 is selected from the two prescribed numbers prepared in advance.
Then, the signal determination unit 21 counts the number N AC of AC components whose absolute value exceeds the threshold value S th and determines whether or not the number N AC is equal to or greater than the specified number N R1 .

以上で明らかなように、この実施の形態2によれば、符号化対象のブロックの周辺に位置しているブロックが平坦なテクスチャである場合、周辺に位置しているブロックが複雑なテクスチャである場合より、閾値Sth又は規定数Nを大きな値に設定して、符号化対象のブロックが平坦なテクスチャであるか否かを判定するように構成したので、上記実施の形態1よりも、平坦なテクスチャであるか否かの判定精度を高めることができる効果を奏する。 As is apparent from the above, according to the second embodiment, when the block located around the encoding target block is a flat texture, the block located around is a complex texture. In some cases, the threshold value S th or the specified number N R is set to a large value and it is determined whether or not the block to be encoded is a flat texture. Therefore, compared to the first embodiment, There exists an effect which can improve the determination precision of whether it is a flat texture.

この実施の形態2では、符号化対象のブロックから空間的に近い位置に存在しているブロックの判定結果を参照するものについて示したが、符号化対象のブロックから時間方向で近い位置に存在しているブロックの判定結果を参照するようにしてもよい。
例えば、既に符号化が終了している一つ前のピクチャにおけるブロックの判定結果(例えば、当該ピクチャにおいて、符号化対象のブロックと空間的に同じ位置にあるブロックの判定結果)を参照するようにしてもよい。
この場合、判定結果が画面内で連続するようになるため、判定結果の信頼性を高めることができる。
In the second embodiment, the reference is made to the determination result of the block that is spatially close to the encoding target block. You may make it refer to the determination result of the block which is present.
For example, refer to the block determination result in the previous picture that has already been encoded (for example, the determination result of the block in the same position as the block to be encoded in the picture). May be.
In this case, since the determination result becomes continuous in the screen, the reliability of the determination result can be improved.

実施の形態3.
図6はこの発明の実施の形態3による画像符号化装置を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
量子化部16は符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数を量子化し、量子化のDCT係数を量子化係数として、逆量子化部9及びエントロピー符号化部15に出力する処理を実施する。
ただし、量子化部16は量子化後のDCT係数の成分を参照して、入力画像(例えば、符号化対象の8×8ブロック)が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、量子化後のDCT係数を可変長符号化部15に出力し、入力画像が平坦なテクスチャであれば、量子化後のDCT係数のDC成分を補正して、量子化後のDCT係数のAC成分及び補正後のDC成分を可変長符号化部15に出力する。
なお、符号化制御部7及び量子化部16から量子化手段が構成されている。
Embodiment 3 FIG.
6 is a block diagram showing an image coding apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
The quantization unit 16 quantizes the DCT coefficient output from the transform unit 6 according to the quantization parameter output from the encoding control unit 7, and uses the quantization DCT coefficient as the quantization coefficient, and the inverse quantization unit 9 and The process which outputs to the entropy encoding part 15 is implemented.
However, the quantization unit 16 refers to the quantized DCT coefficient component to determine whether or not the input image (eg, 8 × 8 block to be encoded) has a flat texture, and the input image is If the texture is not flat, the quantized DCT coefficient is output to the variable length coding unit 15, and if the input image is flat, the DC component of the quantized DCT coefficient is corrected and quantized. The AC component of the later DCT coefficient and the corrected DC component are output to the variable length coding unit 15.
Note that the encoding control unit 7 and the quantization unit 16 constitute quantization means.

図7はこの発明の実施の形態3による画像符号化装置の量子化部16の内部を示す構成図である。
図7において、量子化処理部31は符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数を量子化する処理を実施する。
また、量子化処理部31は量子化後のDCT係数におけるAC成分のうち、非ゼロのAC成分の個数NACを計数して、その個数ACが規定数N(規定数Nは予め定められている1以上の正数)以上であるか否かを判定し、その個数NACが規定数N未満であれば、入力画像が平坦なテクスチャであると認識し、その個数NACが規定数N以上であれば、入力画像が複雑なテクスチャであると認識(平坦なテクスチャでないと認識)する処理を実施する。
FIG. 7 is a block diagram showing the inside of the quantization unit 16 of the image coding apparatus according to Embodiment 3 of the present invention.
In FIG. 7, the quantization processing unit 31 performs a process of quantizing the DCT coefficient output from the conversion unit 6 according to the quantization parameter output from the encoding control unit 7.
Further, the quantization processing unit 31 counts the number N AC of non-zero AC components among the AC components in the quantized DCT coefficient, and the number AC is a predetermined number N R (the predetermined number N R is predetermined). If the number N AC is less than the specified number N R , the input image is recognized as a flat texture, and the number N AC is If it is equal to or greater than the prescribed number N R , a process of recognizing that the input image is a complex texture (recognizing that it is not a flat texture) is performed.

DC成分補正部32は量子化処理部31により入力画像が複雑なテクスチャであると認識された場合、量子化処理部31により量子化されたDCT係数を量子化係数として逆量子化部9及びエントロピー符号化部15に出力し、量子化処理部31により入力画像が平坦なテクスチャであると認識された場合、量子化処理部31により量子化されたDCT係数におけるAC成分の絶対値の総和に応じて、そのDCT係数のDC成分を補正し、そのDCT係数におけるAC成分及び補正後のDC成分を逆量子化部9及びエントロピー符号化部15に出力する処理を実施する。   When the quantization processing unit 31 recognizes that the input image has a complex texture, the DC component correction unit 32 uses the DCT coefficient quantized by the quantization processing unit 31 as a quantization coefficient, and the inverse quantization unit 9 and the entropy. When output to the encoding unit 15 and the quantization processing unit 31 recognizes that the input image has a flat texture, according to the sum of the absolute values of the AC components in the DCT coefficients quantized by the quantization processing unit 31 Then, the DC component of the DCT coefficient is corrected, and the AC component and the corrected DC component in the DCT coefficient are output to the inverse quantization unit 9 and the entropy encoding unit 15.

次に動作について説明する。
図1の画像符号化装置と比べて、量子化部8が量子化部16に代えられている点以外は同様であるため、量子化部16の処理内容のみを説明する。
Next, the operation will be described.
Compared with the image encoding device in FIG. 1, the quantization unit 8 is the same except that the quantization unit 16 is replaced. Therefore, only the processing content of the quantization unit 16 will be described.

量子化部16の量子化処理部31は、変換部6からDCT係数を受けると、符号化制御部7から出力された量子化パラメータにしたがって、そのDCT係数を量子化する。
また、量子化処理部31は、量子化後のDCT係数におけるAC成分のうち、非ゼロのAC成分の個数NACを計数して、その個数が規定数N(規定数Nは予め定められている1以上の正数)以上であるか否かを判定する。
量子化処理部31は、非ゼロのAC成分の個数NACが規定数N未満であれば(NAC<N)、入力画像(符号化対象の8×8ブロック)が平坦なテクスチャであると認識する。
一方、非ゼロのAC成分の個数NACが規定数N以上であれば(NAC≧N)、入力画像が複雑なテクスチャであると認識する。
When the quantization processing unit 31 of the quantization unit 16 receives the DCT coefficient from the conversion unit 6, the quantization processing unit 31 quantizes the DCT coefficient according to the quantization parameter output from the encoding control unit 7.
Further, the quantization processing unit 31 counts the number N AC of non-zero AC components among the AC components in the quantized DCT coefficient, and the number is a predetermined number N R (the predetermined number N R is predetermined). It is determined whether or not it is greater than or equal to one or more positive numbers.
If the number N AC of non-zero AC components is less than the specified number N R (N AC <N R ), the quantization processing unit 31 has a flat texture for the input image (8 × 8 block to be encoded). Recognize that there is.
On the other hand, if the number N AC of non-zero AC components is equal to or greater than the specified number N R (N AC ≧ N R ), the input image is recognized as a complex texture.

量子化部16のDC成分補正部32は、量子化処理部31により入力画像が複雑なテクスチャであると認識された場合、量子化処理部31により量子化されたDCT係数を量子化係数として逆量子化部9及びエントロピー符号化部15に出力する。
一方、量子化処理部31により入力画像が平坦なテクスチャであると認識された場合、下記の式(2)に示すように、量子化処理部31により量子化されたDCT係数におけるAC成分の絶対値の総和に応じて、そのDCT係数のDC成分を補正し、そのDCT係数におけるAC成分及び補正後のDC成分を逆量子化部9及びエントロピー符号化部15に出力する。
DC(補正値)
=DC(入力値)+α・(AC成分の絶対値の総和)÷54.8348 (2)
When the quantization processing unit 31 recognizes that the input image has a complex texture, the DC component correction unit 32 of the quantization unit 16 reverses the DCT coefficient quantized by the quantization processing unit 31 as a quantization coefficient. It outputs to the quantization part 9 and the entropy encoding part 15.
On the other hand, when the input image is recognized as a flat texture by the quantization processing unit 31, the absolute value of the AC component in the DCT coefficient quantized by the quantization processing unit 31 as shown in the following equation (2). The DC component of the DCT coefficient is corrected according to the sum of the values, and the AC component and the corrected DC component in the DCT coefficient are output to the inverse quantization unit 9 and the entropy encoding unit 15.
DC (correction value)
= DC (input value) + α · (sum of absolute values of AC components) ÷ 54.8348 (2)

ただし、式(2)における「α」は定数であり、“+1”もしくは“−1”の値をとるが、AC成分の値だけからは決定することができないので、周辺の符号化済みブロックのDC成分の値と比較して「α」の値を決定する。
即ち、平坦な領域は連続している傾向にあるため、DC成分の値も連続している傾向にある。
そこで、周辺の符号化済みブロックのDC成分と比較して、入力された符号化対象のDC成分の方が大きければ、α=−1に決定し、逆に、符号化対象のDC成分の方が小さければα=+1に決定する。
なお、周辺の符号化済みブロックとしては、隣接する左のブロックや上のブロックを使用する。さらに、左斜め上や右斜め上のブロック、あるいは、左に2つ離れたブロックや上に2つ離れたブロックのような遠方のブロックのDCT係数を使用すれば、「α」の値の信頼性を高めることができる。
However, “α” in equation (2) is a constant and takes a value of “+1” or “−1”, but cannot be determined only from the value of the AC component. The value of “α” is determined by comparison with the value of the DC component.
That is, since the flat region tends to be continuous, the value of the DC component also tends to be continuous.
Therefore, if the input DC component to be encoded is larger than the DC components of the surrounding encoded blocks, α = −1 is determined. Conversely, the DC component to be encoded is Is small, α = + 1 is determined.
It should be noted that adjacent left blocks and upper blocks are used as peripheral encoded blocks. In addition, if the DCT coefficient of the block on the left or upper right, or the block far away such as two blocks left or two blocks above is used, the reliability of the value of “α” can be obtained. Can increase the sex.

以上で明らかなように、この実施の形態3によれば、量子化部16が量子化後のDCT係数の成分を参照して、入力画像が平坦なテクスチャであるか否かを判定し、入力画像が複雑なテクスチャであれば、量子化後のDCT係数を可変長符号化部15に出力し、入力画像が平坦なテクスチャであれば、量子化後のDCT係数のDC成分を補正して、量子化後のDCT係数のAC成分及び補正後のDC成分を可変長符号化部15に出力するように構成したので、上記実施の形態1と同様に、細かな量子化を行うことなく、バースト雑音の影響を軽減することができる効果を奏する。
なお、この実施の形態3では、量子化処理部31が、入力画像が平坦なテクスチャであるか否かを判定するようにしているので、図2に示すような信号判定部21を設ける必要がなくなり、構成の簡略化を図ることができる効果を奏する。
As is apparent from the above, according to the third embodiment, the quantization unit 16 determines whether or not the input image has a flat texture by referring to the component of the DCT coefficient after quantization. If the image is a complex texture, the quantized DCT coefficient is output to the variable length coding unit 15, and if the input image is a flat texture, the DC component of the quantized DCT coefficient is corrected, Since the configuration is such that the AC component of the DCT coefficient after quantization and the DC component after correction are output to the variable-length encoding unit 15, the burst can be performed without performing detailed quantization as in the first embodiment. There is an effect that the influence of noise can be reduced.
In the third embodiment, since the quantization processing unit 31 determines whether or not the input image has a flat texture, it is necessary to provide a signal determination unit 21 as shown in FIG. There is an effect that the configuration can be simplified.

実施の形態4.
図8はこの発明の実施の形態4による画像符号化装置を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
量子化部17は符号化制御部7から出力された量子化パラメータにしたがって、変換部6から出力されたDCT係数を量子化し、量子化のDCT係数を量子化係数として、逆量子化部9及びエントロピー符号化部15に出力する処理を実施する。
ただし、量子化部17は変換部6から出力されたDCT係数の成分を参照して、入力画像(例えば、符号化対象の8×8ブロック)が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、そのDCT係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、そのDCT係数のDC成分を量子化するとともに、そのDCT係数における全てのAC成分をゼロに量子化する。
なお、符号化制御部7及び量子化部17から量子化手段が構成されている。
Embodiment 4 FIG.
FIG. 8 is a block diagram showing an image coding apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
The quantization unit 17 quantizes the DCT coefficient output from the transform unit 6 according to the quantization parameter output from the encoding control unit 7, and uses the quantization DCT coefficient as the quantization coefficient, and the inverse quantization unit 9 and The process which outputs to the entropy encoding part 15 is implemented.
However, the quantization unit 17 refers to the DCT coefficient component output from the conversion unit 6 to determine whether or not the input image (for example, the 8 × 8 block to be encoded) has a flat texture. If the input image is not a flat texture, the AC component and DC component of the DCT coefficient are quantized. If the input image is a flat texture, the DC component of the DCT coefficient is quantized and all the DCT coefficients in the DCT coefficient are quantized. Is quantized to zero.
The encoding control unit 7 and the quantization unit 17 constitute quantization means.

次に動作について説明する。
図1の画像符号化装置と比べて、量子化部8が量子化部17に代えられている点以外は同様であるため、量子化部17の処理内容のみを説明する。
図9は変換部6から出力された図5のDCT係数に対して、やや粗い量子化が行われた後に、逆量子化及び逆変換が行われた場合の局部復号画像信号を示す説明図である。
図9の場合、26個の非ゼロのAC成分を用いて符号化処理を行っている例であるが、多くの符号量を要しているにも関わらず、ブロック内のほとんどの画素が元の画素の値と異なっていることがわかる。
Next, the operation will be described.
Compared with the image encoding device in FIG. 1, the quantization unit 8 is the same except that it is replaced with the quantization unit 17, so only the processing content of the quantization unit 17 will be described.
FIG. 9 is an explanatory diagram showing a locally decoded image signal when inverse quantization and inverse transformation are performed on the DCT coefficient of FIG. 5 output from the transformation unit 6 after a slightly coarse quantization. is there.
FIG. 9 shows an example in which encoding processing is performed using 26 non-zero AC components. However, although a large amount of code is required, most pixels in the block are original. It can be seen that this is different from the pixel value of.

そこで、この実施の形態4では、図5のようにバースト雑音を変換して得られたとみなせるAC成分については、全てゼロに量子化するようにする。
即ち、量子化部17は、変換部6からDCT係数を受けると、そのDCT係数の成分を参照して、入力画像(符号化対象の8×8ブロック)が平坦なテクスチャであるか否かを判定する。
例えば、上記実施の形態1と同様に、変換部6から出力されたDCT係数におけるAC成分のうち、絶対値が所定の閾値Sthを越えているAC成分の個数NACが規定数N未満であれば、入力画像が平坦なテクスチャであると認識する。
一方、絶対値が所定の閾値Sthを越えているAC成分の個数NACが規定数N以上であれば、入力画像が複雑なテクスチャであると認識する。
Therefore, in the fourth embodiment, all AC components that can be regarded as obtained by converting burst noise as shown in FIG. 5 are quantized to zero.
That is, when the quantizing unit 17 receives the DCT coefficient from the converting unit 6, the quantizing unit 17 refers to the component of the DCT coefficient and determines whether or not the input image (8 × 8 block to be encoded) has a flat texture. judge.
For example, as in the first embodiment, among the AC components in the DCT coefficient output from the conversion unit 6, the number N AC of AC components whose absolute value exceeds a predetermined threshold S th is less than the specified number N R. If so, the input image is recognized as a flat texture.
On the other hand, if the number N AC of AC components whose absolute value exceeds the predetermined threshold S th is equal to or greater than the specified number N R , the input image is recognized as a complex texture.

量子化部17は、入力画像が複雑なテクスチャであると認識すると、変換部6から出力されたDCT係数のAC成分及びDC成分を量子化し、量子化後のDCT係数を量子化係数として逆量子化部9及びエントロピー符号化部15に出力する。
量子化部17は、入力画像が平坦なテクスチャであると認識すると、変換部6から出力されたDCT係数のDC成分を量子化するとともに、そのDCT係数における全てのAC成分をゼロに量子化し、量子化後のDCT係数を量子化係数として逆量子化部9及びエントロピー符号化部15に出力する。
When the quantization unit 17 recognizes that the input image has a complex texture, the quantization unit 17 quantizes the AC component and the DC component of the DCT coefficient output from the conversion unit 6, and performs inverse quantization using the quantized DCT coefficient as a quantization coefficient. To the encoding unit 9 and the entropy encoding unit 15.
When the quantizing unit 17 recognizes that the input image has a flat texture, the quantizing unit 17 quantizes the DC component of the DCT coefficient output from the converting unit 6 and quantizes all the AC components in the DCT coefficient to zero. The quantized DCT coefficient is output to the inverse quantization unit 9 and the entropy coding unit 15 as a quantization coefficient.

これにより、全てのAC成分はゼロになり、DC成分だけから復号されることになるため、図9のように復号された画素の値がばらばらにはならず、平坦な復号画像信号を得ることができ、符号化雑音の影響を減らすことが可能になる。
ただし、全てのAC成分を符号化できるような細かい量子化を行う場合には、本手法を用いることなく、通常の符号化処理を実施することで、多くの符号量を使用して高画質に符号化すればよい。
As a result, all AC components become zero and are decoded from only the DC component, so that the decoded pixel values do not vary as shown in FIG. 9, and a flat decoded image signal is obtained. Thus, the influence of coding noise can be reduced.
However, when performing fine quantization that can encode all AC components, high-quality images can be obtained using a large amount of code by performing normal encoding processing without using this method. What is necessary is just to encode.

以上で明らかなように、この実施の形態4によれば、量子化部17が、変換部6から出力されたDCT係数の成分を参照して、入力画像が平坦なテクスチャであるか否かを判定し、入力画像が平坦なテクスチャでなければ、そのDCT係数のAC成分及びDC成分を量子化し、入力画像が平坦なテクスチャであれば、そのDCT係数のDC成分を量子化するとともに、そのDCT係数における全てのAC成分をゼロに量子化するように構成したので、上記実施の形態1と同様に、細かな量子化を行うことなく、バースト雑音の影響を軽減することができる効果を奏する。   As apparent from the above, according to the fourth embodiment, the quantization unit 17 refers to the DCT coefficient component output from the conversion unit 6 to determine whether or not the input image has a flat texture. If the input image is not a flat texture, the AC and DC components of the DCT coefficient are quantized. If the input image is a flat texture, the DC component of the DCT coefficient is quantized and the DCT Since all the AC components in the coefficients are quantized to zero, the effect of reducing the influence of burst noise can be achieved without performing fine quantization as in the first embodiment.

実施の形態1〜4では、変換処理に対するブロックサイズが8×8であるものを想定しているが、これに限るものではなく、例えば、ブロックサイズが4×4や16×16であってもよい。
また、ブロックサイズが8×16や16×8などの長方形サイズのブロックであってもよいし、2次元ではなく、時間方向に拡張している3次元のブロックを用いた変換処理であってもよく、同様の処理によって同じような効果を得ることが可能である。
In Embodiments 1 to 4, it is assumed that the block size for the conversion process is 8 × 8, but the present invention is not limited to this. For example, even if the block size is 4 × 4 or 16 × 16 Good.
Also, the block size may be a rectangular block such as 8 × 16 or 16 × 8, or may be a conversion process using a three-dimensional block extending in the time direction instead of two-dimensional. Often, similar effects can be obtained by similar processing.

国際標準化方式のMPEG−2やMPEG−4では、イントラ予測部1、イントラ予測メモリ12及びループフィルタ13がなく、処理の一部がAVCと異なっているが、本発明を画像符号化装置の変換部6・逆変換部10に適用することにより、AVCの場合と同様の効果を得ることが可能である。
また、国際標準化方式のJPEGでは、動き検出部2、動き補償予測部3、選択スイッチ4、減算器5、逆量子化部9、逆変換部10、動き補償予測用フレームメモリ14などがないが、本発明を適用することにより、上記のAVCと同様の効果を得ることが可能である。
In the international standardized MPEG-2 and MPEG-4, the intra prediction unit 1, the intra prediction memory 12, and the loop filter 13 are not provided, and a part of the processing is different from that of the AVC. By applying to the unit 6 and the inverse transform unit 10, it is possible to obtain the same effect as in the case of AVC.
In addition, in the international standardized JPEG, there is no motion detection unit 2, motion compensation prediction unit 3, selection switch 4, subtractor 5, inverse quantization unit 9, inverse transform unit 10, motion compensation prediction frame memory 14, and the like. By applying the present invention, it is possible to obtain the same effect as the above AVC.

1 イントラ予測部(予測画像生成手段)、2 動き検出部(予測画像生成手段)、3 動き補償予測部(予測画像生成手段)、4 選択スイッチ(予測画像生成手段)、5 減算器(予測差分信号算出手段)、6 変換部(信号変換手段)、7 符号化制御部(量子化手段)、8,16,17 量子化部(量子化手段)、9 逆量子化部、10 逆変換部、11 加算器、12 イントラ予測用メモリ、13 ループフィルタ、14 動き補償予測用フレームメモリ、15 エントロピー符号化部(可変長符号化手段)、21 信号判定部、22,32 DC成分補正部、23,31 量子化処理部、101 イントラ予測部、102 動き検出部、103 動き補償予測部、104 選択スイッチ、105 減算器、106 変換部、107 符号化制御部、108 量子化部、109 逆量子化部、110 逆変換部、111 加算器、112 イントラ予測用メモリ、113 ループフィルタ、114 動き補償予測用フレームメモリ、115 エントロピー符号化部。   DESCRIPTION OF SYMBOLS 1 Intra prediction part (prediction image generation means), 2 motion detection part (prediction image generation means), 3 motion compensation prediction part (prediction image generation means), 4 selection switch (prediction image generation means), 5 subtractor (prediction difference) Signal calculation means), 6 conversion section (signal conversion means), 7 encoding control section (quantization means), 8, 16, 17 quantization section (quantization means), 9 inverse quantization section, 10 inverse conversion section, DESCRIPTION OF SYMBOLS 11 Adder, 12 Intra prediction memory, 13 Loop filter, 14 Motion compensation prediction frame memory, 15 Entropy encoding part (variable length encoding means), 21 Signal determination part, 22, 32 DC component correction part, 23, 31 quantization processing unit, 101 intra prediction unit, 102 motion detection unit, 103 motion compensation prediction unit, 104 selection switch, 105 subtractor, 106 conversion unit, 107 encoding control , 108 quantization unit 109 inverse quantization unit 110 inverse transform unit, 111 an adder, 112 intra-prediction memory, 113 loop filter, 114 a motion compensated prediction frame memory, 115 entropy encoding unit.

Claims (8)

入力画像を示す画像信号から予測画像を生成し、上記予測画像を示す予測信号を出力する予測画像生成手段と、上記予測画像生成手段から出力された予測信号と上記入力画像を示す画像信号の差分を算出し、その差分を示す予測差分信号を出力する予測差分信号算出手段と、上記予測差分信号算出手段から出力された予測差分信号を空間領域の信号から時間領域の信号に変換する変換処理を実施し、その変換結果を示す変換係数を出力する信号変換手段と、上記信号変換手段から出力された変換係数を量子化する量子化手段と、上記量子化手段により量子化された変換係数を可変長符号化する可変長符号化手段とを備えた画像符号化装置において、上記量子化手段は、上記信号変換手段から出力された変換係数の成分を参照して、上記入力画像が平坦なテクスチャであるか否かを判定し、上記入力画像が平坦なテクスチャでなければ、上記変換係数のAC成分及びDC成分を量子化し、上記入力画像が平坦なテクスチャであれば、上記変換係数のDC成分を補正して、上記変換係数のAC成分及び補正後のDC成分を量子化することを特徴とする画像符号化装置。   A prediction image generating unit that generates a prediction image from an image signal indicating an input image and outputs a prediction signal indicating the prediction image; a difference between the prediction signal output from the prediction image generation unit and the image signal indicating the input image And a prediction difference signal calculation means for outputting a prediction difference signal indicating the difference, and a conversion process for converting the prediction difference signal output from the prediction difference signal calculation means from a spatial domain signal to a time domain signal. And a signal conversion unit that outputs a conversion coefficient indicating the conversion result, a quantization unit that quantizes the conversion coefficient output from the signal conversion unit, and a variable conversion coefficient quantized by the quantization unit In the image coding apparatus comprising variable length coding means for performing long coding, the quantization means refers to the component of the transform coefficient output from the signal transform means, and If the input image is not a flat texture, the AC component and the DC component of the conversion coefficient are quantized. If the input image is a flat texture, the conversion is performed. An image coding apparatus characterized by correcting a DC component of a coefficient and quantizing the AC component of the transform coefficient and the corrected DC component. 量子化手段は、信号変換手段から出力された変換係数におけるAC成分のうち、絶対値が閾値を越えているAC成分の個数が規定数未満であれば、入力画像が平坦なテクスチャであると判定し、絶対値が閾値を越えているAC成分の個数が規定数以上であれば、入力画像が平坦なテクスチャでないと判定することを特徴とする請求項1記載の画像符号化装置。   The quantization means determines that the input image has a flat texture if the number of AC components whose absolute value exceeds the threshold among the AC components in the conversion coefficient output from the signal conversion means is less than a specified number. 2. The image encoding apparatus according to claim 1, wherein if the number of AC components whose absolute value exceeds a threshold value is equal to or greater than a predetermined number, the input image is determined not to be a flat texture. 量子化手段は、入力画像が平坦なテクスチャであれば、信号変換手段から出力された変換係数におけるAC成分の絶対値の総和に応じて上記変換係数のDC成分を補正することを特徴とする請求項1または請求項2記載の画像符号化装置。   The quantization means corrects the DC component of the conversion coefficient according to the sum of the absolute values of the AC components in the conversion coefficient output from the signal conversion means if the input image is a flat texture. The image encoding device according to claim 1 or 2. 量子化手段は、処理対象の画像信号に係るブロックの周辺に位置しているブロックが平坦なテクスチャである場合、周辺に位置しているブロックが平坦なテクスチャでない場合より、閾値又は規定数を大きな値に設定して、上記画像信号に係るブロックが平坦なテクスチャであるか否かを判定することを特徴とする請求項2記載の画像符号化装置。   The quantization means increases the threshold value or the prescribed number when the block located around the block related to the image signal to be processed has a flat texture than when the block located around the block is not a flat texture. 3. The image coding apparatus according to claim 2, wherein a value is set to determine whether or not a block related to the image signal has a flat texture. 入力画像を示す画像信号から予測画像を生成し、上記予測画像を示す予測信号を出力する予測画像生成手段と、上記予測画像生成手段から出力された予測信号と上記入力画像を示す画像信号の差分を算出し、その差分を示す予測差分信号を出力する予測差分信号算出手段と、上記予測差分信号算出手段から出力された予測差分信号を空間領域の信号から時間領域の信号に変換する変換処理を実施し、その変換結果を示す変換係数を出力する信号変換手段と、上記信号変換手段から出力された変換係数を量子化する量子化手段と、上記量子化手段により量子化された変換係数を可変長符号化する可変長符号化手段とを備えた画像符号化装置において、上記量子化手段は、量子化後の変換係数の成分を参照して、上記入力画像が平坦なテクスチャであるか否かを判定し、上記入力画像が平坦なテクスチャでなければ、量子化後の変換係数を上記可変長符号化手段に出力し、上記入力画像が平坦なテクスチャであれば、量子化後の変換係数のDC成分を補正して、量子化後の変換係数のAC成分及び補正後のDC成分を上記可変長符号化手段に出力することを特徴とする画像符号化装置。   A prediction image generating unit that generates a prediction image from an image signal indicating an input image and outputs a prediction signal indicating the prediction image; a difference between the prediction signal output from the prediction image generation unit and the image signal indicating the input image And a prediction difference signal calculation means for outputting a prediction difference signal indicating the difference, and a conversion process for converting the prediction difference signal output from the prediction difference signal calculation means from a spatial domain signal to a time domain signal. And a signal conversion unit that outputs a conversion coefficient indicating the conversion result, a quantization unit that quantizes the conversion coefficient output from the signal conversion unit, and a variable conversion coefficient quantized by the quantization unit In the image coding apparatus comprising variable length coding means for performing long coding, the quantization means refers to a component of the transform coefficient after quantization, and the input image has a flat texture. If the input image is not a flat texture, the quantized transform coefficient is output to the variable length coding means. If the input image is a flat texture, the quantized An image coding apparatus characterized in that the DC component of the transform coefficient is corrected, and the quantized transform coefficient AC component and the corrected DC component are output to the variable length coding means. 量子化手段は、量子化後の変換係数におけるAC成分のうち、非ゼロのAC成分の個数が規定数未満であれば、入力画像が平坦なテクスチャであると判定し、非ゼロのAC成分の個数が規定数以上であれば、入力画像が平坦なテクスチャでないと判定することを特徴とする請求項5記載の画像符号化装置。   The quantization means determines that the input image has a flat texture if the number of non-zero AC components in the AC component in the transformed transform coefficient after quantization is less than a specified number, and determines the non-zero AC component. 6. The image encoding apparatus according to claim 5, wherein if the number is equal to or greater than a predetermined number, the input image is determined not to be a flat texture. 量子化手段は、入力画像が平坦なテクスチャであれば、量子化後の変換係数におけるAC成分の絶対値の総和に応じて上記変換係数のDC成分を補正することを特徴とする請求項5または請求項6記載の画像符号化装置。   The quantization means corrects the DC component of the transform coefficient according to the sum of absolute values of the AC components in the transform coefficient after quantization if the input image is a flat texture. The image encoding device according to claim 6. 入力画像を示す画像信号から予測画像を生成し、上記予測画像を示す予測信号を出力する予測画像生成手段と、上記予測画像生成手段から出力された予測信号と上記入力画像を示す画像信号の差分を算出し、その差分を示す予測差分信号を出力する予測差分信号算出手段と、上記予測差分信号算出手段から出力された予測差分信号を空間領域の信号から時間領域の信号に変換する変換処理を実施し、その変換結果を示す変換係数を出力する信号変換手段と、上記信号変換手段から出力された変換係数を量子化する量子化手段と、上記量子化手段により量子化された変換係数を可変長符号化する可変長符号化手段とを備えた画像符号化装置において、上記量子化手段は、上記信号変換手段から出力された変換係数の成分を参照して、上記入力画像が平坦なテクスチャであるか否かを判定し、上記入力画像が平坦なテクスチャでなければ、上記変換係数のAC成分及びDC成分を量子化し、上記入力画像が平坦なテクスチャであれば、上記変換係数のDC成分を量子化するとともに、上記変換係数における全てのAC成分をゼロに量子化することを特徴とする画像符号化装置。   A prediction image generating unit that generates a prediction image from an image signal indicating an input image and outputs a prediction signal indicating the prediction image; a difference between the prediction signal output from the prediction image generation unit and the image signal indicating the input image And a prediction difference signal calculation means for outputting a prediction difference signal indicating the difference, and a conversion process for converting the prediction difference signal output from the prediction difference signal calculation means from a spatial domain signal to a time domain signal. And a signal conversion unit that outputs a conversion coefficient indicating the conversion result, a quantization unit that quantizes the conversion coefficient output from the signal conversion unit, and a variable conversion coefficient quantized by the quantization unit In the image coding apparatus comprising variable length coding means for performing long coding, the quantization means refers to the component of the transform coefficient output from the signal transform means, and If the input image is not a flat texture, the AC component and the DC component of the conversion coefficient are quantized. If the input image is a flat texture, the conversion is performed. An image coding apparatus characterized by quantizing a DC component of a coefficient and quantizing all AC components in the transform coefficient to zero.
JP2010025514A 2010-02-08 2010-02-08 Image encoding device Pending JP2011166357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010025514A JP2011166357A (en) 2010-02-08 2010-02-08 Image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010025514A JP2011166357A (en) 2010-02-08 2010-02-08 Image encoding device

Publications (1)

Publication Number Publication Date
JP2011166357A true JP2011166357A (en) 2011-08-25

Family

ID=44596546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025514A Pending JP2011166357A (en) 2010-02-08 2010-02-08 Image encoding device

Country Status (1)

Country Link
JP (1) JP2011166357A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101365101B1 (en) 2011-12-28 2014-02-20 브로드콤 코포레이션 Adapting transform coefficient scaling in video/image coding to block features identified in the transform domain

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101365101B1 (en) 2011-12-28 2014-02-20 브로드콤 코포레이션 Adapting transform coefficient scaling in video/image coding to block features identified in the transform domain

Similar Documents

Publication Publication Date Title
US11632556B2 (en) Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
JP5537681B2 (en) Multiple sign bit concealment in the conversion unit
KR20100015651A (en) Two-dimensional adaptive interpolation filter coefficient decision method
KR101621854B1 (en) Tsm rate-distortion optimizing method, encoding method and device using the same, and apparatus for processing picture
JP2005159419A (en) Apparatus and method of processing image, computer program and computer-readable storage medium
US10349071B2 (en) Motion vector searching apparatus, motion vector searching method, and storage medium storing motion vector searching program
MX2014015293A (en) Encoding device, decoding device, and program.
US20170006290A1 (en) Video encoding device and video encoding method
JP7229413B2 (en) Image encoding device, image decoding device, and program
JP2011166592A (en) Image encoding device, and image decoding device
JP5213964B2 (en) Video encoding apparatus and video decoding apparatus
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
JP7130890B2 (en) Encoding device, decoding device, and program
JP5328629B2 (en) Encoder and image conversion apparatus
KR20130049736A (en) Method and apparatus for inter prediction
JP6200220B2 (en) Image processing apparatus, encoding apparatus, decoding apparatus, and program
JP2011166357A (en) Image encoding device
KR20170058870A (en) Method and apparatus for encoding/dicoding a video with non linear mapping
JP2010283739A (en) Moving image encoding device
KR20190109373A (en) Apparatus for image coding/decoding and the method thereof
WO2010061515A1 (en) Dynamic image encoding device, encoding method, dynamic image decoding device, and decoding method
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
WO2019187396A1 (en) Image decoding device, image coding device, image processing system, image decoding method, and program
JP6700877B2 (en) Image decoding device, image decoding program and chip