JP7485838B2 - Image decoding device, image decoding method, and program - Google Patents

Image decoding device, image decoding method, and program Download PDF

Info

Publication number
JP7485838B2
JP7485838B2 JP2023120159A JP2023120159A JP7485838B2 JP 7485838 B2 JP7485838 B2 JP 7485838B2 JP 2023120159 A JP2023120159 A JP 2023120159A JP 2023120159 A JP2023120159 A JP 2023120159A JP 7485838 B2 JP7485838 B2 JP 7485838B2
Authority
JP
Japan
Prior art keywords
value
decoded signal
signal
filter
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023120159A
Other languages
Japanese (ja)
Other versions
JP2023129555A (en
Inventor
恭平 海野
圭 河村
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020191512A external-priority patent/JP6912642B2/en
Priority claimed from JP2021112920A external-priority patent/JP6941752B1/en
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2023120159A priority Critical patent/JP7485838B2/en
Publication of JP2023129555A publication Critical patent/JP2023129555A/en
Application granted granted Critical
Publication of JP7485838B2 publication Critical patent/JP7485838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像復号装置、画像復号方法及びプログラムに関する。 The present invention relates to an image decoding device, an image decoding method, and a program.

従来、「ALF(Adaptive Loop Filter:適応ループフィルタ) )」への入力信号を閾値でクリッピングすることで、非線形なフィルタ処理を実現する技術が知られている(例えば、非特許文献1参照)。 Conventionally, a technique is known that realizes nonlinear filtering by clipping the input signal to an "ALF (Adaptive Loop Filter)" at a threshold value (see, for example, Non-Patent Document 1).

ここで、かかる閾値は、数式で定義されており、内部ビット深度の設定値等に応じて、最終的な値が導出される。かかる閾値は、輝度信号及び色差信号に対してそれぞれ定義されている。 The thresholds are defined by mathematical expressions, and the final values are derived according to the internal bit depth settings, etc. The thresholds are defined separately for the luminance signal and the color difference signal.

Versatile Video Coding (Draft 5)、JVET-N1001Versatile Video Coding (Draft 5), JVET-N1001

しかしながら、上述の従来技術では、内部ビット深度によって、輝度信号の閾値と色差信号の閾値との大小関係が反転してしまう。これにより、同一の入力信号に対しても、内部ビット深度の設定によって、復号画像の特性が変化し、主観画質に影響を与える可能性があるという問題点があった。 However, in the above-mentioned conventional technology, the magnitude relationship between the luminance signal threshold and the color difference signal threshold is inverted depending on the internal bit depth. This causes a problem in that even for the same input signal, the characteristics of the decoded image change depending on the internal bit depth setting, which may affect the subjective image quality.

そこで、本発明は、上述の課題に鑑みてなされたものであり、復号画像の特性が変化し、主観画質に影響を与えてしまうという事態を防ぐことができる画像復号装置、画像復号方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of the above-mentioned problems, and aims to provide an image decoding device, an image decoding method, and a program that can prevent a situation in which the characteristics of a decoded image change and affect the subjective image quality.

本発明の第1の特徴は、画像復号装置であって、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 The first feature of the present invention is an image decoding device comprising a filter unit configured to receive an unfiltered decoded signal as input and output a filtered decoded signal, the filter unit configured to perform clipping on the unfiltered decoded signal so that the absolute value of the difference between a reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and to generate the filtered decoded signal by a linear weighted sum of the value after the clipping and the pixel value of the unfiltered decoded signal, the gist being that the magnitude relationship between the threshold for the luminance signal and the threshold for the chrominance signal is preserved even if the internal bit depth changes.

本発明の第2の特徴は、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程を有する画像復号方法であって、前記工程において、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 The second feature of the present invention is an image decoding method having a step of receiving an unfiltered decoded signal as an input and outputting a filtered decoded signal, in which, in the step, clipping is performed on the unfiltered decoded signal so that the absolute value of the difference between a reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and the filtered decoded signal is generated by linearly weighting the value after the clipping and the pixel value of the unfiltered decoded signal, and the magnitude relationship between the threshold for the luminance signal and the threshold for the chrominance signal is defined so as to be preserved even if the internal bit depth changes.

本発明の第3の特徴は、画像復号装置で用いるプログラムであって、コンピュータに、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程を実行させ、前記工程において、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記フィルタ処理前復号信号に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値との大小関係が保存されるように定義されていることを要旨とする。 The third feature of the present invention is a program for use in an image decoding device, which causes a computer to execute a process of receiving an unfiltered decoded signal as input and outputting a filtered decoded signal, in which clipping is performed on the unfiltered decoded signal so that the absolute value of the difference between a reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and the filtered decoded signal is generated by linearly weighting the value after the clipping and the pixel value of the unfiltered decoded signal, and the magnitude relationship between the threshold value for the luminance signal and the threshold value for the chrominance signal is defined so as to be preserved even if the internal bit depth changes.

本発明によれば、復号画像の特性が変化し、主観画質に影響を与えてしまうという事態を防ぐことができる画像復号装置、画像復号方法及びプログラムを提供することができる。 The present invention provides an image decoding device, an image decoding method, and a program that can prevent changes in the characteristics of a decoded image, which can affect the subjective image quality.

一実施形態に係る画像処理システム10の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an image processing system 10 according to an embodiment. 一実施形態に係る画像符号化装置100の機能ブロックの一例を示す図である。FIG. 2 is a diagram illustrating an example of functional blocks of an image encoding device 100 according to an embodiment. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150の機能ブロックの一例を示す図である。1 is a diagram illustrating an example of functional blocks of an in-loop filter processing unit 150 of an image encoding device 100 according to an embodiment. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。11 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filter processing section 150 of an image encoding device 100 according to an embodiment. FIG. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。11 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filter processing section 150 of an image encoding device 100 according to an embodiment. FIG. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。11 is a diagram for explaining an example of the function of a filter section 150B of an in-loop filter processing section 150 of an image encoding device 100 according to an embodiment. FIG. 一実施形態に係る画像符号化装置100のインループフィルタ処理部150のフィルタ部150Bの機能の一例を説明するための図である。11 is a diagram for explaining an example of functions of a filter section 150B of an in-loop filter processing section 150 of an image encoding device 100 according to an embodiment. FIG. 一実施形態に係る画像復号装置200の機能ブロックの一例を示す図である。FIG. 2 is a diagram illustrating an example of functional blocks of an image decoding device 200 according to an embodiment. 一実施形態に係る画像復号装置200のインループフィルタ処理部250の機能ブロックの一例を示す図である。2 is a diagram illustrating an example of functional blocks of an in-loop filter processing unit 250 of an image decoding device 200 according to an embodiment. FIG. 一実施形態に係る画像復号装置200のインループフィルタ処理部250の処理手順の一例を示すフローチャートである。13 is a flowchart showing an example of a processing procedure of an in-loop filtering unit 250 of the image decoding device 200 according to an embodiment.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下の実施形態における構成要素は、適宜、既存の構成要素等との置き換えが可能であり、また、他の既存の構成要素との組み合わせを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 The following describes embodiments of the present invention with reference to the drawings. Note that the components in the following embodiments can be replaced with existing components as appropriate, and various variations, including combinations with other existing components, are possible. Therefore, the description of the following embodiments does not limit the content of the invention described in the claims.

(第1実施形態)
以下、図1~図10を参照して、本発明の第1実施形態に係る画像処理システム10について説明する。図1は、本実施形態に係る実施形態に係る画像処理システム10を示す図である。
First Embodiment
An image processing system 10 according to a first embodiment of the present invention will be described below with reference to Figures 1 to 10. Figure 1 is a diagram showing an image processing system 10 according to the present embodiment.

図1に示すように、画像処理システム10は、画像符号化装置100及び画像復号装置200を有する。 As shown in FIG. 1, the image processing system 10 has an image encoding device 100 and an image decoding device 200.

画像符号化装置100は、入力画像信号を符号化することによって符号化データを生成するように構成されている。画像復号装置200は、符号化データを復号することによって出力画像信号を生成するように構成されている。 The image encoding device 100 is configured to generate encoded data by encoding an input image signal. The image decoding device 200 is configured to generate an output image signal by decoding the encoded data.

ここで、かかる符号化データは、画像符号化装置100から画像復号装置200に対して伝送路を介して送信されてもよい。また、符号化データは、記憶媒体に格納された上で、画像符号化装置100から画像復号装置200に提供されてもよい。 Here, the encoded data may be transmitted from the image encoding device 100 to the image decoding device 200 via a transmission path. Also, the encoded data may be stored in a storage medium and then provided from the image encoding device 100 to the image decoding device 200.

(画像符号化装置100)
以下、図2を参照して、本実施形態に係る画像符号化装置100について説明する。図2は、本実施形態に係る画像符号化装置100の機能ブロックの一例について示す図である。
(Image encoding device 100)
The image encoding device 100 according to this embodiment will be described below with reference to Fig. 2. Fig. 2 is a diagram showing an example of functional blocks of the image encoding device 100 according to this embodiment.

図2に示すように、画像符号化装置100は、インター予測部111と、イントラ予測部112と、減算器121と、加算器122と、変換・量子化部131と、逆変換・逆量子化部132と、符号化部140と、インループフィルタ処理部150と、フレームバッファ160とを有する。 As shown in FIG. 2, the image encoding device 100 includes an inter prediction unit 111, an intra prediction unit 112, a subtractor 121, an adder 122, a transform/quantization unit 131, an inverse transform/inverse quantization unit 132, an encoding unit 140, an in-loop filter processing unit 150, and a frame buffer 160.

インター予測部111は、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 The inter prediction unit 111 is configured to generate a prediction signal by inter prediction (inter-frame prediction).

具体的には、インター予測部111は、符号化対象のフレーム(以下、対象フレーム)とフレームバッファ160に格納される参照フレームとの比較によって、参照フレームに含まれる参照ブロックを特定し、特定された参照ブロックに対する動きベクトルを決定するように構成されている。 Specifically, the inter prediction unit 111 is configured to identify a reference block included in a reference frame by comparing a frame to be coded (hereinafter, the target frame) with a reference frame stored in the frame buffer 160, and to determine a motion vector for the identified reference block.

また、インター予測部111は、参照ブロック及び動きベクトルに基づいて予測ブロックに含まれる予測信号を予測ブロック毎に生成するように構成されている。インター予測部111は、予測信号を減算器121及び加算器122に出力するように構成されている。ここで、参照フレームは、対象フレームとは異なるフレームである。 Furthermore, the inter prediction unit 111 is configured to generate a prediction signal included in the prediction block for each prediction block based on the reference block and the motion vector. The inter prediction unit 111 is configured to output the prediction signal to the subtractor 121 and the adder 122. Here, the reference frame is a frame different from the target frame.

イントラ予測部112は、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 The intra prediction unit 112 is configured to generate a prediction signal by intra prediction (intra-frame prediction).

具体的には、イントラ予測部112は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。また、イントラ予測部112は、予測信号を減算器121及び加算器122に出力するように構成されている。 Specifically, the intra prediction unit 112 is configured to identify a reference block included in the target frame and generate a prediction signal for each prediction block based on the identified reference block. The intra prediction unit 112 is also configured to output the prediction signal to the subtractor 121 and the adder 122.

ここで、参照ブロックは、予測対象のブロック(以下、対象ブロック)について参照されるブロックである。例えば、参照ブロックは、対象ブロックに隣接するブロックである。 Here, the reference block is a block that is referenced for the block to be predicted (hereinafter, the target block). For example, the reference block is a block adjacent to the target block.

減算器121は、入力画像信号から予測信号を減算し、予測残差信号を変換・量子化部131に出力するように構成されている。ここで、減算器121は、イントラ予測又はインター予測によって生成される予測信号と入力画像信号との差分である予測残差信号を生成するように構成されている。 The subtractor 121 is configured to subtract the prediction signal from the input image signal and output the prediction residual signal to the transform/quantization unit 131. Here, the subtractor 121 is configured to generate a prediction residual signal that is the difference between the prediction signal generated by intra prediction or inter prediction and the input image signal.

加算器122は、逆変換・逆量子化部132から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、かかるフィルタ処理前復号信号をイントラ予測部112及びインループフィルタ処理部150に出力するように構成されている。 The adder 122 is configured to add the prediction signal to the prediction residual signal output from the inverse transform/inverse quantization unit 132 to generate a pre-filter decoded signal, and output the pre-filter decoded signal to the intra prediction unit 112 and the in-loop filter processing unit 150.

ここで、フィルタ処理前復号信号は、イントラ予測部112で用いる参照ブロックを構成する。 Here, the unfiltered decoded signal constitutes a reference block used by the intra prediction unit 112.

変換・量子化部131は、予測残差信号の変換処理を行うとともに、係数レベル値を取得するように構成されている。さらに、変換・量子化部131は、係数レベル値の量子化を行うように構成されていてもよい。 The transform/quantization unit 131 is configured to perform a transform process on the prediction residual signal and to obtain coefficient level values. Furthermore, the transform/quantization unit 131 may be configured to quantize the coefficient level values.

ここで、変換処理は、予測残差信号を周波数成分信号に変換する処理である。かかる変換処理では、離散コサイン変換(DCT;Discrete Cosine Transform)に対応する基底パターン(変換行列)が用いられてもよく、離散サイン変換(DST;Discrete Sine Transform)に対応する基底パターン(変換行列)が用いられてもよい。 The conversion process is a process of converting a prediction residual signal into a frequency component signal. In such a conversion process, a basis pattern (transformation matrix) corresponding to a discrete cosine transform (DCT) may be used, or a basis pattern (transformation matrix) corresponding to a discrete sine transform (DST) may be used.

逆変換・逆量子化部132は、変換・量子化部131から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部132は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse transform and inverse quantization unit 132 is configured to perform inverse transform processing of the coefficient level values output from the transform and quantization unit 131. Here, the inverse transform and inverse quantization unit 132 may be configured to perform inverse quantization of the coefficient level values prior to the inverse transform processing.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse transformation process and inverse quantization are performed in the reverse order to the transformation process and quantization performed by the transformation/quantization unit 131.

符号化部140は、変換・量子化部131から出力された係数レベル値を符号化し、符号化データを出力するように構成されている。 The encoding unit 140 is configured to encode the coefficient level values output from the transform/quantization unit 131 and output the encoded data.

ここで、例えば、符号化は、係数レベル値の発生確率に基づいて異なる長さの符号を割り当てるエントロピー符号化である。 Here, for example, the coding is entropy coding, which assigns codes of different lengths based on the probability of occurrence of coefficient level values.

また、符号化部140は、係数レベル値に加えて、復号処理で用いる制御データを符号化するように構成されている。 The encoding unit 140 is also configured to encode control data used in the decoding process in addition to the coefficient level values.

ここで、制御データは、符号化ブロック(CU:Coding Unit)サイズ、予測ブロック(PU:Prediction Unit)サイズ、変換ブロック(TU:Transform Unit)サイズ等のサイズデータを含んでもよい。 Here, the control data may include size data such as coding block (CU: Coding Unit) size, prediction block (PU: Prediction Unit) size, and transform block (TU: Transform Unit) size.

インループフィルタ処理部150は、加算器122から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ160に出力するように構成されている。 The in-loop filter processing unit 150 is configured to perform filtering on the unfiltered decoded signal output from the adder 122, and to output the filtered decoded signal to the frame buffer 160.

また、インループフィルタ処理部150は、入力画像信号とフィルタ処理前復号信号を入力としてフィルタ処理に関するパラメータを決定し、かかるパラメータを符号化部140に出力するように構成されていてもよい。符号化部140は、かかるパラメータを、符号化して画像復号装置200に付加情報として伝送するように構成されていてもよい。 The in-loop filter processing unit 150 may be configured to determine parameters related to the filter processing using the input image signal and the unfiltered decoded signal as input, and output such parameters to the encoding unit 140. The encoding unit 140 may be configured to encode such parameters and transmit them to the image decoding device 200 as additional information.

ここで、例えば、フィルタ処理は、復号画像の符号化歪みを減少する適応ループフィルタ処理である。 Here, for example, the filtering process is an adaptive loop filtering process that reduces the coding distortion of the decoded image.

フレームバッファ160は、インター予測部111で用いる参照フレームを蓄積するように構成されている。 The frame buffer 160 is configured to store reference frames used by the inter prediction unit 111.

ここで、フィルタ処理後復号信号は、インター予測部111で用いる参照フレームを構成する。 Here, the filtered decoded signal constitutes a reference frame used by the inter prediction unit 111.

(インループフィルタ処理部150)
以下において、本実施形態に係るインループフィルタ処理部150について説明する。図3は、本実施形態に係るインループフィルタ処理部150を示す図である。
(In-loop filter processing unit 150)
The in-loop filtering unit 150 according to this embodiment will be described below. Fig. 3 is a diagram showing the in-loop filtering unit 150 according to this embodiment.

図3に示すように、インループフィルタ処理部150は、クラス判定部150Aと、フィルタ部150Bと、パラメータ決定部150Cとを有する。 As shown in FIG. 3, the in-loop filter processing unit 150 has a class determination unit 150A, a filter unit 150B, and a parameter determination unit 150C.

インループフィルタ処理部150は、符号化ツリーブロック(CTU:Coding Tree Unit)単位で、適応ループフィルタ処理の適用又は非適用のいずれかを選択することができる。また、適応ループフィルタ処理が適用される場合は、インループフィルタ処理部150は、複数のフィルタセットのうち、どのフィルタセットを用いるかについて選択することができる。 The in-loop filter processing unit 150 can select whether to apply adaptive loop filter processing or not for each coding tree block (CTU). In addition, when adaptive loop filter processing is applied, the in-loop filter processing unit 150 can select which filter set to use from among multiple filter sets.

各フィルタセットは、最大で25種類(クラス)の輝度信号用のフィルタと、1クラスの色差信号用のフィルタとを含む。 Each filter set contains up to 25 types (classes) of filters for luminance signals and one class of filter for color difference signals.

かかる適応ループフィルタ処理の適用又は非適用に係る情報や適応ループフィルタ処理において用いられるべきフィルタセットに係る情報等を含むパラメータは、後述のように、付加情報としてCTU毎に符号化され、画像復号装置200に伝送される。なお、かかるパラメータは、後述のように、パラメータ決定部150Cによって決定される。 Parameters including information on whether or not to apply such adaptive loop filter processing and information on the filter set to be used in the adaptive loop filter processing are coded for each CTU as additional information, as described below, and transmitted to the image decoding device 200. Note that such parameters are determined by the parameter determination unit 150C, as described below.

ここで、例えば、入力信号が、「YCbCr4:2:0フォーマット」である場合、CTUは、例えば、輝度(Y)信号を128×128画素サイズ、色差信号(Cb、Cr)を64×64画素サイズにそれぞれ区切った各ブロックと定義してもよい。 Here, for example, if the input signal is in "YCbCr 4:2:0 format," the CTU may define each block by dividing the luminance (Y) signal into blocks of 128 x 128 pixels, and the color difference signals (Cb, Cr) into blocks of 64 x 64 pixels.

なお、適応ループフィルタ処理を適用しないと判断されたCTUに属する輝度信号及び色差信号の画素については、後述するクラス判定部150Aによる判定処理及びフィルタ部150Bによるフィルタ処理を省略することができる。 For pixels of the luminance signal and color difference signal that belong to a CTU for which it is determined that adaptive loop filter processing is not to be applied, the determination process by the class determination unit 150A and the filtering process by the filter unit 150B, which will be described later, can be omitted.

クラス判定部150Aは、フィルタ処理前復号信号を入力として、予め定められた複数種類のフィルタ(適応ループフィルタ)の中から、どの種類(クラス)のフィルタを用いるかについて示すクラス判定情報を出力するように構成されている。 The class determination unit 150A is configured to receive the unfiltered decoded signal as input and output class determination information indicating which type (class) of filter to use from among multiple predetermined types of filters (adaptive loop filters).

ここで、クラス判定部150Aは、フィルタ処理前復号信号を小さなブロックに分割し、かかるブロック毎に、用いるべきクラスを判定するように構成されている。例えば、クラス判定部150Aは、4×4画素ブロックごとに、25種類あるうちのどのクラスのフィルタを用いるべきかについて決定することができる。 Here, the class determination unit 150A is configured to divide the unfiltered decoded signal into small blocks and determine the class to be used for each block. For example, the class determination unit 150A can determine which class of filter out of 25 types should be used for each 4x4 pixel block.

ここで、クラスの判定方法としては、画像符号化装置100側と画像復号装置200側の両方で得られる情報のみを入力として判定することができる方法で有れば、任意の判定方法を用いることができる。 Here, any method can be used to determine the class, as long as it is a method that can make a determination using only information obtained from both the image encoding device 100 and the image decoding device 200 as input.

例えば、非特許文献1では、フィルタ処理前復号信号の画素値の勾配を用いて、上述のクラスの判定が行われている。画像符号化装置100側と画像復号装置200側の両方で得られる情報のみを用いることで、画像復号装置200側でも画像符号化装置100側と同様なクラスの判定が可能になるため、クラス判定情報を画像符号化装置100側から画像復号装置200側に伝送する必要がなくなる。 For example, in Non-Patent Document 1, the above-mentioned class determination is performed using the gradient of pixel values of the unfiltered decoded signal. By using only information obtained on both the image encoding device 100 side and the image decoding device 200 side, the image decoding device 200 side can determine the class in the same way as the image encoding device 100 side, so there is no need to transmit class determination information from the image encoding device 100 side to the image decoding device 200 side.

フィルタ部150Bは、フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されている。 The filter unit 150B is configured to receive the unfiltered decoded signal as input and to output the filtered decoded signal.

具体的には、フィルタ部150Bは、フィルタ処理前復号信号とクラス判定部150Aから出力されるクラス判定情報とパラメータ決定部150Cから入力されるパラメータ(ループフィルタ処理のパラメータ群)とを入力として、フィルタ処理を行い、フィルタ処理後復号信号を出力するように構成されている。 Specifically, the filter unit 150B is configured to perform filtering using the unfiltered decoded signal, the class determination information output from the class determination unit 150A, and the parameters (a group of parameters for loop filter processing) input from the parameter determination unit 150C as inputs, and to output the filtered decoded signal.

フィルタ処理後復号信号の各画素の値は、例えば、以下の式で算出することができる。 The value of each pixel in the filtered decoded signal can be calculated, for example, using the following formula:

Figure 0007485838000001
ここで、I(x,y)は、(x,y)の座標にあるフィルタ処理前復号信号の画素値であり、O(x,y)は、(x,y)の座標にあるフィルタ処理後復号信号の画素値であり、(i,j)は、(x,y)の座標にある画素に対する参照画素の相対位置を示す座標(参照画素位置)であり、C(i,j)は、参照画素位置(i,j)に対応するフィルタ係数であり、K()は、以下に示すクリッピング処理であり、k(i,j)は、クリッピング処理で用いられる閾値である。
Figure 0007485838000001
Here, I(x,y) is the pixel value of the unfiltered decoded signal at the coordinates (x,y), O(x,y) is the pixel value of the filtered decoded signal at the coordinates (x,y), (i,j) is the coordinates (reference pixel position) indicating the relative position of the reference pixel with respect to the pixel at the coordinates (x,y), C(i,j) is the filter coefficient corresponding to the reference pixel position (i,j), K() is the clipping process shown below, and k(i,j) is the threshold used in the clipping process.

K(I,k)=min(k,max(-k,I))
ここで、min()は、引数内の最小値を返す関数であり、max()は、引数内の最大値を返す関数である。したがって、K()は、入力値Iが-kより小さい場合は-kを返し、入力値Iがkより大きい場合はkを返し、それ以外は入力値Iをそのまま返す処理である。
K(I,k)=min(k,max(-k,I))
Here, min() is a function that returns the minimum value among the arguments, and max() is a function that returns the maximum value among the arguments. Therefore, K() is a process that returns -k if the input value I is smaller than -k, returns k if the input value I is larger than k, and otherwise returns the input value I as is.

すなわち、フィルタ部150Bは、参照画素値I(x+i,y+j)とフィルタ処理前復号信号の画素値I(x,y)との差分値の絶対値が予め定義した閾値k(i,j)以下となるように、フィルタ処理前復号信号に対するクリッピング処理を施すように構成されている。 In other words, the filter unit 150B is configured to perform clipping processing on the unfiltered decoded signal so that the absolute value of the difference between the reference pixel value I(x+i,y+j) and the pixel value I(x,y) of the unfiltered decoded signal is equal to or less than a predefined threshold value k(i,j).

また、フィルタ部150Bは、クリッピング処理が施された後の値とフィルタ処理前復号信号の画素値I(x,y)との線形加重和によってフィルタ処理後復号信号を生成するように構成されている。 Furthermore, the filter unit 150B is configured to generate a filtered decoded signal by performing a linear weighted sum of the value after clipping and the pixel value I(x, y) of the unfiltered decoded signal.

フィルタ係数Cは、パラメータ決定部150Cで決定され、画像復号装置200側に伝送される。フィルタ係数Cに係る情報の符号量を削減するため、複数の画素に同一のフィルタ係数Cを適用することとして、フィルタ係数Cの数を削減することができる。図4に、具体例を示す。 The filter coefficients C are determined by the parameter determination unit 150C and transmitted to the image decoding device 200. In order to reduce the amount of coding for information related to the filter coefficients C, the number of filter coefficients C can be reduced by applying the same filter coefficient C to multiple pixels. A specific example is shown in FIG. 4.

図4(a)は、輝度信号のフィルタ処理におけるフィルタ係数Cの配置の例を示し、図4(b)は、色差信号のフィルタ処理におけるフィルタ係数Cの配置の例を示す。 Figure 4(a) shows an example of the arrangement of filter coefficients C in filtering a luminance signal, and Figure 4(b) shows an example of the arrangement of filter coefficients C in filtering a color difference signal.

図4(a)に示すように、例えば、輝度信号では、12種類のフィルタ係数C0~C11が用いられる。図4(a)において、Xと記載された画素は、かかるフィルタ処理によって画素値が補正される画素位置(x,y)である。画素位置(x,y)を中心にして、同一のフィルタ係数Cが適用される画素が点対称に配置されている。 As shown in FIG. 4(a), for example, 12 types of filter coefficients C0 to C11 are used for the luminance signal. In FIG. 4(a), the pixel marked X is the pixel position (x, y) whose pixel value is corrected by this filtering process. Pixels to which the same filter coefficient C is applied are arranged point-symmetrically around the pixel position (x, y).

図4(b)に示すように、色差信号についても、同様に、Xと記載された画素を中心に、その他のフィルタ係数が点対称に配置されている。 As shown in FIG. 4(b), for the color difference signal, the other filter coefficients are similarly arranged point-symmetrically around the pixel marked X.

例えば、参照画素がピクチャ外の画素である場合、ピクチャ境界に位置するフィルタ処理前復号信号の画素値をコピー(パディングと呼ぶ)することで、フィルタ処理を実現できる。 For example, when the reference pixel is a pixel outside the picture, filtering can be achieved by copying (called padding) the pixel value of the unfiltered decoded signal located at the picture boundary.

ここで、図5に、ピクチャの下端(ピクチャ境界)におけるフィルタ処理の一例について示す。 Figure 5 shows an example of filtering at the bottom edge of a picture (picture boundary).

図5(a)において、グレーアウトされているフィルタ係数C0~C3は、ピクチャ外の画素を参照している。この時、グレーアウトされているフィルタ係数C2及びC0への入力としては、図5(a)においてフィルタ係数C2の直上に配置されているフィルタ係数C6に対応する画素値と同じ画素値が用いられる。 In FIG. 5(a), the grayed-out filter coefficients C0 to C3 refer to pixels outside the picture. In this case, the input to the grayed-out filter coefficients C2 and C0 uses the same pixel value as the pixel value corresponding to the filter coefficient C6 located immediately above the filter coefficient C2 in FIG. 5(a).

同様に、グレーアウトされているフィルタ係数C3への入力としては、図5(a)においてフィルタ係数C3の直上に配置されているフィルタ係数C7に対応する画素値と同じ画素値が用いられ、グレーアウトされているフィルタ係数C1への入力としては、図5(a)においてフィルタ係数C1の直上に配置されているフィルタ係数C5に対応する画素値と同じ画素値が用いられる。 Similarly, the input to the grayed out filter coefficient C3 is the same pixel value as the pixel value corresponding to the filter coefficient C7 located immediately above the filter coefficient C3 in FIG. 5(a), and the input to the grayed out filter coefficient C1 is the same pixel value as the pixel value corresponding to the filter coefficient C5 located immediately above the filter coefficient C1 in FIG. 5(a).

また、上述したフィルタ係数Cの点対称性を考慮して、参照画素の一部にパディングした値が用いられる場合、かかる参照画素に対応する位置のフィルタ係数Cへの入力としてパディングした値を用いることもできる。 In addition, taking into account the point symmetry of the filter coefficient C described above, when padded values are used for some of the reference pixels, the padded values can also be used as input to the filter coefficient C at the positions corresponding to those reference pixels.

図5(b)の例では、図5(a)の例で説明したピクチャの下端におけるフィルタ処理に加えて、グレーアウトされているフィルタ係数C0~C3についてもパディングした値を入力としてもよい。 In the example of FIG. 5(b), in addition to the filtering process at the bottom edge of the picture described in the example of FIG. 5(a), padded values may also be input for the grayed-out filter coefficients C0 to C3.

例えば、図5(b)におけるフィルタ係数C0及びC2への入力としては、フィルタ係数C2の直下のフィルタ係数C6に対応する画素値をパディングして用いてもよい。 For example, the pixel value corresponding to the filter coefficient C6 immediately below the filter coefficient C2 may be padded and used as the input to the filter coefficients C0 and C2 in FIG. 5(b).

同様に、フィルタ係数C1及びC3の入力についても、それぞれフィルタ係数C1及びC3の直下のフィルタ係数C5及びC7に対応する画素値をパディングして用いてもよい。 Similarly, for the input of filter coefficients C1 and C3, the pixel values corresponding to the filter coefficients C5 and C7 immediately below filter coefficients C1 and C3, respectively, may be used by padding.

上述の例では、ピクチャの下端におけるフィルタ処理について説明したが、同様のフィルタ処理について、ピクチャの上端及び左右端で適用することが可能である。 In the above example, filtering was described for the bottom edge of the picture, but similar filtering can be applied to the top, left, and right edges of the picture.

また、ピクチャ境界のみでなく、スライスやタイルと呼ばれる符号化の並列処理単位の境界や、仮想境界と呼ばれるパイプライン処理上の境界等、境界の先の画素値が参照できない状況であれば、上述のフィルタ処理の方法を適用して同様に対処することができる。 In addition to picture boundaries, situations in which pixel values beyond the boundary cannot be referenced, such as boundaries between parallel encoding processing units called slices or tiles, or boundaries in pipeline processing called virtual boundaries, can be dealt with in a similar manner by applying the above-mentioned filtering method.

なお、上述のピクチャ境界やタイル境界やスライス境界や仮想境界等の境界におけるフィルタ処理を同一の処理としておくことで、各境界に対して処理が異なる場合と比較して実装が簡素化できる。 Note that by making the filter processing at the above-mentioned picture boundaries, tile boundaries, slice boundaries, virtual boundaries, etc. the same process, implementation can be simplified compared to when different processes are performed for each boundary.

また、クリッピング処理で用いられる閾値は、フィルタのクラス毎及びフィルタ係数C毎に、それぞれ設定される。 The thresholds used in the clipping process are set separately for each filter class and each filter coefficient C.

例えば、輝度信号用のフィルタが25クラスあり、上述のように、各クラスのフィルタ係数Cが12種類ある場合、最大で25×12=300のフィルタ係数に対する閾値をそれぞれ設定する必要がある。かかる閾値は、後述するパラメータ決定部150Cで決定され、付加情報として画像復号装置200側に伝送される。 For example, if there are 25 classes of filters for luminance signals, and as described above, there are 12 types of filter coefficients C for each class, it is necessary to set thresholds for a maximum of 25 x 12 = 300 filter coefficients. Such thresholds are determined by the parameter determination unit 150C, which will be described later, and are transmitted to the image decoding device 200 as additional information.

ここで、かかる閾値に係る情報に係る符号量を低減するために、かかる閾値に係る情報として、閾値そのものを伝送するのではなく、予め定めておいた数種類の閾値のうち、フィルタ係数毎にどの閾値を用いるかを示すインデックス(index)情報のみを符号化することもできる。 Here, in order to reduce the amount of code related to the information related to such thresholds, instead of transmitting the thresholds themselves as the information related to such thresholds, it is also possible to code only index information indicating which of several predetermined thresholds is to be used for each filter coefficient.

また、輝度信号用の閾値及び色差信号用の閾値をそれぞれ予め4種類用意しておく場合、輝度信号用の閾値及び色差信号用の閾値は、例えば、図6(a)のように定義することができる。 In addition, if four types of thresholds for the luminance signal and four types of thresholds for the color difference signal are prepared in advance, the thresholds for the luminance signal and the color difference signal can be defined, for example, as shown in Figure 6 (a).

輝度信号の分散は、色差信号の分散よりも大きくなる傾向があるため、図6(a)に示すように、輝度信号用の閾値が色差信号用の閾値以上になるように設定することで、各信号の特性を考慮したクリッピング処理が可能となる。 Since the variance of the luminance signal tends to be greater than the variance of the color difference signal, by setting the threshold for the luminance signal to be equal to or greater than the threshold for the color difference signal, as shown in Figure 6(a), clipping processing that takes into account the characteristics of each signal is possible.

すなわち、図6(a)のように、内部ビット深度(図6内の「bitdepth」)が変化しても、輝度信号用の閾値と色差信号用の閾値との大小関係(例えば、輝度信号用の閾値が色差信号用の閾値以上である関係)が保存されるように定義されている。 That is, as shown in Figure 6(a), even if the internal bit depth ("bitdepth" in Figure 6) changes, the magnitude relationship between the threshold value for the luminance signal and the threshold value for the color difference signal (for example, the relationship that the threshold value for the luminance signal is equal to or greater than the threshold value for the color difference signal) is defined to be preserved.

また、図6(a)のように、輝度信号用の閾値と色差信号用の閾値は、内部ビット深度の変化に応じて、それぞれ同じ倍率の値を掛けることで算出されるように定義されていてもよい。かかる構成によれば、内部ビット深度が変化しても輝度信号用の閾値と色差信号用の閾値との大小関係を保存し、内部ビット深度に関わらずに同様のクリッピング処理を行うことができる。 Also, as shown in FIG. 6(a), the threshold for the luminance signal and the threshold for the color difference signal may be defined so that they are calculated by multiplying them by the same factor depending on the change in the internal bit depth. With this configuration, even if the internal bit depth changes, the magnitude relationship between the threshold for the luminance signal and the threshold for the color difference signal is preserved, and the same clipping process can be performed regardless of the internal bit depth.

ここで、内部ビット深度は、符号化処理及び復号処理中に輝度信号及び色差信号の画素値を演算する際のビット精度を意味している。かかる内部ビット深度は、例えば、8~16ビットの整数値を取り、画像符号化装置100側から付加情報として画像復号装置200側に伝送される。 Here, the internal bit depth refers to the bit precision when calculating pixel values of the luminance signal and the color difference signal during the encoding process and the decoding process. Such internal bit depth takes an integer value of, for example, 8 to 16 bits, and is transmitted from the image encoding device 100 to the image decoding device 200 as additional information.

また、図6(a)のように、内部ビット深度に関連する倍率を2のべき乗で定義しておくことで、かかるクリッピング処理を、図6(b)のようにビットシフトのみで実現でき、ハードウェアやソフトウェアにおける処理負荷が軽減できる。 Furthermore, by defining the magnification factor related to the internal bit depth as a power of 2 as shown in Figure 6(a), such clipping processing can be achieved by bit shifting alone as shown in Figure 6(b), thereby reducing the processing load on the hardware and software.

すなわち、輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度の変化に応じて、それぞれビットシフトされることで算出されるように定義されていてもよい。 In other words, the threshold value for the luminance signal and the threshold value for the color difference signal may be defined so that they are calculated by bit shifting according to changes in the internal bit depth.

なお、図6(a)及び図6(b)におけるインデックス0に対応する閾値は、対応する内部ビット深度で表現できる最大値と同じ値である。よって、かかる閾値を選択することにより、かかる閾値に対応するフィルタ係数Cでは、実質、クリッピング処理を行わないことと等価になる。 Note that the threshold value corresponding to index 0 in Figures 6(a) and 6(b) is the same as the maximum value that can be expressed with the corresponding internal bit depth. Therefore, by selecting such a threshold value, it is essentially equivalent to not performing clipping processing on the filter coefficient C corresponding to that threshold value.

上述の例と同様な効果を得るには、上述のように、全ての閾値に対する倍率を同じ値にする必要はない。予め定められた内部ビット深度の定義域(例えば、8~16ビット)において、輝度信号内及び色差信号内では、それぞれ各インデックスに対応する閾値の大小関係が逆転せず、また、輝度信号と色差信号との間では、同一のインデックスに対応する閾値の大小関係が逆転しないことが保証される形であれば、各閾値に対する倍率をそれぞれ違う値としても問題ない。 To achieve the same effect as the above example, it is not necessary to set the multiplication factor for all thresholds to the same value, as mentioned above. As long as it is guaranteed that in a predetermined internal bit depth domain (e.g., 8 to 16 bits), the magnitude relationship of the thresholds corresponding to each index is not reversed in the luminance signal and in the chrominance signal, and that the magnitude relationship of the thresholds corresponding to the same index is not reversed between the luminance signal and the chrominance signal, there is no problem with setting the multiplication factor for each threshold to a different value.

なお、それぞれ0~N-1のインデックスが割り当てられたN種類(Nは、1以上の自然数)の輝度信号用の閾値及び色差信号用の閾値が設けられている場合、同一のインデックスを有する輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度に応じて同じ倍率を掛けすることによって算出されるように定義されていてもよい。 When N types of thresholds for luminance signals and thresholds for color difference signals are provided, each of which is assigned an index from 0 to N-1 (N is a natural number equal to or greater than 1), the thresholds for luminance signals and thresholds for color difference signals having the same index may be defined to be calculated by multiplying by the same magnification factor according to the internal bit depth.

また、上述の例では、内部ビット深度に応じて閾値に倍率を掛ける場合について説明したが、倍率ではなくオフセット値を加算する処理であってもよい。 In the above example, a magnification factor is applied to the threshold value depending on the internal bit depth, but an offset value may be added instead of a magnification factor.

なお、輝度信号の内部ビット深度と色差信号の内部ビット深度とが異なる場合においても、図6のように、輝度信号用の閾値及び色差信号用の閾値をそれぞれ定義しておくことで、輝度信号及び色差信号のダイナミックレンジが同じになるように換算した場合に、輝度信号と色差信号との間でのクリッピング処理において用いられる閾値の大小関係が常に変わらないように定義することができる。 Even if the internal bit depth of the luminance signal and the internal bit depth of the color difference signal are different, by defining a threshold value for the luminance signal and a threshold value for the color difference signal, as shown in Figure 6, it is possible to define the relationship between the threshold values used in the clipping process between the luminance signal and the color difference signal so that they always remain constant when the dynamic ranges of the luminance signal and the color difference signal are converted to be the same.

また、上述の例では、クラス毎及びフィルタ係数C毎に閾値を設定する場合について説明したが、例えば、クラス毎に全てのフィルタ係数Cに同じ閾値を設定する、すなわち、クラス毎に閾値を1つずつ設定するという方法も可能である。この場合、伝送すべき閾値の数が減るため、閾値のインデックスに関する符号量を削減できる。 In the above example, a case where a threshold is set for each class and each filter coefficient C has been described, but it is also possible to set the same threshold for all filter coefficients C for each class, that is, to set one threshold for each class. In this case, the number of thresholds to be transmitted is reduced, and therefore the amount of code related to the threshold index can be reduced.

また、後述するように、クラス毎にクリッピング処理を施すか否かについて示すフラグを、閾値のインデックスに先立って伝送するため、クラス毎に閾値が一種類しかない場合は、上述のインデックス0に対応する閾値(クリッピング処理無しと等価)を定義する必要がなくなる。よって、上述の例では、閾値の取り得るパターンを4種類から3種類に低減することができるため、閾値のインデックスに関する符号量の更なる低減が見込める。 In addition, as described below, a flag indicating whether or not clipping is performed for each class is transmitted prior to the threshold index. Therefore, if there is only one type of threshold for each class, there is no need to define a threshold corresponding to the above-mentioned index 0 (equivalent to no clipping). Therefore, in the above example, the possible threshold patterns can be reduced from four to three, which is expected to further reduce the amount of code related to the threshold index.

上述の例では、輝度信号用の閾値及び色差信号用の閾値に異なる値を設定する場合を説明したが、両者を同じ値とすることもできる。これにより、例えば、ハードウェアにおいて輝度信号及び色差信号のクリッピング処理に関する回路を共通化することができ、回路規模を削減できる。 In the above example, different values are set for the threshold for the luminance signal and the threshold for the color difference signal, but it is also possible to set both to the same value. This allows, for example, the hardware to share circuits related to clipping processing for the luminance signal and the color difference signal, thereby reducing the circuit size.

また、輝度信号用の閾値及び色差信号用の閾値は、内部ビット深度が10ビットの場合を基準として、現在の内部ビット深度に応じて演算を行うことによって算出されるように定義されていてもよい。 The threshold value for the luminance signal and the threshold value for the color difference signal may be defined so that they are calculated by performing calculations according to the current internal bit depth, based on a reference internal bit depth of 10 bits.

例えば、図6(a)では、輝度信号の10ビット時の閾値が1024、181、32、6の4種類であり、色差信号の10ビット時の閾値が1024、161、25、4の4種類であった場合を基準に、現在の内部ビット深度(図6におけるbitdepth)の値に応じて2のべき乗を乗じて最終的な閾値を得る場合の例が示されている。 For example, Figure 6(a) shows an example in which the thresholds for a 10-bit luminance signal are 1024, 181, 32, and 6, and the thresholds for a 10-bit chrominance signal are 1024, 161, 25, and 4, and the final thresholds are obtained by multiplying the current internal bit depth (bitdepth in Figure 6) by a power of 2.

ここで、図6では、10ビット時の閾値を具体的な数値(1024、181…等)で表しているが、これは、数式の形で定義されていてもよい。 In FIG. 6, the threshold value for 10 bits is expressed as a specific numerical value (1024, 181, etc.), but it may also be defined in the form of a mathematical formula.

例えば、図7に示すように、輝度信号の10ビット時の閾値を「2^(10(10×(4-index)/4) (ここで、index=0,1,2,3))として、それに「2^(bitdepth-10)」を乗じることで、現在の内部ビット深度に応じた最終的な閾値を得るように定義されていてもよい。 For example, as shown in Figure 7, the threshold for a 10-bit luminance signal may be defined as "2^(10(10 x (4 - index)/4) (where index = 0, 1, 2, 3))" and multiplied by "2^(bitdepth - 10)" to obtain the final threshold according to the current internal bit depth.

図7に示す色差信号の定義も同様に、「2^(8×(3-index)/4)×2^(2)」が10ビット時の閾値であり、それに「2^(bitdepth-10)」を乗じることで、現在の内部ビット深度に応じた閾値を算出していると考えることができる。 Similarly, the definition of the color difference signal shown in Figure 7 is that "2^(8 x (3-index)/4) x 2^(2)" is the threshold for 10 bits, and by multiplying this by "2^(bitdepth-10)", the threshold corresponding to the current internal bit depth is calculated.

パラメータ決定部150Cは、入力画像信号及びフィルタ処理前復号信号を入力とし、適応ループフィルタに関するパラメータを決定して符号化部140に付加情報として出力するとともに、決定したパラメータをフィルタ部150Bへ出力するように構成されている。 The parameter determination unit 150C is configured to receive the input image signal and the unfiltered decoded signal, determine parameters related to the adaptive loop filter, and output the parameters to the encoding unit 140 as additional information, and also output the determined parameters to the filter unit 150B.

パラメータ決定部150Cによって決定されるパラメータには、例えば、以下のものが含まれる。 The parameters determined by the parameter determination unit 150C include, for example, the following:

第1に、かかるパラメータとして、フレーム単位でのフィルタセットが挙げられる。ここで、1つのフィルタセットには、最大25クラス分の輝度信号用のフィルタ及び1クラス分の色差信号用のフィルタが含まれる。各クラスのフィルタについて、フィルタ係数の値や、クリッピング処理を施すか否について示すフラグや、かかるクラスでクリッピング処理を施す場合に各フィルタ係数におけるクリッピング処理で用いられる閾値のインデックス等が決定される。 First, such parameters include a filter set on a frame-by-frame basis. Here, one filter set includes filters for luminance signals of up to 25 classes and a filter for chrominance signals of one class. For each class of filter, the values of the filter coefficients, a flag indicating whether or not clipping processing is to be performed, and a threshold index used in clipping processing for each filter coefficient when clipping processing is to be performed for that class are determined.

パラメータ決定部150Cは、あるフレームに対して複数のフィルタセットを持っておき、後述のように、領域毎にどのフィルタセットを用いるかについて選択することができる。 The parameter determination unit 150C has multiple filter sets for a given frame and can select which filter set to use for each region, as described below.

第2に、かかるパラメータとして、例えば、CTU毎の適応ループフィルタを適用するか否かについて示すフラグが挙げられる。なお、パラメータ決定部150Cは、適応ループフィルタが適用される場合は、複数のフィルタセットの中のどれを用いるかについて示すインデックス情報を設定することができる。 Secondly, such a parameter may be, for example, a flag indicating whether or not to apply an adaptive loop filter for each CTU. When an adaptive loop filter is applied, the parameter determination unit 150C may set index information indicating which of multiple filter sets is to be used.

なお、かかるパラメータの決定方法については、公知の方法を用いることができるため、詳細は省略する。 The method for determining these parameters can be any known method, so details will be omitted.

また、図3には図示していないが、パラメータ決定部150Cは、パラメータの決定に、クラス判定部150Aによる判定結果や、仮のパラメータ設定で実施したフィルタ部150Bの結果を用いてもよい。 In addition, although not shown in FIG. 3, the parameter determination unit 150C may use the results of the determination by the class determination unit 150A or the results of the filter unit 150B implemented with provisional parameter settings to determine the parameters.

(画像復号装置200)
以下、図7を参照して、本実施形態に係る画像復号装置200について説明する。図7は、本実施形態に係る画像復号装置200の機能ブロックの一例について示す図である。
(Image Decoding Device 200)
The image decoding device 200 according to this embodiment will be described below with reference to Fig. 7. Fig. 7 is a diagram showing an example of functional blocks of the image decoding device 200 according to this embodiment.

図7に示すように、画像復号装置200は、復号部210と、逆変換・逆量子化部220と、加算器230と、インター予測部241と、イントラ予測部242と、インループフィルタ処理部250と、フレームバッファ260とを有する。 As shown in FIG. 7, the image decoding device 200 includes a decoding unit 210, an inverse transform/inverse quantization unit 220, an adder 230, an inter prediction unit 241, an intra prediction unit 242, an in-loop filter processing unit 250, and a frame buffer 260.

復号部210は、画像符号化装置100によって生成される符号化データを復号し、係数レベル値を復号するように構成されている。 The decoding unit 210 is configured to decode the encoded data generated by the image encoding device 100 and to decode the coefficient level values.

ここで、例えば、復号は、符号化部140で行われるエントロピー符号化とは逆の手順のエントロピー復号である。 Here, for example, the decoding is entropy decoding, which is the reverse procedure of the entropy encoding performed by the encoding unit 140.

また、復号部210は、符号化データの復号処理によって制御データを取得するように構成されていてもよい。 The decoding unit 210 may also be configured to obtain control data by decoding the encoded data.

なお、上述したように、制御データは、符号化ブロックサイズ、予測ブロックサイズ、変換ブロックサイズ等のサイズデータを含んでもよい。 As mentioned above, the control data may include size data such as the coding block size, the prediction block size, and the transform block size.

逆変換・逆量子化部220は、復号部210から出力される係数レベル値の逆変換処理を行うように構成されている。ここで、逆変換・逆量子化部220は、逆変換処理に先立って、係数レベル値の逆量子化を行うように構成されていてもよい。 The inverse transform/inverse quantization unit 220 is configured to perform inverse transform processing of the coefficient level values output from the decoding unit 210. Here, the inverse transform/inverse quantization unit 220 may be configured to perform inverse quantization of the coefficient level values prior to the inverse transform processing.

ここで、逆変換処理及び逆量子化は、変換・量子化部131で行われる変換処理及び量子化とは逆の手順で行われる。 Here, the inverse transformation process and inverse quantization are performed in the reverse order to the transformation process and quantization performed by the transformation/quantization unit 131.

加算器230は、逆変換・逆量子化部220から出力される予測残差信号に予測信号を加算してフィルタ処理前復号信号を生成し、フィルタ処理前復号信号をイントラ予測部242及びインループフィルタ処理部250に出力するように構成されている。 The adder 230 is configured to add the prediction signal to the prediction residual signal output from the inverse transform/inverse quantization unit 220 to generate a pre-filter decoded signal, and output the pre-filter decoded signal to the intra prediction unit 242 and the in-loop filter processing unit 250.

ここで、フィルタ処理前復号信号は、イントラ予測部242で用いる参照ブロックを構成する。 Here, the unfiltered decoded signal constitutes a reference block used by the intra prediction unit 242.

インター予測部241は、インター予測部111と同様に、インター予測(フレーム間予測)によって予測信号を生成するように構成されている。 Like the inter prediction unit 111, the inter prediction unit 241 is configured to generate a prediction signal by inter prediction (inter-frame prediction).

具体的には、インター予測部241は、符号化データから復号した動きベクトルと参照フレームに含まれる参照信号とに基づいて予測信号を予測ブロック毎に生成するように構成されている。インター予測部241は、予測信号を加算器230に出力するように構成されている。 Specifically, the inter prediction unit 241 is configured to generate a prediction signal for each prediction block based on a motion vector decoded from the encoded data and a reference signal included in the reference frame. The inter prediction unit 241 is configured to output the prediction signal to the adder 230.

イントラ予測部242は、イントラ予測部112と同様に、イントラ予測(フレーム内予測)によって予測信号を生成するように構成されている。 The intra prediction unit 242, like the intra prediction unit 112, is configured to generate a prediction signal by intra prediction (intra-frame prediction).

具体的には、イントラ予測部242は、対象フレームに含まれる参照ブロックを特定し、特定された参照ブロックに基づいて予測信号を予測ブロック毎に生成するように構成されている。イントラ予測部242は、予測信号を加算器230に出力するように構成されている。 Specifically, the intra prediction unit 242 is configured to identify a reference block included in the target frame and generate a prediction signal for each prediction block based on the identified reference block. The intra prediction unit 242 is configured to output the prediction signal to the adder 230.

インループフィルタ処理部250は、インループフィルタ処理部150と同様に、加算器230から出力されるフィルタ処理前復号信号に対してフィルタ処理を行うとともに、フィルタ処理後復号信号をフレームバッファ260に出力するように構成されている。 Similar to the in-loop filter processing unit 150, the in-loop filter processing unit 250 is configured to perform filtering on the unfiltered decoded signal output from the adder 230, and to output the filtered decoded signal to the frame buffer 260.

ここで、例えば、フィルタ処理は、復号画像の符号化歪みを減少する適応ループフィルタ処理である。 Here, for example, the filtering process is an adaptive loop filtering process that reduces the coding distortion of the decoded image.

フレームバッファ260は、フレームバッファ160と同様に、インター予測部241で用いる参照フレームを蓄積するように構成されている。 Like frame buffer 160, frame buffer 260 is configured to store reference frames used by inter prediction unit 241.

ここで、フィルタ処理後復号信号は、インター予測部241で用いる参照フレームを構成する。 Here, the filtered decoded signal constitutes a reference frame used by the inter prediction unit 241.

(インループフィルタ処理部250)
以下において、本実施形態に係るインループフィルタ処理部250について説明する。図9は、本実施形態に係るインループフィルタ処理部250を示す図である。
(In-loop filter processing unit 250)
The in-loop filter processor 250 according to this embodiment will be described below. Fig. 9 is a diagram showing the in-loop filter processor 250 according to this embodiment.

図9に示すように、インループフィルタ処理部250は、クラス判定部250Aと、フィルタ部250Bとを有する。 As shown in FIG. 9, the in-loop filter processing unit 250 has a class determination unit 250A and a filter unit 250B.

クラス判定部250Aは、クラス判定部150Aと同様に、フィルタ処理前復号信号を入力とし、予め定められた複数種類のインループフィルタの中から、どのクラスのフィルタを用いるかというクラス判定情報を出力するように構成されている。 Like class determination unit 150A, class determination unit 250A is configured to receive the unfiltered decoded signal as input and output class determination information indicating which class of filter to use from among multiple predefined types of in-loop filters.

フィルタ部250Bは、フィルタ部150Bと同様に、フィルタ処理前復号信号とクラス判定部250Aで決定されたクラス判定情報と画像符号化装置100側から付加情報として伝送されてくるパラメータとに基づいて、フィルタ処理を実行し、フィルタ処理後復号信号を出力するように構成されている。 Similar to filter unit 150B, filter unit 250B is configured to perform filtering based on the unfiltered decoded signal, the class determination information determined by class determination unit 250A, and parameters transmitted as additional information from the image encoding device 100 side, and to output the filtered decoded signal.

図10は、本実施形態に係る画像復号装置200のインループフィルタ処理部250の処理手順の一例を示すフローチャートである。 Figure 10 is a flowchart showing an example of the processing procedure of the in-loop filter processing unit 250 of the image decoding device 200 according to this embodiment.

図10に示すように、ステップS101において、インループフィルタ処理部250は、フィルタ処理前復号信号を入力とし、予め定められた複数種類のインループフィルタの中から、どのクラスのフィルタを用いるかというクラス判定情報を出力する。 As shown in FIG. 10, in step S101, the in-loop filter processing unit 250 receives the unfiltered decoded signal as input, and outputs class determination information indicating which class of filter to use from among multiple types of predefined in-loop filters.

ステップS102において、インループフィルタ処理部250は、フィルタ処理前復号信号とクラス判定部250Aで決定されたクラス判定情報と画像符号化装置100側から付加情報として伝送されてくるパラメータとに基づいて、フィルタ処理を実行し、フィルタ処理後復号信号を出力する。 In step S102, the in-loop filter processing unit 250 performs filtering based on the unfiltered decoded signal, the class determination information determined by the class determination unit 250A, and parameters transmitted as additional information from the image encoding device 100, and outputs a filtered decoded signal.

本実施形態に係る画像符号化装置100及び画像復号装置200によれば、適応内挿フィルタの入力信号の閾値処理に関して、内部ビット深度の設定に関わらず、輝度信号及び色差信号のダイナミックレンジが同じになるように換算した際に、輝度信号用の閾値と色差信号用の閾値との大小関係が不変になるため、意図せず主観画質の特性が変化してしまうことを防ぐことができる。 According to the image encoding device 100 and image decoding device 200 of this embodiment, when the dynamic ranges of the luminance signal and the color difference signal are converted to be the same in the threshold processing of the adaptive interpolation filter, the magnitude relationship between the threshold value for the luminance signal and the threshold value for the color difference signal remains unchanged regardless of the internal bit depth setting, so that it is possible to prevent unintended changes in the characteristics of the subjective image quality.

なお、上述の画像符号化装置100及び画像復号装置200は、コンピュータに各機能(各工程)を実行させるプログラムであって実現されていてもよい。 Note that the image encoding device 100 and image decoding device 200 described above may be realized as a program that causes a computer to execute each function (each process).

なお、上述の実施形態では、本発明を画像符号化装置100及び画像復号装置200への適用を例にして説明したが、本発明は、かかる例に限定されるものではなく、画像符号化装置100及び画像復号装置200の各機能を備えた画像符号化/復号システムにも同様に適用できる。 In the above embodiment, the present invention has been described by taking as an example the application to the image encoding device 100 and the image decoding device 200, but the present invention is not limited to such an example and can be similarly applied to an image encoding/decoding system having the functions of the image encoding device 100 and the image decoding device 200.

10…画像処理システム
100…画像符号化装置
111、241…インター予測部
112、242…イントラ予測部
121…減算器
122、230…加算器
131…変換・量子化部
132、220…逆変換・逆量子化部
140…符号化部
150、250…インループフィルタ処理部
150A、250A…クラス判定部
150B、250B…フィルタ部
150C…パラメータ決定部
160、260…フレームバッファ
200…画像復号装置
210…復号部
10... Image processing system 100... Image encoding device 111, 241... Inter prediction unit 112, 242... Intra prediction unit 121... Subtractor 122, 230... Adder 131... Transformation and quantization unit 132, 220... Inverse transformation and inverse quantization unit 140... Encoding unit 150, 250... In-loop filter processing unit 150A, 250A... Class determination unit 150B, 250B... Filter unit 150C... Parameter determination unit 160, 260... Frame buffer 200... Image decoding device 210... Decoding unit

Claims (3)

画像復号装置であって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定するように構成されているクラス判定部と、
前記クラス毎にフィルタ係数を決定するように構成されているパラメータ決定部と、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、
前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値が同じ値となるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とする画像復号装置。
An image decoding device,
A class determination unit configured to determine which class of filter to use using an unfiltered decoded signal as input;
a parameter determination unit configured to determine a filter coefficient for each of the classes;
a filter unit configured to receive the unfiltered decoded signal as an input and to output a filtered decoded signal;
the filter unit is configured to perform clipping processing on a difference value between a reference pixel value and a pixel value of the unfiltered decoded signal such that an absolute value of the difference value between the reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and to generate the filtered decoded signal by a linear weighted sum of the value after the clipping processing, the filter coefficient, and the pixel value of the unfiltered decoded signal,
the threshold is set for each of the classes and for each of the filter coefficients;
The threshold value for the luminance signal and the threshold value for the color difference signal are defined so as to be the same value even if the internal bit depth changes,
An image decoding device, characterized in that the threshold value is defined to double when the internal bit depth increases by 1.
画像復号方法であって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定する工程Aと、
前記クラス毎にフィルタ係数を決定する工程Bと、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力する工程Cとを有し、
前記工程Cにおいて、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成し、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値が同じ値となるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とする画像復号方法。
1. An image decoding method, comprising:
A step A of determining which class of filter to use using an unfiltered decoded signal as an input;
A step B of determining filter coefficients for each of the classes;
A step C of receiving the unfiltered decoded signal and outputting a filtered decoded signal,
in the step C, a clipping process is performed on a difference value between a reference pixel value and a pixel value of the unfiltered decoded signal so that an absolute value of the difference value between the reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and the filtered decoded signal is generated by a linear weighted sum of the value after the clipping process, the filter coefficient, and the pixel value of the unfiltered decoded signal;
the threshold is set for each of the classes and for each of the filter coefficients;
The threshold value for the luminance signal and the threshold value for the color difference signal are defined so as to be the same value even if the internal bit depth changes,
An image decoding method, characterized in that the threshold is defined to double when the internal bit depth increases by 1.
コンピュータを、画像復号装置として機能させるプログラムであって、
フィルタ処理前復号信号を入力として、どのクラスのフィルタを用いるかについて判定するように構成されているクラス判定部と、
前記クラス毎にフィルタ係数を決定するように構成されているパラメータ決定部と、
前記フィルタ処理前復号信号を入力とし、フィルタ処理後復号信号を出力するように構成されているフィルタ部を備え、
前記フィルタ部は、参照画素値と前記フィルタ処理前復号信号の画素値との差分値の絶対値が予め定義した閾値以下となるように、前記参照画素値と前記フィルタ処理前復号信号の画素値との差分値に対するクリッピング処理を施し、前記クリッピング処理が施された後の値と前記フィルタ係数と前記フィルタ処理前復号信号の画素値との線形加重和によって前記フィルタ処理後復号信号を生成するように構成されており、
前記閾値は、前記クラス毎及び前記フィルタ係数毎に設定され、
内部ビット深度が変化しても、輝度信号用の前記閾値と色差信号用の前記閾値が同じ値となるように定義されており、
内部ビット深度が1だけ大きくなると、前記閾値は2倍となるように定義されていることを特徴とするプログラム。
A program for causing a computer to function as an image decoding device,
A class determination unit configured to determine which class of filter to use using an unfiltered decoded signal as input;
a parameter determination unit configured to determine a filter coefficient for each of the classes;
a filter unit configured to receive the unfiltered decoded signal as an input and to output a filtered decoded signal;
the filter unit is configured to perform clipping processing on a difference value between a reference pixel value and a pixel value of the unfiltered decoded signal such that an absolute value of the difference value between the reference pixel value and a pixel value of the unfiltered decoded signal is equal to or less than a predefined threshold, and to generate the filtered decoded signal by a linear weighted sum of the value after the clipping processing, the filter coefficient, and the pixel value of the unfiltered decoded signal,
the threshold is set for each of the classes and for each of the filter coefficients;
The threshold value for the luminance signal and the threshold value for the color difference signal are defined so as to be the same value even if the internal bit depth changes,
The program is characterized in that the threshold value is defined to double when the internal bit depth increases by 1.
JP2023120159A 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program Active JP7485838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023120159A JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020191512A JP6912642B2 (en) 2019-06-20 2020-11-18 Image decoding device, image decoding method and program
JP2021112920A JP6941752B1 (en) 2020-11-18 2021-07-07 Image decoding device, image decoding method and program
JP2021144756A JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program
JP2023120159A JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021144756A Division JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program

Publications (2)

Publication Number Publication Date
JP2023129555A JP2023129555A (en) 2023-09-14
JP7485838B2 true JP7485838B2 (en) 2024-05-16

Family

ID=87805532

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021144756A Active JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program
JP2023120159A Active JP7485838B2 (en) 2020-11-18 2023-07-24 Image decoding device, image decoding method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021144756A Active JP7320573B2 (en) 2020-11-18 2021-09-06 Image decoding device, image decoding method and program

Country Status (1)

Country Link
JP (2) JP7320573B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126411A1 (en) 2018-12-21 2020-06-25 Canon Kabushiki Kaisha Adaptive loop filtering (alf) with non-linear clipping

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020126411A1 (en) 2018-12-21 2020-06-25 Canon Kabushiki Kaisha Adaptive loop filtering (alf) with non-linear clipping

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, Jianle Chen and Shan Liu,Versatile Video Coding (Draft 5),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N1001 (version 7),14th Meeting: Geneva, CH,2019年05月29日,pp.45-46, 97-101, 284-291
Jonathan Taquet et al.,CE5: Results of tests CE5-3.1 to CE5-3.4 on Non-Linear Adaptive Loop Filter.,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0242,14th Meeting: Geneva, CH,2019年03月,pp.1-10
Kyohei Unno, Kei Kawamura and Sei Naito,Non-CE5: A simplification of clipping thresholds for Non-Linear ALF,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0386-v2,15th Meeting: Gothenburg, SE,2019年07月,pp.1-6
Nan Hu, Vadim Seregin and Marta Karczewicz,Non-CE5: Simplification on clipping value calculation for adaptive loop filter,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-O0532-v1,15th Meeting: Gothenburg, SE,2019年06月,pp.1-4

Also Published As

Publication number Publication date
JP2023129555A (en) 2023-09-14
JP2022008331A (en) 2022-01-13
JP7320573B2 (en) 2023-08-03

Similar Documents

Publication Publication Date Title
US11736689B2 (en) Encoding device, decoding device, encoding method, and decoding method
JP6335365B2 (en) Decoding device
JP5801032B2 (en) Method and apparatus for in-loop artifact removal filtering
JP2007166522A (en) Decoding device, decoding method, and program
US11736728B2 (en) Encoding device, decoding device, and program
WO2020255847A1 (en) Image decoding device, image decoding method, and program
JP7485838B2 (en) Image decoding device, image decoding method, and program
JP7357721B2 (en) Deblocking filter control device and program
JP6912642B2 (en) Image decoding device, image decoding method and program
JP6941752B1 (en) Image decoding device, image decoding method and program
US20240214568A1 (en) Image decoding device, image decoding method, and program
JP7505869B2 (en) Encoding device, decoding device, and program
WO2021045059A1 (en) Encoding device, decoding device, and program
JP6396782B2 (en) Deblocking processing method, deblocking processing apparatus, computer program, and recording medium
JP2021052249A (en) Encoding device, decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240502

R150 Certificate of patent or registration of utility model

Ref document number: 7485838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150