JP6957873B2 - Coding device, decoding device, coding method, decoding method, coding program and decoding program - Google Patents

Coding device, decoding device, coding method, decoding method, coding program and decoding program Download PDF

Info

Publication number
JP6957873B2
JP6957873B2 JP2016251826A JP2016251826A JP6957873B2 JP 6957873 B2 JP6957873 B2 JP 6957873B2 JP 2016251826 A JP2016251826 A JP 2016251826A JP 2016251826 A JP2016251826 A JP 2016251826A JP 6957873 B2 JP6957873 B2 JP 6957873B2
Authority
JP
Japan
Prior art keywords
pixel value
linear
pixel
correction processing
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016251826A
Other languages
Japanese (ja)
Other versions
JP2018107608A (en
Inventor
中川 聰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2016251826A priority Critical patent/JP6957873B2/en
Publication of JP2018107608A publication Critical patent/JP2018107608A/en
Application granted granted Critical
Publication of JP6957873B2 publication Critical patent/JP6957873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラムに関し、例えば、映像情報を圧縮符号化する符号化装置、および、復号する復号装置に適用し得るものである。 The present invention relates to a coding device, a decoding device, a coding method, a decoding method, a coding program and a decoding program, and can be applied to, for example, a coding device for compressing and coding video information and a decoding device for decoding. Is.

H.264/MPEG−4 AVC(以下、AVC)やH.265/MPEG−H HEVC(以下、HEVC)等に代表される映像符号化方式による映像情報の圧縮符号化処理は、入力された対象画像を分割した処理単位ごとに、イントラ予測や動き補償予測等のインター予測を行った予測画像と、入力された対象画像との差分である予測残差信号に、離散コサイン変換等の空間変換を施した変換係数を量子化して、これをエントロピー符号化することによって高効率の映像圧縮を実現している。 H. 264 / MPEG-4 AVC (hereinafter referred to as AVC) and H.A. The compression coding process of video information by the video coding method represented by 265 / MPEG-H HEVC (hereinafter referred to as HEVC) is performed by intra-prediction, motion compensation prediction, etc. for each processing unit in which the input target image is divided. The conversion coefficient obtained by performing spatial transformation such as discrete cosine transform on the predicted residual signal, which is the difference between the predicted image obtained by inter-prediction and the input target image, is quantized and entropy-encoded. Achieves high-efficiency video compression.

図3は、従来技術の映像符号化装置の構成を示す構成図である。HEVCのような符号化技術を用いる場合、入力された符号化対象画像(入力映像)は、差分処理部301に与えられる。差分処理部301は、入力された符号化対象画像を、符号化ユニット等の処理単位領域ごとに、動き補償を伴うインター予測部310もしくは画面内の符号化済み画素等から予測を行うイントラ予測部311による予測画像との差分をとり、その差分である予測残差信号を得る。変換部302は、予測残差信号を、DCT(離散コサイン変換)やDST(離散サイン変換)により変換する。量子化部303は得られた変換係数を量子化し、エントロピー符号化部304が、量子化された変換係数を、可変長符号や算術符号のようなエントロピー符号化して符号化ストリームを出力する。量子化された変換係数は、逆量子化部305で逆量子化され、逆変換部306により逆変換される。加算部307は、逆変換された変換係数に予測画像を加算することによって再構成画像を得る。さらに、再構成画像はブロック歪を軽減するデブロッキングフィルタなどのループ内フィルタ部308によるフィルタが適用され、フィルタ後の再構成画像は、後続の画像の符号化時のインター予測の動き補償のための参照画像として参照画像バッファ309に保持される。 FIG. 3 is a configuration diagram showing a configuration of a conventional video coding device. When a coding technique such as HEVC is used, the input coded image (input video) is given to the difference processing unit 301. The difference processing unit 301 predicts the input coded image from the inter prediction unit 310 with motion compensation or the coded pixels in the screen for each processing unit area such as the coding unit. The difference from the predicted image according to 311 is taken, and the predicted residual signal which is the difference is obtained. The conversion unit 302 converts the predicted residual signal by DCT (discrete cosine transform) or DST (discrete sine transform). The quantization unit 303 quantizes the obtained conversion coefficient, and the entropy coding unit 304 outputs the coded stream by entropy-coding the quantized conversion coefficient such as a variable length code or an arithmetic code. The quantized conversion coefficient is inversely quantized by the inverse quantization unit 305 and inversely transformed by the inverse conversion unit 306. The addition unit 307 obtains a reconstructed image by adding the predicted image to the inversely transformed conversion coefficient. Further, the reconstructed image is filtered by the in-loop filter unit 308 such as a deblocking filter that reduces block distortion, and the reconstructed image after the filter is used to compensate for the motion of the inter-prediction at the time of encoding the subsequent image. It is held in the reference image buffer 309 as the reference image of.

図4は、従来技術の映像復号装置の構成を示す構成図である。符号化装置で生成された符号化ストリームが入力されると、符号化ストリームはエントロピー復号部404によりエントロピー復号されて、DCT等の変換係数と、符号化モード情報や動きベクトル情報を得る。変換係数は逆量子化部405により逆量子化され、逆変換部406により逆変換される。加算部407は、逆変換された変換係数に、インター予測部410もしくはイントラ予測部411により生成された予測画像を加算することで、符号化装置と同じ再構成画像を生成する。再構成画像はデブロッキングフィルタなどのループ内フィルタ部408によるフィルタが適用されて復号画像として出力されるとともに、後続のインター予測のための参照画像として参照画像バッファ409に保持される。 FIG. 4 is a configuration diagram showing a configuration of a conventional video decoding device. When the coded stream generated by the coding device is input, the coded stream is entropy-decoded by the entropy decoding unit 404 to obtain a conversion coefficient such as DCT, coding mode information, and motion vector information. The conversion coefficient is inversely quantized by the inverse quantization unit 405 and inversely transformed by the inverse conversion unit 406. The addition unit 407 generates the same reconstructed image as the encoding device by adding the prediction image generated by the inter prediction unit 410 or the intra prediction unit 411 to the inversely converted conversion coefficient. The reconstructed image is output as a decoded image by applying a filter by the in-loop filter unit 408 such as a deblocking filter, and is held in the reference image buffer 409 as a reference image for subsequent inter-prediction.

HEVCにおいてはループ内フィルタとしてデブロッキングフィルタに加えて、サンプル適応オフセット(Sample Adaptive Offset:以下、「SAO」とも呼ぶ。)と呼ばれているループ内フィルタが用いられている。これはブロック内に発生するリンギング歪と呼ばれるような画質劣化等を軽減するために用いられている。SAOでは処理対象の領域内の画素をいくつかのクラスに分類し、それぞれの分類ごとに画素値を補正するためのオフセット値をもちいてフィルタ処理を行う。 In HEVC, in addition to the deblocking filter, an in-loop filter called a sample adaptive offset (hereinafter, also referred to as “SAO”) is used as the in-loop filter. This is used to reduce image quality deterioration such as ringing distortion that occurs in the block. In SAO, the pixels in the area to be processed are classified into several classes, and the filter processing is performed using the offset value for correcting the pixel value for each classification.

図5は、従来のHEVCにおけるサンプル適応オフセット処理を示す構成図である。分類番号算出部31は、処理対象の領域内の各画素に対して、対象画素とその周辺の画素を参照して、分類番号を算出する。オフセット加算部33は、分類番号ごとのオフセット値を保持するオフセットテーブル記憶部32から得られるオフセット値を、対象画素の値に加算することで処理結果の画素値を求めている。 FIG. 5 is a configuration diagram showing sample adaptive offset processing in conventional HEVC. The classification number calculation unit 31 calculates the classification number for each pixel in the area to be processed by referring to the target pixel and the pixels around it. The offset addition unit 33 obtains the pixel value of the processing result by adding the offset value obtained from the offset table storage unit 32 that holds the offset value for each classification number to the value of the target pixel.

HEVCにおけるSAOでは、2種類のフィルタ方法が規定されており、それぞれバンドオフセット(Band Offset:以下、「BO」と呼ぶ。)、エッジオフセット(Edge Offset:以下、「EO」と呼ぶ。)と呼ばれている。エッジオフセットはさらに4方向のエッジタイプが規定されている。 In SAO in HEVC, two types of filter methods are defined, which are called band offset (hereinafter referred to as "BO") and edge offset (hereinafter referred to as "EO"), respectively. It has been. The edge offset is further defined as an edge type in four directions.

図6は、従来のHEVCのバンドオフセットの概要を示す図である。処理対象の画素を、その画素値の32段階の範囲に分類し、そのうちの連続する4分類について、各分類に属する画素に対してオフセット値を加算する。つまり、同じ分類に属する画素に対して同じオフセット値を加算する。BOの場合の分類番号は対象画素にのみ依存し、周辺画素は参照しない。 FIG. 6 is a diagram showing an outline of band offset of conventional HEVC. The pixels to be processed are classified into a range of 32 steps of the pixel values, and an offset value is added to the pixels belonging to each classification for four consecutive classifications. That is, the same offset value is added to the pixels belonging to the same classification. In the case of BO, the classification number depends only on the target pixel and does not refer to the peripheral pixels.

図7は、従来のHEVCのエッジオフセットの概要を示す図である。エッジオフセットでは、図7のように、処理対象の画素cと、画素cに隣接する2つの画素a、bを用いて分類を行う。画素a、bの参照パターンはエッジオフセットのタイプに応じて図6のような4パターンが規定されている。例えば処理対象領域に対してエッジオフセットの縦方向のパターンを適用する場合は、処理領域内の各画素cについてその上下に隣接する画素をそれぞれ画素a、bとして参照して、画素a、b、cの画素値の大小関係に応じて5通りのクラスに分類する。式(1)は分類番号edgeIdxを求める式である。
edgeIdx=2+Sign(c−a)+Sign(c−b) …(1)
ただし、Sign()は正負の符号に応じて「1」又は「-1」、もしくは0の場合は「0」を与える関数である。

Figure 0006957873
FIG. 7 is a diagram showing an outline of the edge offset of the conventional HEVC. In the edge offset, as shown in FIG. 7, classification is performed using the pixel c to be processed and the two pixels a and b adjacent to the pixel c. As the reference patterns of the pixels a and b, four patterns as shown in FIG. 6 are defined according to the type of edge offset. For example, when applying the vertical pattern of the edge offset to the processing target area, the pixels adjacent to the upper and lower sides of each pixel c in the processing area are referred to as pixels a and b, respectively, and the pixels a, b, It is classified into five classes according to the magnitude relationship of the pixel values of c. Equation (1) is an equation for obtaining the classification number edgeIdx.
edgeIdx = 2 + Sign (ca) + Sign (c-b) ... (1)
However, Sign () is a function that gives "1" or "-1" depending on the sign of positive or negative, or "0" in the case of 0.
Figure 0006957873

HEVCでは、この分類番号edgeIdxが2以外となる4つの分類(0,1,3,4)に対してオフセット値を用いてフィルタ処理を行う。すなわち、同じ分類番号となる画素に対して同じオフセット値を加算する。 In HEVC, filtering processing is performed using offset values for four classifications (0, 1, 3, 4) in which the classification number edgeIdx is other than 2. That is, the same offset value is added to the pixels having the same classification number.

このようなループ内フィルタ処理をさらに高度化する方法として、例えば、非特許文献1のようなSAOの処理方法を拡張する方法が提案されている。 As a method for further enhancing such in-loop filter processing, for example, a method for extending the SAO processing method as in Non-Patent Document 1 has been proposed.

非特許文献1の方法では、図8に示すように、処理対象の画素Cとその周囲(上下左右)の4画素(C0、C1、C2、C3)との画素値の大小関係に応じて、Cよりも画素値が大きい(小さい)画素が3画素の場合と4画素の場合について、それらの画素の平均値に応じたオフセット値を加算する処理を行っている。このような処理方法をBOやEOといった処理方法に追加して選択可能とする方法が提案されている。 In the method of Non-Patent Document 1, as shown in FIG. 8, depending on the magnitude relationship of the pixel values between the pixel C to be processed and the four pixels (C0, C1, C2, C3) around it (up, down, left, and right). In the case where the number of pixels having a pixel value larger (smaller) than C is 3 and the number of pixels is 4, a process of adding an offset value according to the average value of those pixels is performed. A method has been proposed in which such a processing method is added to a processing method such as BO or EO so that it can be selected.

Marta Karczewicz,et al. “Peak Sample Adaptive Offset,” JVET−D0133(http://phenix.it−sudparis.eu/jvet/doc_end_user/documents/4_Chengdu/wg11/JVET−D0133−v3.zip)Marta Karczewicz, et al. “Peek Sample Adaptive Offset,” JVET-D0133 (http://phenix.it-sudaparis.eu/jvet/doc_end_user/documents/4_Chengdu/wg11/JVET-

しかしながら、従来のサンプル適応オフセット処理では画素ごとの大小関係に依存するような非線形なフィルタ処理によって、対象画像に対して必ずしも最適ではないフィルタ処理が行われており、より画質劣化の改善効果の大きなフィルタ処理を施すことのできる方法が望まれている。 However, in the conventional sample adaptive offset processing, the filter processing that is not necessarily optimal for the target image is performed by the non-linear filter processing that depends on the magnitude relationship of each pixel, and the effect of improving the image quality deterioration is larger. A method that can be filtered is desired.

そのため、本発明は、符号化対象の画像の性質に応じて、より最適なフィルタ処理を施すことができ、画質劣化が低減でき、より符号化効率の高い符号化ストリームを生成できる符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラムを提供しようとするものである。 Therefore, the present invention provides a coding apparatus capable of performing more optimum filtering according to the properties of the image to be coded, reducing image quality deterioration, and generating a coded stream having higher coding efficiency. An object of the present invention is to provide a decoding device, a coding method, a decoding method, a coding program, and a decoding program.

前記課題を解決するために、第1の本発明に係る符号化装置は、再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備え、画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化装置において、画素値補正手段が、(1)線形フィルタ係数を記憶する線形フィルタ係数記憶部と、(2)線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部とを有し、線形補正処理部が、対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする符号化装置。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
第2の本発明に係る符号化装置は、再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備え、画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化装置において、画素値補正手段が、線形フィルタ係数を記憶する線形フィルタ係数記憶部と、線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部とを有し、線形補正処理部が、周辺画素の画素値と対象画素の画素値との差から得られる値の線形フィルタ係数による一次結合に基づいて線形補正処理を行なうことを特徴とする。
In order to solve the above problems, the first coding apparatus according to the present invention includes a pixel value correction means for correcting the pixel value of the target pixel in the processing unit region of the reconstructed image, and is obtained by the pixel value correction means. In a coding device that encodes using the obtained image and the input image, the pixel value correction means refers to (1) a linear filter coefficient storage unit that stores a linear filter coefficient and (2) a linear filter coefficient. Te, based on the pixel value of the target pixel and the pixel values of the peripheral pixels, have a linear correction processing unit that performs linear correction process, the linear correction unit, the pixel value c of the target pixel, a plurality A coding apparatus characterized by performing linear correction processing for obtaining a corrected pixel value c'according to the equation (A) with reference to the pixel value ni of the peripheral pixels of the above.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
The second coding apparatus according to the present invention includes a pixel value correction means for correcting the pixel value of the target pixel in the processing unit region of the reconstructed image, and the image obtained by the pixel value correction means and the input image are combined. In a coding device that encodes using the pixel value correction means, the pixel value correction means refers to the linear filter coefficient storage unit that stores the linear filter coefficient and the linear filter coefficient, and the pixel value of the target pixel and the pixel value of its peripheral pixels. It has a linear correction processing unit that performs linear correction processing based on It is characterized in that linear correction processing is performed based on.

の本発明に係る復号装置は、入力された符号化ストリームを復号し、再構成画像の処理単位領域内の画素値を補正する画素値補正手段を備える復号装置において、画素値補正手段が、(1)符号化ストリームに含まれる線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部を有し、線形補正処理部が、対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする復号装置。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
第4の本発明に係る復号装置は、入力された符号化ストリームを復号し、再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備える復号装置において、画素値補正手段が、符号化ストリームに含まれる線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部を有し、線形補正処理部が、周辺画素の画素値と対象画素の画素値との差から得られる値の線形フィルタ係数による一次結合に基づいて線形補正処理を行なうことを特徴とする。
A third decoding device according to the present invention is a decoding device including a pixel value correction means that decodes an input coded stream and corrects a pixel value in a processing unit region of a reconstructed image. , (1) with reference to the linear filter coefficient included in the coded stream, on the basis of the pixel value of the target pixel and the pixel values of the peripheral pixels, have a linear correction processing unit that performs linear correction process, linear correction A feature of the processing unit is that the pixel value c of the target pixel is subjected to linear correction processing for obtaining the corrected pixel value c'according to the equation (A) with reference to the pixel values ni of a plurality of peripheral pixels. Decryptor.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
The fourth decoding device according to the present invention is a decoding device including a pixel value correction means for decoding an input coded stream and correcting the pixel value of the target pixel in the processing unit area of the reconstructed image. The correction means has a linear correction processing unit that performs linear correction processing based on the pixel value of the target pixel and the pixel value of the peripheral pixels with reference to the linear filter coefficient included in the coded stream, and linear correction. The processing unit is characterized in that it performs linear correction processing based on a linear combination of values obtained from the difference between the pixel values of peripheral pixels and the pixel values of target pixels by a linear filter coefficient.

の本発明に係る符号化方法は、再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備え、画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化方法において、画素値補正手段が、(1)線形フィルタ係数を記憶し、(2)線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行ない、画素値補正手段が、対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする符号化方法。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
The fifth coding method according to the present invention includes a pixel value correction means for correcting the pixel value of the target pixel in the processing unit region of the reconstructed image, and the image obtained by the pixel value correction means and the input image are combined. In the coding method of encoding using the pixel value correction means, (1) the linear filter coefficient is stored, and (2) the linear filter coefficient is referred to, and the pixel value of the target pixel and the pixel value of the peripheral pixels thereof are referred to. based on the bets, linear correction process rows stomach, the pixel value correction unit, the pixel value c of the target pixel with reference to pixel values ni of a plurality of surrounding pixels, according to equation (a), the corrected A coding method characterized by performing a linear correction process for obtaining the pixel value c'of.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.

の本発明に係る復号方法は、入力された符号化ストリームを復号し、再構成画像の処理単位領域内の画素値を補正する画素値補正手段を備える復号方法において、画素値補正手段が、符号化ストリームに含まれる線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行ない、画素値補正手段が、対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする復号方法。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
The sixth decoding method according to the present invention is a decoding method including a pixel value correction means for decoding an input coded stream and correcting a pixel value in a processing unit area of a reconstructed image. refers to the linear filter coefficient included in the coded stream, on the basis of the pixel value of the target pixel and the pixel values of the peripheral pixels, have row linear correction processing, the pixel value correcting means, the target pixel pixel A decoding method characterized in that a linear correction process for obtaining a corrected pixel value c'according to the equation (A) is performed with reference to the pixel values ni of a plurality of peripheral pixels with respect to the value c.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.

本発明によれば、映像符号化技術のサンプル適応オフセット処理において、従来技術のような周辺画素との大小関係に依存するような非線形なフィルタ処理に加えて、周辺画素値を用いる線形なフィルタ処理も選択可能となり、符号化対象の画像の性質に応じたより最適なフィルタ処理を施すことが可能となることで、画質劣化が低減できるとともに、より符号化効率の高い符号化ストリームが生成可能となる。 According to the present invention, in the sample adaptive offset processing of the video coding technology, in addition to the non-linear filter processing that depends on the magnitude relationship with the peripheral pixels as in the prior art, the linear filter processing using the peripheral pixel values. Is also selectable, and more optimal filter processing can be performed according to the properties of the image to be encoded, so that deterioration of image quality can be reduced and a coded stream with higher coding efficiency can be generated. ..

第1の実施形態に係る映像符号化装置の構成を示す構成図である。It is a block diagram which shows the structure of the image coding apparatus which concerns on 1st Embodiment. 第1の実施形態に係る映像復号装置の構成を示す構成図である。It is a block diagram which shows the structure of the image decoding apparatus which concerns on 1st Embodiment. 従来技術の映像符号化装置の構成を示す構成図である。It is a block diagram which shows the structure of the video coding apparatus of the prior art. 従来技術の映像復号装置の構成を示す構成図である。It is a block diagram which shows the structure of the video decoding apparatus of the prior art. 従来のHEVCにおけるサンプル適応オフセット処理を示す構成図である。It is a block diagram which shows the sample adaptive offset process in the conventional HEVC. 従来のHEVCのバンドオフセットの概要を示す図である。It is a figure which shows the outline of the band offset of the conventional HEVC. 従来のHEVCのエッジオフセットの概要を示す図である。It is a figure which shows the outline of the edge offset of the conventional HEVC. 従来のサンプル適応オフセットの処理方法を拡張した方法を示す説明図である。It is explanatory drawing which shows the method which extended the processing method of the conventional sample adaptive offset. 第1の実施形態に係るサンプル適応オフセット処理部の構成を示す構成図である。It is a block diagram which shows the structure of the sample adaptation offset processing part which concerns on 1st Embodiment. 第1の実施形態に係る線形フィルタの周辺画素の参照パターンを示す図である。It is a figure which shows the reference pattern of the peripheral pixel of the linear filter which concerns on 1st Embodiment. 第2の実施形態に係るサンプル適応オフセット処理部20の構成を示す構成図である。It is a block diagram which shows the structure of the sample adaptation offset processing part 20 which concerns on 2nd Embodiment.

(A)第1の実施形態
以下では、本発明に係る符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラムの第1の実施形態を、図面参照しながら詳細に説明する。
(A) First Embodiment In the following, the first embodiment of the coding device, the decoding device, the coding method, the decoding method, the coding program and the decoding program according to the present invention will be described in detail with reference to the drawings. do.

(A−1)第1の実施形態の構成
(A−1−1)映像符号化装置の詳細な構成
図1は、第1の実施形態に係る映像符号化装置の構成を示す構成図である。
(A-1) Configuration of First Embodiment (A-1-1) Detailed Configuration of Video Coding Device FIG. 1 is a configuration diagram showing a configuration of a video coding device according to the first embodiment. ..

図1において、第1の実施形態に係る映像符号化装置1は、差分処理部101、変換部102、量子化部103、エントロピー符号化部104、逆量子化部105、逆変換部106、加算部107、ループ内フィルタ部108、参照画像バッファ109、インター予測部110、イントラ予測部111、切り替え部112、フィルタ係数決定部120を有する。 In FIG. 1, the video coding apparatus 1 according to the first embodiment includes a difference processing unit 101, a conversion unit 102, a quantization unit 103, an entropy coding unit 104, an inverse quantization unit 105, an inverse conversion unit 106, and an addition. It includes a unit 107, an in-loop filter unit 108, a reference image buffer 109, an inter-prediction unit 110, an intra-prediction unit 111, a switching unit 112, and a filter coefficient determination unit 120.

第1の実施形態に係る映像符号化装置1は、図1に示す各構成部を搭載した専用のICチップ等のハードウェアとして構成しても良いし、又は、CPUと、CPUが実行するプログラムを中心としてソフトウェア的に構成して良いが、機能的には、図1で表すことができる。 The video coding device 1 according to the first embodiment may be configured as hardware such as a dedicated IC chip on which each component shown in FIG. 1 is mounted, or the CPU and a program executed by the CPU. Although it may be configured by software centering on, functionally, it can be represented by FIG.

第1の実施形態では、符号化方式がH.265/MPEG−H HEVCで規格化されている符号化方式を基調とする場合を例示する。しかし、符号化方式は、H.265/MPEG−H HEVCに限定されるものではなく、再構成画像に対して画素値を補正する処理を伴う符号化を行うことができるものであれば、様々な符号化方式を適用できる。符号化方式は、H.265/MPEG−H HEVCに限定されず、例えば、H.264/MPEG−4 AVCの規格化技術やH.265/MPEG−H HEVCの規格化技術等を基調として拡張した符号化方式にも適用可能である。 In the first embodiment, the coding method is H.I. An example shows a case where the coding method standardized by 265 / MPEG-H HEVC is used as the keynote. However, the coding method is H. It is not limited to 265 / MPEG-H HEVC, and various coding methods can be applied as long as the reconstructed image can be encoded with a process of correcting the pixel value. The coding method is H. Not limited to 265 / MPEG-H HEVC, for example, H.M. 264 / MPEG-4 AVC standardization technology and H.A. It can also be applied to an extended coding method based on the standardization technology of 265 / MPEG-H HEVC.

映像符号化装置1は、入力された符号化対象画像(入力映像)を符号化ユニット等の所定単位領域ごとに符号化し、符号化ストリームを出力する。 The video coding device 1 encodes the input coded image (input video) for each predetermined unit area such as a coding unit, and outputs a coded stream.

映像符号化装置1に入力される符号化対象画像(入力映像)は、例えば画面分割部(図示しない)等により、コーディングユニット等の所定の処理単位領域ごとに分割されて、差分処理部101に与えられる。 The coded image (input video) input to the video coding apparatus 1 is divided into predetermined processing unit areas such as a coding unit by, for example, a screen dividing unit (not shown), and is divided into a difference processing unit 101. Given.

差分処理部101は、予測残差信号を求めるために、所定の処理単位領域に分割された入力画像と、インター予測部110若しくはイントラ予測部111からの、上記処理単位領域に対応する予測画像との差分を求め、その差分を予測残差信号として変換部102に与えるものである。 The difference processing unit 101 includes an input image divided into a predetermined processing unit area in order to obtain a prediction residual signal, and a prediction image from the inter prediction unit 110 or the intra prediction unit 111 corresponding to the processing unit area. The difference is obtained, and the difference is given to the conversion unit 102 as a predicted residual signal.

変換部102は、入力された予測残差信号を変換係数に変換するものである。変換部102は、例えば、DCT(離散コサイン変換)やDST(離散コサイン変換)等を適用できる。 The conversion unit 102 converts the input predicted residual signal into a conversion coefficient. For example, DCT (discrete cosine transform), DST (discrete cosine transform), and the like can be applied to the conversion unit 102.

量子化部103は、変換部102により変換された変換係数を量子化するものである。量子化部103は、得られた量子化された変換係数をエントロピー符号化部104及び逆量子化部105に出力する。 The quantization unit 103 quantizes the conversion coefficient converted by the conversion unit 102. The quantization unit 103 outputs the obtained quantized conversion coefficient to the entropy coding unit 104 and the inverse quantization unit 105.

エントロピー符号化部104は、符号の出現確率の偏りを圧縮するために、量子化部103からの量子化された変換係数等をエントロピー符号化して、符号化映像ストリームを出力するものである。また、エントロピー符号化部104は、後述するフィルタ係数決定部120により決定された、サンプル適応オフセット処理部10で用いられるフィルタ係数を符号化映像ストリームに多重化して出力する。 The entropy coding unit 104 entropy-codes the quantized conversion coefficient or the like from the quantized unit 103 in order to compress the bias of the appearance probability of the code, and outputs a coded video stream. Further, the entropy coding unit 104 multiplexes and outputs the filter coefficient used in the sample adaptive offset processing unit 10 determined by the filter coefficient determining unit 120 described later in the coded video stream.

逆量子化部105は、符号化信号から残差信号(残差画像)を復元するために、量子化部103からの量子化された変換係数を逆量子化するものである。 The inverse quantization unit 105 dequantizes the quantized conversion coefficient from the quantization unit 103 in order to restore the residual signal (residual image) from the coded signal.

逆変換部106は、逆量子化部105により逆量子化された信号を逆変換して残差信号(残差画像)を復元して、加算部107に与えるものである。 The inverse transformation unit 106 reverse-converts the signal inversely quantized by the inverse quantization unit 105 to restore the residual signal (residual image) and gives it to the addition unit 107.

加算部107は、逆変換部106からの復元された残差信号に、切り替え部112を介してインター予測部110若しくはイントラ予測部111からの予測画像を加算して、復号側で復号される再構成画像を求めるものである。加算部107は、再構成画像を、ループ内フィルタ部108に与える。 The addition unit 107 adds the predicted image from the inter prediction unit 110 or the intra prediction unit 111 to the restored residual signal from the inverse conversion unit 106 via the switching unit 112, and is decoded again on the decoding side. The constituent image is obtained. The addition unit 107 gives the reconstructed image to the in-loop filter unit 108.

ループ内フィルタ部108は、符号化ループ内の量子化処理によって生じる符号化歪み(例えばブロック歪、リンギング歪等)を低減するために、加算部107からの再構成画像をフィルタリングするものである。 The in-loop filter unit 108 filters the reconstructed image from the addition unit 107 in order to reduce the coding distortion (for example, block distortion, ringing distortion, etc.) caused by the quantization process in the coding loop.

また、ループ内フィルタ部108は、サンプル適応オフセット処理部10を有している。このサンプル適応オフセット処理部10の詳細な構成は後述する。なお、ループ内フィルタ部108は、サンプル適応オフセット処理部10のほかに、HEVCで用いられているデブロッキングフィルタのようなフィルタを組み合わせて用いても良い。 Further, the in-loop filter unit 108 has a sample adaptive offset processing unit 10. The detailed configuration of the sample adaptive offset processing unit 10 will be described later. In addition to the sample adaptive offset processing unit 10, the in-loop filter unit 108 may use a filter such as the deblocking filter used in HEVC in combination.

参照画像バッファ109は、ループ内フィルタ部108から出力される画像を、参照画像として保持するものである。ループ内フィルタ部108からの出力画像が、後続の入力画像の符号化時のインター予測の動き補償のための参照画像となる。 The reference image buffer 109 holds the image output from the in-loop filter unit 108 as a reference image. The output image from the in-loop filter unit 108 serves as a reference image for motion compensation of the inter-prediction at the time of coding the subsequent input image.

インター予測部110は、参照画像バッファ109に保持されている画像を参照画像として取得して動き補償予測を行うものである。 The inter-prediction unit 110 acquires an image held in the reference image buffer 109 as a reference image and performs motion compensation prediction.

イントラ予測部111は、加算部107から出力される再構成画像を用いてイントラ予測を行うものである。 The intra prediction unit 111 performs intra prediction using the reconstructed image output from the addition unit 107.

切り替え部112は、符号化モード(イントラモード又はインターモード)に応じて、インター予測部110又はイントラ予測部111の出力を切り替えるものである。 The switching unit 112 switches the output of the inter prediction unit 110 or the intra prediction unit 111 according to the coding mode (intra mode or inter mode).

フィルタ係数決定部120は、ループ内フィルタ部108のサンプル適応オフセット処理部10で用いるフィルタ係数を決定するものである。また、フィルタ係数決定部120は、映像復号装置側に通知するため、決定したフィルタ係数をエントロピー符号化部104に与える。 The filter coefficient determining unit 120 determines the filter coefficient used in the sample adaptive offset processing unit 10 of the in-loop filter unit 108. Further, the filter coefficient determining unit 120 gives the determined filter coefficient to the entropy coding unit 104 in order to notify the video decoding apparatus side.

(A−1−2)映像復号装置の詳細な構成
図2は、第1の実施形態に係る映像復号装置2の構成を示す構成図である。
(A-1-2) Detailed Configuration of Video Decoding Device FIG. 2 is a configuration diagram showing a configuration of the video decoding device 2 according to the first embodiment.

図2において、第1の実施形態に係る映像復号装置2は、エントロピー復号部204、逆量子化部205、逆変換部206、加算部207、ループ内フィルタ部208、参照画像バッファ209、インター予測部210、イントラ予測部211、切り替え部212を有する。 In FIG. 2, the video decoding apparatus 2 according to the first embodiment has an entropy decoding unit 204, an inverse quantization unit 205, an inverse conversion unit 206, an addition unit 207, an in-loop filter unit 208, a reference image buffer 209, and an inter-prediction. It has a unit 210, an intra prediction unit 211, and a switching unit 212.

第1の実施形態に係る映像復号装置2は、図2に示す各構成部を搭載した専用のICチップ等のハードウェアとして構成しても良いし、又は、CPUと、CPUが実行するプログラムを中心としてソフトウェア的に構成して良いが、機能的には、図2で表すことができる。 The video decoding device 2 according to the first embodiment may be configured as hardware such as a dedicated IC chip on which each component shown in FIG. 2 is mounted, or a CPU and a program executed by the CPU may be configured. It may be configured as software as the center, but functionally, it can be represented by FIG.

映像復号装置2は、入力された符号化ストリームを復号して、復号映像を出力する。 The video decoding device 2 decodes the input encoded stream and outputs the decoded video.

エントロピー復号部204は、入力された符号化ストリームをエントロピー復号して、変換係数や符号化モード情報、動きベクトル情報等を取得するものである。また、エントロピー復号部204は、符号化ストリームに多重化されているフィルタ係数を抽出してループ内フィルタ部208に与える。 The entropy decoding unit 204 entropy-decodes the input coded stream to acquire conversion coefficients, coding mode information, motion vector information, and the like. Further, the entropy decoding unit 204 extracts the filter coefficient multiplexed on the coded stream and gives it to the in-loop filter unit 208.

逆量子化部205は、エントロピー復号部204からの変換係数を逆量子化するものである。 The dequantization unit 205 dequantizes the conversion coefficient from the entropy decoding unit 204.

逆変換部206は、逆量子化部205により逆量子化された信号を逆変換して残差信号(残差画像)を復元して、加算部207に与えるものである。 The inverse conversion unit 206 reverse-converts the signal inversely quantized by the inverse quantization unit 205, restores the residual signal (residual image), and gives it to the addition unit 207.

インター予測部210は、参照画像バッファ209に保持されている画像を参照画像として取得して動き補償予測を行うものである。 The inter-prediction unit 210 acquires an image held in the reference image buffer 209 as a reference image and performs motion compensation prediction.

イントラ予測部211は、加算部207から出力される再構成画像を用いて、画面内内の再構成画素等からイントラ予測を行うものである。 The intra prediction unit 211 uses the reconstructed image output from the addition unit 207 to perform intra prediction from the reconstructed pixels and the like in the screen.

切り替え部212は、予測画像を切り替えるため、符号化モード(イントラモード又はインターモード)に応じて、インター予測部210又はイントラ予測部211の出力を切り替えるものである。 The switching unit 212 switches the output of the inter prediction unit 210 or the intra prediction unit 211 according to the coding mode (intra mode or inter mode) in order to switch the prediction image.

加算部207は、逆変換部206からの復元された残差信号に、切り替え部212を介してインター予測部210若しくはイントラ予測部211からの予測画像を加算して、再構成画像を生成するものである。加算部127は、再構成画像を、ループ内フィルタ部208に与える。 The addition unit 207 adds a prediction image from the inter prediction unit 210 or the intra prediction unit 211 to the restored residual signal from the inverse conversion unit 206 via the switching unit 212 to generate a reconstructed image. Is. The addition unit 127 gives the reconstructed image to the in-loop filter unit 208.

ループ内フィルタ部208は、符号化ループ内の量子化処理によって生じる符号化歪み(例えばブロック歪、リンギング歪等)を低減するために、加算部207からの再構成画像をフィルタリングするものである。 The in-loop filter unit 208 filters the reconstructed image from the addition unit 207 in order to reduce the coding distortion (for example, block distortion, ringing distortion, etc.) caused by the quantization processing in the coding loop.

ループ内フィルタ部208で得られた復号画像は復号処理結果として出力されるとともに、後続のインター予測のための参照画像として参照画像バッファ209に保持される。 The decoded image obtained by the in-loop filter unit 208 is output as a decoding process result, and is held in the reference image buffer 209 as a reference image for subsequent inter-prediction.

また、ループ内フィルタ部208は、サンプル適応オフセット処理部10を有している。 Further, the in-loop filter unit 208 has a sample adaptive offset processing unit 10.

従来技術の映像復号装置との違いは、ループ内フィルタ部208において、サンプル適応オフセット処理部10が有し、またこのサンプル適応オフセット処理部10で用いるフィルタ係数の情報が入力する符号化ストリームに含まれている。サンプル適応オフセット処理部10は、エントロピー復号によって得られるフィルタ係数を用いてサンプル適応オフセット処理を行う。 The difference from the conventional video decoding apparatus is that in the in-loop filter unit 208, the sample adaptive offset processing unit 10 has the sample adaptive offset processing unit 10, and the information of the filter coefficient used in the sample adaptive offset processing unit 10 is included in the coded stream to be input. It has been. The sample adaptive offset processing unit 10 performs sample adaptive offset processing using the filter coefficient obtained by entropy decoding.

なお、映像符号化装置1と同様に、ループ内フィルタ部208は、サンプル適応オフセット処理部10のほかに、HEVCで用いられているデブロッキングフィルタのようなフィルタを組み合わせて用いても良い。 Similar to the video coding device 1, the in-loop filter unit 208 may use a filter such as the deblocking filter used in HEVC in combination with the sample adaptive offset processing unit 10.

(A−1−3)サンプル適応オフセット処理部10の詳細な構成
図9は、第1の実施形態に係るサンプル適応オフセット処理部10の構成を示す構成図である。
(A-1-3) Detailed Configuration of Sample Adaptive Offset Processing Unit 10 FIG. 9 is a configuration diagram showing a configuration of the sample adaptive offset processing unit 10 according to the first embodiment.

第1の実施形態に係るサンプル適応オフセット処理部10は、図5に示すような従来技術のサンプル適応オフセット処理と同様の非線形な処理に加えて、図9のような線形フィルタ処理タイプのサンプル適応オフセット処理(以下、「LO」とも呼ぶ。)を設ける。 In the sample adaptation offset processing unit 10 according to the first embodiment, in addition to the non-linear processing similar to the sample adaptation offset processing of the prior art as shown in FIG. 5, the sample adaptation of the linear filter processing type as shown in FIG. 9 Offset processing (hereinafter, also referred to as “LO”) is provided.

なお、従来の非線形な処理と、第1の実施形態の線形な処理との選択は、後述するように、例えばSAOの種類によるフィルタ結果を入力画像に対する誤差(すなわち歪)を評価し、画質の劣化の少ないSAO種類を選択する等の方法を適用できる。以下では、図9を用いて線形な処理を中心に説明する。 As for the selection between the conventional non-linear processing and the linear processing of the first embodiment, as will be described later, for example, the filter result depending on the type of SAO is evaluated for an error (that is, distortion) with respect to the input image, and the image quality is improved. A method such as selecting a SAO type with less deterioration can be applied. In the following, linear processing will be mainly described with reference to FIG.

図9において、サンプル適応オフセット処理部10は、線形フィルタ処理部11、線形フィルタ係数記憶部12を有する。上述したように、図9に示すサンプル適応オフセット処理部10は、映像符号化装置1のループ内フィルタ部108及び映像復号装置2のループ内フィルタ部208に含まれる。 In FIG. 9, the sample adaptive offset processing unit 10 includes a linear filter processing unit 11 and a linear filter coefficient storage unit 12. As described above, the sample adaptive offset processing unit 10 shown in FIG. 9 is included in the in-loop filter unit 108 of the video coding device 1 and the in-loop filter unit 208 of the video decoding device 2.

線形フィルタ係数記憶部12は、線形フィルタ係数を記憶するものである。映像符号化側の場合、図1のフィルタ係数決定部120により決定されたフィルタ係数を線形フィルタ係数記憶部12が記憶する。映像復号側の場合、図2のエントロピー復号部204により得られたフィルタ係数を線形フィルタ係数記憶部12が記憶する。 The linear filter coefficient storage unit 12 stores the linear filter coefficient. On the video coding side, the linear filter coefficient storage unit 12 stores the filter coefficient determined by the filter coefficient determination unit 120 in FIG. 1. On the video decoding side, the linear filter coefficient storage unit 12 stores the filter coefficient obtained by the entropy decoding unit 204 of FIG.

線形フィルタ処理部11は、処理対象となる領域内のそれぞれの画素ごとに、処理対象画素とその周辺の画素を入力し、フィルタ係数記憶部のフィルタ係数を参照して、後述の線形フィルタ処理を行って、対象画素に対するフィルタ結果の画素値を出力する。 The linear filter processing unit 11 inputs the processing target pixel and the pixels around it for each pixel in the area to be processed, refers to the filter coefficient of the filter coefficient storage unit, and performs the linear filter processing described later. Then, the pixel value of the filter result for the target pixel is output.

(A−2)第1の実施形態の動作
次に、第1の実施形態に係るサンプル適応オフセット処理の動作を、図面を参照しながら詳細に説明する。
(A-2) Operation of First Embodiment Next, the operation of the sample adaptive offset processing according to the first embodiment will be described in detail with reference to the drawings.

図9に示すように、第1の実施形態のサンプル適応オフセット処理は、従来技術のサンプル適応処理(SAO)のようなテーブルルックアップで求めたオフセット値の加算処理ではなく、周辺画素値を参照する線形な処理を用いてフィルタ処理を行う。従来技術のオフセットテーブルの代わりに、線形なフィルタ処理で用いるフィルタ係数を自由に設定可能としている。 As shown in FIG. 9, the sample adaptive offset processing of the first embodiment refers to peripheral pixel values, not the offset value addition processing obtained by table lookup as in the conventional sample adaptive processing (SAO). Filter processing is performed using the linear processing. Instead of the offset table of the prior art, the filter coefficient used in the linear filtering process can be freely set.

図10は、実施形態に係る線形フィルタの周辺画素の参照パターンを示す図である。 FIG. 10 is a diagram showing a reference pattern of peripheral pixels of the linear filter according to the embodiment.

例えば、図10(A)に示すように、処理対象の画素cに対してその上下左右に隣接する4つの画素n,n,n,nを参照して、フィルタ処理結果の画素値c’を次式のように求める。
c’=Clip1(c+((Σ(n−c)+b+r)>>s)) …(3)
For example, as shown in FIG. 10A, the pixels of the filter processing result are obtained by referring to the four pixels n 0 , n 1 , n 2 , and n 3 adjacent to the pixel c to be processed on the top, bottom, left, and right. Find the value c'as in the following equation.
c '= Clip1 (c + ( (Σ i a i (n i -c) + b + r) >> s)) ... (3)

ここで、a,bはフィルタ係数であり、線形フィルタ係数記憶部12から供給される。添え字iは周辺画素の位置i=0〜3である。sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)である。 Here, ai and b are filter coefficients, which are supplied from the linear filter coefficient storage unit 12. The subscript i is the position i = 0 to 3 of the peripheral pixel. s and r are a shift amount s and rounding r = 1 << (s-1) for performing a fixed minority operation in an integer operation.

また、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数であり、例えば、8ビット画像が処理対象の場合は、0〜255の範囲に、10ビット画像の場合は0〜1023の範囲にクリッピングする。なお、サンプル適応オフセットの処理結果を、例えば、さらにフィルタ処理するなどの構成によってはクリッピング処理を省略しても良い。 Clip1 is a function that clips the pixel value to a valid pixel value range. For example, when an 8-bit image is a processing target, it is in the range of 0 to 255, and in the case of a 10-bit image, it is 0 to 1023. Clip to the range of. Note that clipping processing may be omitted depending on the configuration such as further filtering the processing result of the sample adaptive offset.

式(3)では、定数項bを設けているが、定数項bを用いないで(すなわち、b=0とし)、フィルタ係数aのみを用いるようにしてもよい。また、定数項bの有無を設定できるようにして、例えば上位シンタックス等でシグナリングできるようにして、定数項bなしの場合に定数項bの符号化を省略するようにしてもよい。さらに、また、フィルタ係数の固定少数精度を表すシフト量sもあらかじめ定めた固定値としても良く、このシフト量sの値を上位シンタックス等でシグナリングできるようにして、シフト量sの値を設定できるようにしてもよい。 In the equation (3), the constant term b is provided, but the constant term b may not be used (that is, b = 0) and only the filter coefficient ai may be used. Further, the presence / absence of the constant term b may be set so that signaling can be performed by, for example, higher-level syntax, and the coding of the constant term b may be omitted when there is no constant term b. Further, the shift amount s representing the fixed minority accuracy of the filter coefficient may also be a predetermined fixed value, and the value of the shift amount s is set so that the value of the shift amount s can be signaled by the upper syntax or the like. You may be able to do it.

なお、周辺画素nが画面外の画素を含む場合や、周辺画素nがスライスやタイルのような画面分割境界外の画素を含む場合の動作は、他のエッジオフセット(EO)のような周辺画素を参照するタイプのSAOと同様に、上位シンタックスのフラグ等に応じてフィルタ処理を行わずに、対象画素をそのままフィルタ結果画素とする(すなわち、対象画素に対してサンプル適応オフセット処理の対象外)構成としても良い。さらに、この場合、参照できない(しない)画素の値をn=cとみなして処理する(あるいはa(n−c)の項を無視する)ように構成して境界周辺の画素もサンプル適応オフセット処理の対象とするよう構成しても良い。すなわち、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、当該対象画素を線形補正処理の対象外としてもよい。また、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、参照しない周辺画素に関する補正項を省略した線形補正処理を実行してもよい。このように、周辺画素を処理対象とする又はしないかをシグナリングで両方の動作モードを持つようにしてもよく、いずれかを選択できるようにしてもよい。 Incidentally, and when the peripheral pixel n i comprises pixels outside the screen, the operation when the peripheral pixel n i comprises a screen dividing border pixels outside like slices or tiles, such as the other edge offset (EO) Similar to the SAO of the type that refers to the peripheral pixels, the target pixel is used as the filter result pixel as it is without performing the filter processing according to the flag of the upper syntax (that is, the sample adaptive offset processing is performed on the target pixel). (Not applicable) It may be configured. Further, in this case, the values of the pixels that cannot be referred to (not referenced) are regarded as ni = c and processed (or the term of ai (ni i −c) is ignored), and the pixels around the boundary are also sampled. It may be configured to be the target of adaptive offset processing. That is, when referring to the outside of the screen or the outside of the screen division area where the reference is prohibited depending on the setting among the plurality of peripheral pixels, the target pixel may be excluded from the linear correction processing. Further, when referring to the outside of the screen or the outside of the screen division area where the reference is prohibited depending on the setting among the plurality of peripheral pixels, the linear correction process in which the correction term for the peripheral pixels not referred to is omitted may be executed. In this way, both operation modes may be provided by signaling whether or not the peripheral pixels are to be processed, or either one may be selected.

第1の実施形態のサンプル適応オフセット処理部10を用いる映像符号化装置1(図1参照)では、フィルタ係数決定部120が、最適なフィルタ係数の設計を行い、最適なフィルタ係数を決定する。 In the video coding apparatus 1 (see FIG. 1) using the sample adaptive offset processing unit 10 of the first embodiment, the filter coefficient determining unit 120 designs the optimum filter coefficient and determines the optimum filter coefficient.

ここで、フィルタ係数決定部120でのフィルタ係数の設計処理を説明する。 Here, the design process of the filter coefficient in the filter coefficient determination unit 120 will be described.

同じフィルタ係数を用いる領域内の各対象画素cと、cに対する式(3)の線形フィルタによる結果c’と対象画素の位置の入力画像の画素値をCとする。 And each target pixel c j in the area using the same filter coefficients, the pixel value of the input image at the position of the result c j 'target pixel by a linear filter of Formula (3) with respect to c j and C j.

フィルタ係数決定部120では、フィルタ処理後の画素値c’の入力画像の画素値C対する誤差の和が最少となるようフィルタ係数a,bを設計する。すなわち、次式(4)のような誤差の二乗和Eが最少となるようなフィルタ係数a,bを、最小二乗法を用いて求める。誤差の二乗和Eは、同じフィルタ係数を用いることになる領域内の画素を収集して行う。
E=Σ(c’−C …(4)
The filter coefficient determining unit 120 designs the filter coefficients a i and b so that the sum of the errors with respect to the pixel value C j of the input image of the pixel value c j'after the filter processing is minimized. That is, the filter coefficients ai and b that minimize the sum of squares E of the error as in the following equation (4) are obtained by using the least squares method. The sum of squares E of the error is performed by collecting the pixels in the region where the same filter coefficient will be used.
E = Σ (c j'- C j ) 2 ... (4)

式(4)のような誤差の二乗和Eを最小化する係数a,bを求める場合、Eをa,bで偏微分した式が0となるようなa,bを、次式(5)のような連立方程式を解くことによって求める。
∂E/∂a=0
∂E/∂b=0 …(5)
When finding the coefficients ai and b that minimize the sum of squares E of the error as in equation (4), the equations ai and b such that the equation obtained by partially differentiating E with respect to ai and b becomes 0 are the following equations. It is obtained by solving simultaneous equations such as (5).
∂E / ∂a i = 0
∂E / ∂b = 0… (5)

このようにして最適設計した線形フィルタを用いるSAOと、その他のバンドオフセット(BO)やエッジオフセット(EO)といったSAOタイプのいずれを用いるかの選択は、種々の方法を適用することができる。 Various methods can be applied to select whether to use SAO using the linear filter optimally designed in this way or another SAO type such as band offset (BO) or edge offset (EO).

例えば、それぞれのSAOタイプによるフィルタ結果の入力画像に対する誤差(歪)を評価し、最も入力画像からの画質劣化が少ないSAOタイプを選択するようにしてもよい。 For example, the error (distortion) of the filter result by each SAO type with respect to the input image may be evaluated, and the SAO type with the least deterioration in image quality from the input image may be selected.

また例えばレート歪最適化処理を用いて決定するようにしてもよい。すなわち、それぞれのSAOタイプのフィルタを用いた場合の、入力画像に対するフィルタ処理結果の歪Dと、そのSAOタイプを用いるために必要となる(SAOタイプ情報と、オフセットもしくはフィルタ係数の符号化に必要となる)符号量Rのトレードオフを、ラグランジュ乗数λをもちいてレート歪コストJ=D+λRとして評価し、レート歪コストJが最少となるようなSAOタイプのフィルタを対象領域に対して用いるよう選択するようにしてもよい。 Further, for example, it may be determined by using a rate distortion optimization process. That is, when each SAO type filter is used, the distortion D of the filter processing result for the input image and the SAO type are required to be used (necessary for coding the SAO type information and the offset or filter coefficient). The trade-off of the code amount R is evaluated as the rate distortion cost J = D + λR using the Lagrange multiplier λ, and the SAO type filter that minimizes the rate distortion cost J is selected for the target region. You may try to do it.

以上のようにして最適設計したフィルタ係数を用いてサンプル適応オフセット処理を行って符号化処理を行う。 Using the filter coefficient optimally designed as described above, sample adaptive offset processing is performed to perform coding processing.

これにより得られたフィルタ係数は、ループ内フィルタ部108に与えられ、サンプル適応オフセット処理部10の線形フィルタ係数記憶部12にフィルタ係数を格納するとともに、フィルタ係数はエントロピー符号化部104に与えられ、符号化方法に従って、フィルタ係数は符号化ストリームに多重化する。 The filter coefficient obtained by this is given to the in-loop filter unit 108, the filter coefficient is stored in the linear filter coefficient storage unit 12 of the sample adaptive offset processing unit 10, and the filter coefficient is given to the entropy coding unit 104. , According to the coding method, the filter coefficients are multiplexed into the coded stream.

ここで、フィルタ係数の多重化方法としては、例えば、HEVCのSAOと同様に符号化ツリーユニット(HEVCでは最大64×64画素の領域)のような処理単位領域ごとに、SAOの処理タイプ(例えば、バンドオフセット(BO)、エッジオフセット(EO)、この実施形態に係る線形フィルタタイプのオフセット(LO))と、処理タイプとして線形フィルタタイプのSAOを選択している場合は、対象の処理単位領域で用いるフィルタ係数a,bをシグナリングするようにしても良いし、スライスヘッダやピクチャパラメーターセット等のパラメータセットのような上位シンタックスで符号化してもよい。また、4つの係数フィルタ係数aに関してはBOやEOの4つのオフセット値を符号化するのと同じエントロピー符号化方法を流用するなどして構成しても良い。 Here, as a method of multiplexing the filter coefficients, for example, the processing type of SAO (for example, an area of up to 64 × 64 pixels in HEVC) for each processing unit area like SAO of HEVC. , Band offset (BO), edge offset (EO), linear filter type offset (LO) according to this embodiment), and when the linear filter type SAO is selected as the processing type, the target processing unit area. The filter coefficients ai and b used in the above may be signaled, or may be encoded by a higher-level syntax such as a parameter set such as a slice header or a picture parameter set. Further, the four coefficient filter coefficients ai may be configured by diverting the same entropy coding method as for coding the four offset values of BO and EO.

第1の実施形態のサンプル適応オフセット処理部10を用いる映像復号装置2(図2参照)では、エントロピー復号部204が、符号化ストリームに多重化された線形フィルタタイプのサンプル適応オフセットで用いるフィルタ係数を復号する。 In the video decoding apparatus 2 (see FIG. 2) using the sample adaptive offset processing unit 10 of the first embodiment, the entropy decoding unit 204 uses the filter coefficient used in the sample adaptive offset of the linear filter type multiplexed on the coded stream. To decrypt.

復号により得られたフィルタ係数はループ内フィルタ部208に与えられ、サンプル適応オフセット処理部10の線形フィルタ係数記憶部12にフィルタ係数を格納する。 The filter coefficient obtained by decoding is given to the in-loop filter unit 208, and the filter coefficient is stored in the linear filter coefficient storage unit 12 of the sample adaptive offset processing unit 10.

線形フィルタ処理部11は、線形フィルタ係数記憶部12に格納されているフィルタ係数を用いて、サンプル適応オフセット処理を行うことで復号処理を行う。 The linear filter processing unit 11 performs decoding processing by performing sample adaptive offset processing using the filter coefficients stored in the linear filter coefficient storage unit 12.

(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、以下のような効果が得られる。
(A-3) Effect of First Embodiment As described above, according to the first embodiment, the following effects can be obtained.

映像符号化技術のサンプル適応オフセット処理において、従来技術のような周辺画素との大小関係に依存するような非線形なフィルタ処理に加えて、周辺画素値を用いる線形なフィルタ処理も選択可能となり、符号化対象の画像の性質に応じたより最適なフィルタ処理を施すことが可能となることで、画質劣化が低減できるとともに、より符号化効率の高い符号化ストリームが生成可能となる。 In the sample adaptive offset processing of the video coding technology, in addition to the non-linear filter processing that depends on the magnitude relationship with the peripheral pixels as in the conventional technology, it is possible to select a linear filter processing that uses the peripheral pixel values. By making it possible to perform more optimal filter processing according to the properties of the image to be converted, deterioration in image quality can be reduced and a coded stream with higher coding efficiency can be generated.

(B)第2の実施形態
次に、本発明に係る符号化装置、復号装置、符号化方法、復号方法、符号化プログラム及び復号プログラムの第2の実施形態を、図面参照しながら詳細に説明する。
(B) Second Embodiment Next, a second embodiment of the coding device, the decoding device, the coding method, the decoding method, the coding program, and the decoding program according to the present invention will be described in detail with reference to the drawings. do.

(B−1)第2の実施形態の構成
第2の実施形態は、第1の実施形態で説明した処理に加えて、線形フィルタで参照する周辺画素の参照パターンを複数用意し、選ばれた参照パターンの周辺画素を用いて線形フィルタ処理によるサンプル適応オフセット処理を行う。
(B-1) Configuration of Second Embodiment In the second embodiment, in addition to the processing described in the first embodiment, a plurality of reference patterns of peripheral pixels referenced by a linear filter are prepared and selected. Sample adaptive offset processing is performed by linear filter processing using the peripheral pixels of the reference pattern.

第2の実施形態に係る映像符号化装置及び映像復号装置の基本的な構成は、第1の実施形態の構成と同一又は対応するため、ここでも図1及び図2を参照する。 Since the basic configurations of the video coding device and the video decoding device according to the second embodiment are the same as or correspond to the configurations of the first embodiment, FIGS. 1 and 2 are also referred to here.

第2の実施形態では、図1のループ内フィルタ部108及び図2のループ内フィルタ部208のそれぞれに含まれるサンプル適応オフセット処理部の構成が異なる。そのため、第2の実施形態のサンプル適応オフセット処理部を、サンプル適応オフセット処理部20と表記して、これを説明する。 In the second embodiment, the configuration of the sample adaptive offset processing unit included in each of the in-loop filter unit 108 in FIG. 1 and the in-loop filter unit 208 in FIG. 2 is different. Therefore, the sample adaptive offset processing unit of the second embodiment is referred to as the sample adaptive offset processing unit 20, and this will be described.

図11は、第2の実施形態に係るサンプル適応オフセット処理部20の構成を示す構成図である。 FIG. 11 is a configuration diagram showing the configuration of the sample adaptive offset processing unit 20 according to the second embodiment.

図11において、第2の実施形態に係るサンプル適応オフセット処理部20は、線形フィルタ処理部11、線形フィルタ係数記憶部12、周辺画素選択部23を有する。 In FIG. 11, the sample adaptive offset processing unit 20 according to the second embodiment includes a linear filter processing unit 11, a linear filter coefficient storage unit 12, and a peripheral pixel selection unit 23.

なお、線形フィルタ処理部11及び線形フィルタ係数記憶部12は、第1の実施形態と同一又は対応する構成要素であるため、ここでの詳細な説明を省略する。 Since the linear filter processing unit 11 and the linear filter coefficient storage unit 12 are the same or corresponding components as those in the first embodiment, detailed description thereof will be omitted here.

周辺画素選択部23は、パターンタイプ情報を入力して、パターンタイプ情報に応じたパターンに従って、線形フィルタ処理で用いる周辺画素を選択し、線形フィルタ処理部11に与えるものである。 The peripheral pixel selection unit 23 inputs pattern type information, selects peripheral pixels to be used in the linear filter processing according to a pattern corresponding to the pattern type information, and gives the peripheral pixels to the linear filter processing unit 11.

(B−2)第2の実施形態の動作
次に、第2の実施形態に係るサンプル適応オフセット処理の動作を、図面を参照しながら詳細に説明する。
(B-2) Operation of the Second Embodiment Next, the operation of the sample adaptive offset processing according to the second embodiment will be described in detail with reference to the drawings.

第2の実施形態では、例えば図10(A)および図10(B)に示すように、十字型のパターンやX型のパターンなど、周辺画素の参照パターンを複数もうける。パターンは、図10(A)と図10(B)に例示する2パターンだけでなく、その他のパターンも用いるようにしても良い。 In the second embodiment, as shown in FIGS. 10A and 10B, for example, a plurality of reference patterns of peripheral pixels such as a cross-shaped pattern and an X-shaped pattern are provided. As the pattern, not only the two patterns illustrated in FIGS. 10 (A) and 10 (B) but also other patterns may be used.

どの参照パターンを用いるかというパターンタイプ情報は、例えば、エッジオフセット(EO)に複数の参照パターンがあり、それぞれEO0、EO1、…のようにSAOタイプとして指定する方法と同様に、線形フィルタタイプとしてLO0、LO1、…のように複数のLOタイプのSAOタイプが存在するようにシグナリングを行う。 The pattern type information of which reference pattern to use is, for example, as a linear filter type as in the method of specifying a plurality of reference patterns in edge offset (EO) as SAO types such as EO0, EO1, ... Signaling is performed so that there are a plurality of LO type SAO types such as LO0, LO1, ....

第2の実施形態の映像復号装置2では、エントロピー復号部204が、復号したSAOタイプ情報に含まれる線形フィルタのパターンタイプ情報を抽出し、パターンタイプ情報を周辺画素選択部23に供給するとともに、線形フィルタタイプSAOの場合のフィルタ係数を線形フィルタ係数記憶部12に供給する。 In the video decoding device 2 of the second embodiment, the entropy decoding unit 204 extracts the pattern type information of the linear filter included in the decoded SAO type information, supplies the pattern type information to the peripheral pixel selection unit 23, and at the same time, The filter coefficient in the case of the linear filter type SAO is supplied to the linear filter coefficient storage unit 12.

周辺画素選択部23は、エントロピー復号部204からのパターンタイプ情報の参照パターン(例えば、図10(A)、(B)参照)に従って、対象画素cに隣接する画素を周辺画素n(n,n,n,n)として選択し、線形フィルタ処理部11に供給する。 The peripheral pixel selection unit 23 sets the pixels adjacent to the target pixel c to the peripheral pixels ni (n 0 ) according to the reference pattern of the pattern type information from the entropy decoding unit 204 (see, for example, FIGS. 10A and 10B). , N 1 , n 2 , n 3 ) and supplies it to the linear filter processing unit 11.

線形フィルタ処理部11は、周辺画素選択部23からの周辺画素nを参照して、線形フィルタ係数記憶部12のフィルタ係数を用いて、第1の実施形態と同様に、式(3)に従った処理を行う。 Linear filter processing unit 11 refers to the peripheral pixel n i from the peripheral pixel selection unit 23, using the filter coefficients of the linear filter coefficient storage unit 12, similarly to the first embodiment, the equation (3) Perform the following processing.

第2の実施形態の映像符号化装置1では、フィルタ係数決定部120が、第1の実施形態のようなフィルタ係数の設計処理を、利用可能な複数のパターンについてそれぞれ処理を行う。 In the video coding apparatus 1 of the second embodiment, the filter coefficient determination unit 120 performs the filter coefficient design process as in the first embodiment for each of the plurality of available patterns.

フィルタ係数決定部120は、利用可能な複数のパターンタイプについてそれぞれフィルタ係数の設計処理を行い、それぞれ得られたフィルタ係数を用いる線形フィルタSAOタイプと、その他のバンドオフセット(BO)やエッジオフセット(EO)等といったSAOタイプの選択を行う。ここでのSAOタイプの選択方法は、第1の実施形態で説明したように、例えば、各SAOタイプによるフィルタ結果を評価して、画像品質のみによる選択、あるいはレート歪最適化処理による選択を行う。 The filter coefficient determination unit 120 designs the filter coefficients for each of the plurality of available pattern types, and uses the obtained filter coefficients for the linear filter SAO type, and other band offset (BO) and edge offset (EO). ) Etc. to select the SAO type. As described in the first embodiment, the SAO type selection method here evaluates, for example, the filter result of each SAO type and performs selection based only on image quality or selection by rate distortion optimization processing. ..

上記SAOタイプの選択により、線形フィルタ処理を用いるSAOタイプが選択された場合、フィルタ係数決定部120は、これに対するフィルタ係数を、線形フィルタ係数記憶部12に供給すると共に、フィルタ係数決定部120は、選択された線形フィルタのパターンタイプ情報を周辺画素選択部23に供給する。 When the SAO type using the linear filter processing is selected by the selection of the SAO type, the filter coefficient determination unit 120 supplies the filter coefficient for the SAO type to the linear filter coefficient storage unit 12, and the filter coefficient determination unit 120 , The pattern type information of the selected linear filter is supplied to the peripheral pixel selection unit 23.

ループ内フィルタ部108のサンプル適応オフセット処理部20において、周辺画素選択部23は、フィルタ係数決定部120からの線形フィルタのパターンタイプ情報に従って、対象画素cに隣接する画素を周辺画素n(n,n,n,n)として選択し、線形フィルタ処理部11に供給する。 In the sample adaptive offset processing unit 20 of the in-loop filter unit 108, the peripheral pixel selection unit 23 sets the pixels adjacent to the target pixel c to the peripheral pixels ni (n) according to the pattern type information of the linear filter from the filter coefficient determination unit 120. It is selected as 0, n 1 , n 2 , n 3 ) and supplied to the linear filter processing unit 11.

線形フィルタ処理部11は、周辺画素選択部23からの周辺画素nを参照して、線形フィルタ係数記憶部12のフィルタ係数を用いて、第1の実施形態と同様に、式(3)に従った処理を行う。 Linear filter processing unit 11 refers to the peripheral pixel n i from the peripheral pixel selection unit 23, using the filter coefficients of the linear filter coefficient storage unit 12, similarly to the first embodiment, the equation (3) Perform the following processing.

また、エントロピー符号化部104は、フィルタ係数決定部120からのパターンタイプ情報をSAOタイプとして、線形フィルタ係数と共にエントロピー符号化されて符号化ストリームに多重化して出力する。 Further, the entropy coding unit 104 entropy-codes the pattern type information from the filter coefficient determining unit 120 as a SAO type together with the linear filter coefficient, multiplexes the coded stream, and outputs the information.

(B−3)第2の実施形態の効果
以上のように、第2の実施形態によれば、以下のような効果が得られる。
(B-3) Effect of Second Embodiment As described above, according to the second embodiment, the following effects can be obtained.

第1の実施形態と同様に最適な線形フィルタを施すことが可能となる効果に加えて、さらに複数の線形フィルタパターンからも選択可能となるので、より画質劣化が低減できるとともに、より符号化効率の高い符号化ストリームが生成可能となる。 In addition to the effect of being able to apply the optimum linear filter as in the first embodiment, it is also possible to select from a plurality of linear filter patterns, so that image quality deterioration can be further reduced and coding efficiency is further improved. Highly encoded stream can be generated.

(C)他の実施形態
本発明は上述した第1及び第2の実施形態に限定されず、その他のさまざまな符号化処理、復号処理に適用することができる。
(C) Other Embodiments The present invention is not limited to the first and second embodiments described above, and can be applied to various other coding and decoding processes.

サンプル適応オフセット以外の符号化に関わる予測処理や変換量子化処理は、上述した実施形態で説明したような構成に限定されるものではなく、様々な符号化ツールやループ内フィルタ処理を組み合わせたような符号化処理にも利用可能である。 Prediction processing and conversion quantization processing related to coding other than sample adaptation offset are not limited to the configuration as described in the above-described embodiment, but seem to be a combination of various coding tools and in-loop filtering processing. It can also be used for various coding processes.

サンプル適応オフセット処理についてもHEVCと同様なBOやEOとの組み合わせだけでなく、これらの一部のみのSAOタイプやBOやEOとは異なる処理タイプのフィルタと組み合わせて、これらのSAOタイプと線形フィルタタイプのSAO処理からの選択が可能な構成としても良い。 Regarding sample adaptive offset processing, not only the combination with BO and EO similar to HEVC, but also the combination with SAO type of only a part of these and the filter of the processing type different from BO and EO, these SAO type and linear filter It may be configured so that it can be selected from the types of SAO processing.

線形フィルタ処理で用いられる式(3)もこの形式に限定されず、対象画素cと周辺画素nの画素値の線形結合となるような様々な演算式を用いても良い。 Linear expression used in the filtering process (3) is not limited to this format may be used linear combination to become such various arithmetic expression of the pixel value of the target pixel c and the peripheral pixel n i.

参照パターンとして図10(A)、図10(B)のようなパターンを例示したが、その他の参照パターンを用いてもよい。参照する画素数も4画素に限定されないようなパターンを用いても良い。 As the reference pattern, the patterns shown in FIGS. 10 (A) and 10 (B) are illustrated, but other reference patterns may be used. A pattern may be used in which the number of pixels to be referred to is not limited to 4 pixels.

また、本発明は、上記構成を有するような装置として構成する場合や、上記処理を実現するようなプログラムとしても実施可能である。 Further, the present invention can be implemented as a device having the above configuration or as a program for realizing the above processing.

1…映像符号化装置、101…差分処理部、102…変換部、103…量子化部、104…エントロピー符号化部、105…逆量子化部、106…逆変換部、107…加算部、108…ループ内フィルタ部、109…参照画像バッファ、110…インター予測部、111…イントラ予測部、112…切り替え部、120…フィルタ係数決定部、
2…映像復号装置、204…エントロピー復号部、205…逆量子化部、206…逆変換部、207…加算部、208…ループ内フィルタ部、209…参照画像バッファ、210…インター予測部、211…イントラ予測部、212…切り替え部、
10及び20…サンプル適応オフセット処理部、11…線形フィルタ処理部、12…線形フィルタ係数記憶部、23…周辺画素選択部。
1 ... Video coding device, 101 ... Difference processing unit, 102 ... Conversion unit, 103 ... Quantization unit, 104 ... Entropy coding unit, 105 ... Inverse quantization unit, 106 ... Inverse conversion unit, 107 ... Addition unit, 108 ... In-loop filter unit, 109 ... Reference image buffer, 110 ... Inter prediction unit, 111 ... Intra prediction unit, 112 ... Switching unit, 120 ... Filter coefficient determination unit,
2 ... Video decoding device, 204 ... Entropy decoding unit, 205 ... Inverse quantization unit, 206 ... Inverse conversion unit, 207 ... Addition unit, 208 ... In-loop filter unit, 209 ... Reference image buffer, 210 ... Inter prediction unit, 211 … Intra prediction part, 212… Switching part,
10 and 20 ... sample adaptive offset processing unit, 11 ... linear filter processing unit, 12 ... linear filter coefficient storage unit, 23 ... peripheral pixel selection unit.

Claims (29)

再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備え、上記画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化装置において、
上記画素値補正手段が、
線形フィルタ係数を記憶する線形フィルタ係数記憶部と、
上記線形フィルタ係数を参照して、上記対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部と
を有し、
上記線形補正処理部が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする符号化装置。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
In a coding device provided with a pixel value correction means for correcting the pixel value of a target pixel in the processing unit area of the reconstructed image, and encoding using the image obtained by the pixel value correction means and the input image.
The pixel value correction means
A linear filter coefficient storage unit that stores linear filter coefficients and
It has a linear correction processing unit that performs linear correction processing based on the pixel values of the target pixel and the pixel values of its peripheral pixels with reference to the linear filter coefficient.
The linear correction processing unit performs linear correction processing for obtaining the corrected pixel value c'according to the formula (A) by referring to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel. An encoding device, characterized in that it does.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
上記入力画像と、補正前の再構成画像とに基づいて、線形フィルタ係数を決定するフィルタ係数決定手段を備え、
上記線形補正処理部が、決定された上記線形フィルタ係数を参照して、線形補正処理を行なう
ことを特徴とする請求項1に記載の符号化装置。
A filter coefficient determining means for determining a linear filter coefficient based on the above input image and the reconstructed image before correction is provided.
The coding apparatus according to claim 1, wherein the linear correction processing unit performs linear correction processing with reference to the determined linear filter coefficient.
上記フィルタ係数決定手段が、線形フィルタ係数の決定処理で、ai,bを、最小二乗法を用いて求めることを特徴とする請求項2に記載の符号化装置。The coding apparatus according to claim 2, wherein the filter coefficient determining means obtains ai and b by using a least squares method in a process of determining a linear filter coefficient. 上記フィルタ係数決定手段により決定された線形フィルタ係数を、符号化ストリームに多重化する符号化手段を備えることを特徴とする請求項2又は3に記載の符号化装置。 The coding apparatus according to claim 2 or 3 , further comprising a coding means for multiplexing a linear filter coefficient determined by the filter coefficient determining means into a coded stream. 上記線形補正処理部が、線形フィルタ係数のうち、aiのみを用いて線形補正処理を行なうことを特徴とする請求項1〜のいずれかに記載の符号化装置。 The coding apparatus according to any one of claims 1 to 4 , wherein the linear correction processing unit performs linear correction processing using only ai among the linear filter coefficients. 上記線形補正処理部が、クリッピング処理を実行せずに線形補正処理を行なうことを特徴とする請求項1〜のいずれかに記載の符号化装置。 The coding apparatus according to any one of claims 1 to 5 , wherein the linear correction processing unit performs linear correction processing without executing clipping processing. 上記線形補正処理部が、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、当該対象画素を線形補正処理の対象外とすることを特徴とする請求項1〜のいずれかに記載の符号化装置。 When the linear correction processing unit refers to a plurality of peripheral pixels outside the screen or outside the screen division area for which reference is prohibited depending on the setting, the target pixel is excluded from the target of the linear correction processing. The encoding device according to any one of claims 1 to 6. 上記線形補正処理部が、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、参照しない周辺画素に関する補正項を省略した線形補正処理を実行することを特徴とする請求項1〜のいずれかに記載の符号化装置。 When the linear correction processing unit refers to the outside of the screen or the outside of the screen division area where reference is prohibited depending on the setting among a plurality of peripheral pixels, the linear correction processing is executed by omitting the correction term for the peripheral pixels that are not referenced. The coding apparatus according to any one of claims 1 to 7. 上記線形補正処理部が、シフト量sの値を設定変更可能な値とすることを特徴とする請求項1〜のいずれかに記載の符号化装置。 The coding apparatus according to any one of claims 1 to 8 , wherein the linear correction processing unit sets the value of the shift amount s to a value whose setting can be changed. 上記複数の周辺画素が、上記対象画素の上下左右に隣接する、少なくとも4個の画素を含むことを特徴とする請求項1〜のいずれかに記載の符号化装置。 The coding apparatus according to any one of claims 1 to 9 , wherein the plurality of peripheral pixels include at least four pixels adjacent to each other on the top, bottom, left, and right of the target pixel. 上記複数の周辺画素が、上記対象画素の左上、右上、左下、右下に隣接する、少なくとも4個の画素を含むことを特徴とする請求項1〜10のいずれかに記載の符号化装置。 The coding apparatus according to any one of claims 1 to 10 , wherein the plurality of peripheral pixels include at least four pixels adjacent to the upper left, upper right, lower left, and lower right of the target pixel. 上記画素値補正手段が、線形補正処理以外の1又は複数の画素値補正処理も実行可能であり、線形補正処理及び上記1又は複数の画素値補正処理のうち、いずれかの処理を選択することを特徴とする請求項1〜10のいずれかに記載の符号化装置。 The pixel value correction means can also execute one or a plurality of pixel value correction processes other than the linear correction process, and select one of the linear correction process and the one or a plurality of pixel value correction processes. The coding apparatus according to any one of claims 1 to 10. 上記画素値補正手段が、複数の画素値補正処理の処理結果の入力画素に対する画質の歪と、画素値補正処理のタイプや、線形フィルタ係数若しくは補正値の符号化に必要となる符号量のトレードオフを評価して、画素値補正処理のタイプを決定するレート歪最適化処理を行なうことを特徴とする請求項12に記載の符号化装置。 The pixel value correction means trades the distortion of the image quality with respect to the input pixels of the processing results of the plurality of pixel value correction processes, the type of the pixel value correction process, and the code amount required for coding the linear filter coefficient or the correction value. The coding apparatus according to claim 12, further comprising performing rate distortion optimization processing for evaluating off to determine the type of pixel value correction processing. 上記画素値補正手段が、線形補正処理で用いる周辺画素の複数の参照パターンに基づく各パターンタイプ情報に従って、上記対象画素に対する複数の周辺画素を選択する周辺画素選択部を有し、
上記線形補正処理部が、選択された複数の周辺画素と上記対象画素の画素値とに基づいて、線形補正処理を行なう
ことを特徴とする請求項1〜13のいずれかに記載の符号化装置。
The pixel value correction means has a peripheral pixel selection unit that selects a plurality of peripheral pixels for the target pixel according to each pattern type information based on a plurality of reference patterns of peripheral pixels used in the linear correction process.
The coding apparatus according to any one of claims 1 to 13, wherein the linear correction processing unit performs linear correction processing based on a plurality of selected peripheral pixels and pixel values of the target pixels. ..
少なくとも、フィルタ係数決定手段により決定された線形フィルタ係数、及び又は、参照パターンのパターンタイプ情報を、符号化ストリームに多重化する符号化手段を備えることを特徴とする請求項14に記載の符号化装置。 14. The coding according to claim 14, further comprising a coding means for multiplexing the linear filter coefficient determined by the filter coefficient determining means and / or the pattern type information of the reference pattern into a coded stream. Device. 入力された符号化ストリームを復号し、再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備える復号装置において、
上記画素値補正手段が、
上記符号化ストリームに含まれる線形フィルタ係数を参照して、上記対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部を有し、
上記線形補正処理部が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする復号装置。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
In a decoding device provided with a pixel value correction means that decodes the input coded stream and corrects the pixel value of the target pixel in the processing unit area of the reconstructed image.
The pixel value correction means
It has a linear correction processing unit that performs linear correction processing based on the pixel values of the target pixel and the pixel values of its peripheral pixels with reference to the linear filter coefficient included in the coded stream.
The linear correction processing unit performs linear correction processing for obtaining the corrected pixel value c'according to the formula (A) by referring to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel. A decoding device characterized by performing.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
上記線形補正処理部が、線形フィルタ係数のうち、aiのみを用いて線形補正処理を行なうことを特徴とする請求項16に記載の復号装置。 The decoding device according to claim 16, wherein the linear correction processing unit performs linear correction processing using only ai among the linear filter coefficients. 上記線形補正処理部が、クリッピング処理を実行せずに線形補正処理を行なうことを特徴とする請求項16又は17に記載の復号装置。 The decoding device according to claim 16 or 17, wherein the linear correction processing unit performs linear correction processing without executing clipping processing. 上記線形補正処理部が、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、当該対象画素を線形補正処理の対象外とすることを特徴とする請求項16〜18のいずれかに記載の復号装置。 When the linear correction processing unit refers to a plurality of peripheral pixels outside the screen or outside the screen division area for which reference is prohibited depending on the setting, the target pixel is excluded from the target of the linear correction processing. The decoding device according to any one of claims 16 to 18. 上記線形補正処理部が、複数の周辺画素のうち、画面外もしくは設定によっては参照が禁止される画面分割領域外を参照する場合、参照しない周辺画素に関する補正項を省略した線形補正処理を実行することを特徴とする請求項16〜19のいずれかに記載の復号装置。 When the linear correction processing unit refers to the outside of the screen or the outside of the screen division area where reference is prohibited depending on the setting among a plurality of peripheral pixels, the linear correction processing is executed by omitting the correction term for the peripheral pixels that are not referenced. The decoding device according to any one of claims 16 to 19. 上記線形補正処理部が、シフト量sの値を設定変更可能な値とすることを特徴とする請求項16〜20のいずれかに記載の復号装置。 The decoding device according to any one of claims 16 to 20, wherein the linear correction processing unit sets the value of the shift amount s to a value whose setting can be changed. 上記複数の周辺画素が、上記対象画素の上下左右に隣接する、少なくとも4個の画素を含むことを特徴とする請求項16〜21のいずれかに記載の復号装置。 The decoding device according to any one of claims 16 to 21, wherein the plurality of peripheral pixels include at least four pixels adjacent to each other on the top, bottom, left, and right of the target pixel. 上記複数の周辺画素が、上記対象画素の左上、右上、左下、右下に隣接する、少なくとも4個の画素を含むことを特徴とする請求項16〜22のいずれかに記載の復号装置。 The decoding device according to any one of claims 16 to 22, wherein the plurality of peripheral pixels include at least four pixels adjacent to the upper left, upper right, lower left, and lower right of the target pixel. 上記画素値補正手段が、線形補正処理以外の1又は複数の画素値補正処理も実行可能であり、線形補正処理及び上記1又は複数の画素値補正処理のうち、いずれかの処理を選択することを特徴とする請求項16〜23のいずれかに記載の復号装置。 The pixel value correction means can also execute one or a plurality of pixel value correction processes other than the linear correction process, and select one of the linear correction process and the one or a plurality of pixel value correction processes. The decoding device according to any one of claims 16 to 23. 上記符号化ストリームに含まれる参照パターンのパターンタイプ情報に従って、上記対象画素に対する複数の周辺画素を選択する周辺画素選択部を有し、
上記線形補正処理部が、選択された複数の周辺画素と上記対象画素の画素値とに基づいて、線形補正処理を行なう
ことを特徴とする請求項16〜24のいずれかに記載の復号装置。
It has a peripheral pixel selection unit that selects a plurality of peripheral pixels for the target pixel according to the pattern type information of the reference pattern included in the coded stream.
The decoding device according to any one of claims 16 to 24, wherein the linear correction processing unit performs linear correction processing based on a plurality of selected peripheral pixels and pixel values of the target pixels.
再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段を備え、上記画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化方法において、
上記画素値補正手段が、
線形フィルタ係数を記憶し、
上記線形フィルタ係数を参照して、上記対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行ない、
上記画素値補正手段が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする符号化方法。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
In a coding method provided with a pixel value correction means for correcting the pixel value of a target pixel in the processing unit area of the reconstructed image and encoding using the image obtained by the pixel value correction means and the input image.
The pixel value correction means
Memorize the linear filter coefficient and
With reference to the linear filter coefficient, linear correction processing is performed based on the pixel value of the target pixel and the pixel value of its peripheral pixels.
The pixel value correction means refers to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel, and performs a linear correction process for obtaining the corrected pixel value c'according to the formula (A). A coding method characterized by performing.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
入力された符号化ストリームを復号し、再構成画像の処理単位領域内の画素値を補正する画素値補正手段を備える復号方法において、
上記画素値補正手段が、
上記符号化ストリームに含まれる線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行ない、
上記画素値補正手段が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする復号方法。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
In a decoding method including a pixel value correction means for decoding an input coded stream and correcting a pixel value in a processing unit area of a reconstructed image.
The pixel value correction means
Referring to the linear filter coefficients included in the coded stream, on the basis of the pixel value of the Target pixel and the pixel values of the peripheral pixels, performs linear correction process,
The pixel value correction means refers to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel, and performs a linear correction process for obtaining the corrected pixel value c'according to the formula (A). A decoding method characterized by performing.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
コンピュータを、
再構成画像の処理単位領域内の対象画素の画素値を補正する画素値補正手段として機能させ、上記画素値補正手段により得られた画像と入力画像とを用いて符号化を行なう符号化プログラムにおいて、
線形フィルタ係数を記憶する線形フィルタ係数記憶部と、
上記線形フィルタ係数を参照して、上記対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部と
して機能させ、
上記線形補正処理部が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする符号化プログラム。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
Computer,
In a coding program that functions as a pixel value correction means that corrects the pixel value of the target pixel in the processing unit area of the reconstructed image and encodes the image obtained by the pixel value correction means and the input image. ,
A linear filter coefficient storage unit that stores linear filter coefficients and
With reference to the linear filter coefficient, it functions as a linear correction processing unit that performs linear correction processing based on the pixel values of the target pixel and the pixel values of its peripheral pixels.
The linear correction processing unit performs linear correction processing for obtaining the corrected pixel value c'according to the formula (A) by referring to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel. An encoding program characterized by performing.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
コンピュータを、
入力された符号化ストリームを復号し、再構成画像の処理単位領域内の画素値を補正する画素値補正として機能させる手段を備える復号プログラムにおいて、
上記符号化ストリームに含まれる線形フィルタ係数を参照して、対象画素の画素値とその周辺画素の画素値とに基づいて、線形補正処理を行なう線形補正処理部として機能させ、
上記線形補正処理部が、上記対象画素の画素値cに対して、複数の周辺画素の画素値niを参照して、式(A)に従って、補正後の画素値c’を求める線形補正処理を行なうことを特徴とする復号プログラム。
c’=Clip1(c+((Σiai(ni−c)+b+r)>>s)) …(A)
ここで、ai,bは線形フィルタ係数であり、sとrは整数演算で固定少数演算行うためのシフト量sと丸めr=1<<(s−1)であり、Clip1は画素値の値を有効な画素値の範囲にクリッピングする関数である。
Computer,
In a decoding program provided with means for decoding an input encoded stream and functioning as a pixel value correction for correcting a pixel value in a processing unit area of a reconstructed image.
Referring to the linear filter coefficients included in the coded stream, on the basis of the pixel value of the Target pixel and the pixel value of the surrounding pixel, to function as a linear correction processing unit that performs linear correction process,
The linear correction processing unit performs linear correction processing for obtaining the corrected pixel value c'according to the formula (A) by referring to the pixel values ni of a plurality of peripheral pixels with respect to the pixel value c of the target pixel. A decoding program characterized by performing.
c'= Clip1 (c + ((Σiai (ni-c) + b + r) >> s)) ... (A)
Here, ai and b are linear filter coefficients, s and r are shift amounts s and rounding r = 1 << (s-1) for performing fixed minority operations in integer operations, and Clip1 is a pixel value value. Is a function that clips to a range of valid pixel values.
JP2016251826A 2016-12-26 2016-12-26 Coding device, decoding device, coding method, decoding method, coding program and decoding program Active JP6957873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016251826A JP6957873B2 (en) 2016-12-26 2016-12-26 Coding device, decoding device, coding method, decoding method, coding program and decoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016251826A JP6957873B2 (en) 2016-12-26 2016-12-26 Coding device, decoding device, coding method, decoding method, coding program and decoding program

Publications (2)

Publication Number Publication Date
JP2018107608A JP2018107608A (en) 2018-07-05
JP6957873B2 true JP6957873B2 (en) 2021-11-02

Family

ID=62788222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016251826A Active JP6957873B2 (en) 2016-12-26 2016-12-26 Coding device, decoding device, coding method, decoding method, coding program and decoding program

Country Status (1)

Country Link
JP (1) JP6957873B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4284265B2 (en) * 2004-11-02 2009-06-24 株式会社東芝 Moving picture coding apparatus, moving picture coding method, moving picture decoding apparatus, and moving picture decoding method
JP2008153812A (en) * 2006-12-15 2008-07-03 Sharp Corp Noise removal device
KR101701342B1 (en) * 2009-08-14 2017-02-01 삼성전자주식회사 Method and apparatus for video encoding considering adaptive loop filtering, and method and apparatus for video decoding considering adaptive loop filtering
US9813738B2 (en) * 2010-10-05 2017-11-07 Hfi Innovation Inc. Method and apparatus of adaptive loop filtering

Also Published As

Publication number Publication date
JP2018107608A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP7051773B2 (en) Intra prediction method and encoders and decoders using it
EP3114835B1 (en) Encoding strategies for adaptive switching of color spaces
JP2020018022A (en) Video encoding method, video decoding method, video encoder and video decoder
KR102157481B1 (en) Image decoding device, image coding device, image decoding method, image coding method and storage medium
EP3197160A1 (en) Apparatus for decoding an image
CN102057680A (en) Dynamic image encoding/decoding method and device
KR20160147895A (en) Encoder-side decisions for sample adaptive offset filtering
KR20180039755A (en) Apparatus for decoding an image
CN110050467A (en) The coding/decoding method and its device of vision signal
WO2017003978A1 (en) Computationally efficient sample adaptive offset filtering during video encoding
US20250030861A1 (en) Image encoding apparatus, image decoding apparatus, methods for the same, and non-transitory computer-readable storage medium
WO2010137322A1 (en) Image encoder, image decoder, image encoding method and image decoding method
JP2023162410A (en) Intra prediction device, image encoding device, image decoding device, and program
WO2013001720A1 (en) Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method
JP6957873B2 (en) Coding device, decoding device, coding method, decoding method, coding program and decoding program
JP6769302B2 (en) Moving image coding device, moving image coding method, moving image coding computer program, moving image decoding device and moving image decoding method, and moving image decoding computer program
KR20120140366A (en) Apparatus and method of adaptive chroma scanning order using the context of luma block

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210920

R150 Certificate of patent or registration of utility model

Ref document number: 6957873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150