JP6357133B2 - Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device - Google Patents

Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device Download PDF

Info

Publication number
JP6357133B2
JP6357133B2 JP2015117657A JP2015117657A JP6357133B2 JP 6357133 B2 JP6357133 B2 JP 6357133B2 JP 2015117657 A JP2015117657 A JP 2015117657A JP 2015117657 A JP2015117657 A JP 2015117657A JP 6357133 B2 JP6357133 B2 JP 6357133B2
Authority
JP
Japan
Prior art keywords
intra
intra prediction
prediction
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015117657A
Other languages
Japanese (ja)
Other versions
JP2017005506A (en
Inventor
翔平 松尾
翔平 松尾
誠之 高村
誠之 高村
清水 淳
淳 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015117657A priority Critical patent/JP6357133B2/en
Publication of JP2017005506A publication Critical patent/JP2017005506A/en
Application granted granted Critical
Publication of JP6357133B2 publication Critical patent/JP6357133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画面内予測(イントラ予測)を用いて画像信号を符号化または復号する技術に関する。   The present invention relates to a technique for encoding or decoding an image signal using intra prediction (intra prediction).

映像符号化国際規格HEVC(High Efficiency Video Coding、すなわちITU−T H.265またはISO/IEC 23008−2)では、膨大な映像の情報を効率よく圧縮するために、予測と変換という2種類の処理が施される。予測に関しては、インター符号化(フレーム間予測符号化、画面間符号化とも呼ぶ)とイントラ符号化(フレーム内予測符号化、画面内符号化とも呼ぶ)の2種類に分けられる。フレーム間予測符号化は、映像内の時間方向の相関を利用して情報圧縮を図る手法である。動き補償を用いたフレーム間予測がその代表例である。   In the international video coding standard HEVC (High Efficiency Video Coding, that is, ITU-T H.265 or ISO / IEC 23008-2), in order to efficiently compress a large amount of video information, two types of processing, prediction and conversion, are performed. Is given. The prediction is divided into two types: inter coding (also referred to as inter-frame prediction coding and inter-screen coding) and intra coding (also referred to as intra-frame prediction coding and intra-screen coding). Inter-frame predictive coding is a method for compressing information by using temporal correlation in a video. A typical example is inter-frame prediction using motion compensation.

一方、フレーム内予測符号化は、例えばHEVCに採用されているような、符号化対象ブロックの周辺にある復号済み画素を用いて予測信号を生成する手法、すなわちフレーム内の相関を用いて情報圧縮を図る手法である。変換に関しては、静止画符号化の国際規格であるJPEG及び映像符号化の国際規格であるMPEG−2では、離散コサイン変換(Discrete Cosine Transform:DCT)と呼ばれる手法が採用されている。JPEGの後継規格であるJPEG2000では、離散ウェーブレット変換(Discrete Wavelet Transform:DWT)と呼ばれる手法が採用されている。前記フレーム間及びフレーム内で予測を行った後、その予測残差信号(予測誤差信号とも呼ぶ)は前記変換及び量子化を経て、最終的にエントロピー符号化によって2値信号(ビットストリーム)となる。   On the other hand, intra-frame predictive encoding is a method of generating a prediction signal using decoded pixels around a block to be encoded, such as adopted in HEVC, that is, information compression using intra-frame correlation. It is a technique to plan. Regarding the conversion, JPEG, which is an international standard for still image coding, and MPEG-2, which is an international standard for video coding, employ a method called Discrete Cosine Transform (DCT). JPEG2000, which is a successor to JPEG, employs a technique called discrete wavelet transform (DWT). After prediction between the frames and within the frame, the prediction residual signal (also referred to as a prediction error signal) undergoes the transformation and quantization, and finally becomes a binary signal (bit stream) by entropy coding. .

HEVCでは、符号化ユニット(Coding Unit:CU)と呼ばれるブロックの単位で符号化が行われ、HEVCの参照ソフトウェア(HEVC test Model:HM)では通常64×64のサイズが最大のCUサイズとして設定されている。64×64のCUは、四分木ベースで分割され、最小単位として8×8のCUまで許容できる。各CUは予測ユニット(Prediction Unit:PU)と呼ばれる予測を実施するブロック、及び変換ユニット(Transform Unit:TU)と呼ばれる変換を実施するブロックに分割される。これらPUとTUは、CU内で独立に定義される。PUはCUと同様に基本的には四分木ベースで分割されるが、正方形以外の分割を適用するツールも存在する。PUの非正方形分割を許すツールをAsymmetric Motion Partition(AMP)と呼ぶ。   In HEVC, encoding is performed in units of blocks called coding units (CU), and the size of 64 × 64 is normally set as the maximum CU size in HEVC reference software (HEVC test Model: HM). ing. A 64 × 64 CU is divided on a quadtree basis, and an 8 × 8 CU is allowed as a minimum unit. Each CU is divided into a block that performs prediction called a prediction unit (PU) and a block that performs transformation called a transform unit (TU). These PU and TU are defined independently in the CU. A PU is basically divided on a quadtree basis like a CU, but there are tools that apply divisions other than squares. A tool that allows non-square partitioning of a PU is called Asymmetric Motion Partition (AMP).

図13は、HEVCにおける各処理ユニットの定義を示す図である。前規格であるAVC(Advanced Video Coding、すなわちITU−T H.264またはISO/IEC 14496−10)ではマクロブロック(Macro Block:MB)と呼ばれる16×16のサイズが符号化処理の最大単位であったが、HEVCでは64×64ブロックのように、より大きいブロック単位で符号化が行われる。このような、より大きいサイズでの符号化、予測、変換の処理は、特に高解像度映像での符号化効率改善に大きく寄与している。   FIG. 13 is a diagram showing the definition of each processing unit in HEVC. In AVC (Advanced Video Coding, that is, ITU-T H.264 or ISO / IEC 14496-10), which is a standard, 16 × 16 size called macro block (MB) is the maximum unit of encoding processing. However, in HEVC, encoding is performed in units of larger blocks, such as 64 × 64 blocks. Such processing of encoding, prediction, and conversion in a larger size greatly contributes to improvement of encoding efficiency particularly in high-resolution video.

HEVCにおけるイントラ符号化では、AVCのイントラ符号化の性能を改善するため、新しい予測モードなどが追加されている。1つはPlanar予測と呼ばれる予測モードであり、もう1つはより細かい予測方向を実現する予測モード(Angular Prediction)である。図14は、HEVCの予測ユニット(全ブロックサイズ共通)におけるイントラ予測モード番号とイントラ予測モードの対応関係を示す図である。図15は、Angular予測モードと角度の対応関係を示す図である。AVCが8方向であるのに対し、HEVCでは33方向用意されており、非常に柔軟な予測が可能となっており、符号化効率改善に貢献している。   In intra coding in HEVC, a new prediction mode and the like are added in order to improve the performance of AVC intra coding. One is a prediction mode called Planar prediction, and the other is a prediction mode (Angular Prediction) that realizes a finer prediction direction. FIG. 14 is a diagram illustrating a correspondence relationship between intra prediction mode numbers and intra prediction modes in a HEVC prediction unit (common to all block sizes). FIG. 15 is a diagram illustrating a correspondence relationship between the angular prediction mode and the angle. While AVC has 8 directions, HEVC has 33 directions, which enables very flexible prediction and contributes to improved coding efficiency.

Planar予測は、予測信号をpredSamples[x][y](x,yは予測対象ブロックの座標、一番左上の画素位置がx=0,y=0に相当)、ブロックサイズをnT、参照信号をp[x][y](x,yは参照画素の位置、予測対象ブロックの左上の画素位置がx=0,y=0に相当)とするとき、(1)式で定義される。   In Planar prediction, the prediction signal is predSamples [x] [y] (x and y are the coordinates of the prediction target block, the pixel position on the upper left is equivalent to x = 0 and y = 0), the block size is nT, and the reference signal P [x] [y] (where x and y are the position of the reference pixel, and the pixel position at the upper left of the prediction target block is equivalent to x = 0 and y = 0).

predSamples[x][y]=((nT−1−x)×p[−1][y]+(x+1)×p[nT][−1]+(nT−1−y)×p[x][−1]+(y+1)×p[−1][nT]+nT)>>(Log2(nT)+1) ・・・(1)   predSamples [x] [y] = ((nT-1-x) * p [-1] [y] + (x + 1) * p [nT] [-1] + (nT-1-y) * p [x ] [− 1] + (y + 1) × p [−1] [nT] + nT) >> (Log2 (nT) +1) (1)

特に右上(p[nT][−1])と左下(p[−1][nT])に位置する画素を利用して柔軟に予測信号を生成することが可能であり、HEVCのイントラ符号化において、選択率が高いという特徴を有する。   In particular, it is possible to generate a prediction signal flexibly using pixels located in the upper right (p [nT] [-1]) and lower left (p [-1] [nT]), and HEVC intra coding. , The selectivity is high.

Angular予測は、以下のように予測信号predSamples[x][y](x,yは予測対象ブロックの座標、一番左上の画素位置がx=0,y=0)を生成する。
(A)予測モード番号が18以上の場合(以降、…は数値の範囲を示すものとする。)
1.参照画素の配列ref[x](x=−nT…2×nT、nTはブロックサイズ)
ref[x]=p[−1+x][−1](x=0…nT)
図16に定義される予測モード番号に対応する角度(intraPredAngle)が0より小さい場合、そしてかつ(nT×intraPredAngle)>>5が−1より小さい場合:
ref[x]=p[−1][−1+((x×invAngle+128)>>8)](x=−1…(nT×intraPredAngle)>>5)
ここでinvAngleの定義は図17に示す通りである。
図16は、予測モードと角度の対応関係を示す図である。また、図17は、予測モードとパラメータの対応関係を示す図である。
上記以外の場合:
ref[x]=p[−1+x][−1](x=nT+1…2×nT)
The Angular prediction generates a prediction signal predSamples [x] [y] (x and y are the coordinates of the prediction target block, and the pixel position at the top left is x = 0 and y = 0) as follows.
(A) When the prediction mode number is 18 or more (hereinafter,... Indicates a numerical range)
1. Reference pixel array ref [x] (x = −nT 2 × nT, where nT is a block size)
ref [x] = p [-1 + x] [-1] (x = 0... nT)
When the angle (intraPredAngle) corresponding to the prediction mode number defined in FIG. 16 is smaller than 0 and (nT × intraPredAngle) >> 5 is smaller than −1:
ref [x] = p [−1] [− 1 + ((x × invAngle + 128) >> 8)] (x = −1... (nT × intraPredAngle) >> 5)
Here, the definition of invAngle is as shown in FIG.
FIG. 16 is a diagram illustrating a correspondence relationship between the prediction mode and the angle. FIG. 17 is a diagram illustrating the correspondence between prediction modes and parameters.
Other than the above:
ref [x] = p [−1 + x] [− 1] (x = nT + 1... 2 × nT)

2.参照画素の配列ref[x](x=0…nT−1)
(a)インデックス(iIdx)および乗数パラメータ(iFact)を以下に定義する。
iIdx=((y+1)×intraPredAngle)>>5
iFact=((y+1)×intraPredAngle)&31
(b)iFactの値に応じて、以下の処理を実施する。
iFactが0以外のとき:
predSamples[x][y]=((32−iFact)×ref[x+iIdx+1]+iFact×ref[x+iIdx+2]+16)>>5
iFactが0のとき:
predSamples[x][y]=ref[x+iIdx+1]
(c)予測モード番号が26(垂直予測)の場合:(処理対象信号が輝度信号で、かつnT<32を満たす場合におけるx=0,y=0…nT−1について)
predSamples[x][y]=Clip1(p[x][−1]+((p[−1][y]−p[−1][−1])>>1))
2. Reference pixel array ref [x] (x = 0... NT−1)
(A) An index (iIdx) and a multiplier parameter (iFact) are defined below.
iIdx = ((y + 1) × intraPredAngle) >> 5
iFact = ((y + 1) × intraPredAngle) & 31
(B) The following processing is performed according to the value of iFact.
When iFact is non-zero:
predSamples [x] [y] = ((32−iFact) × ref [x + iIdx + 1] + iFact × ref [x + iIdx + 2] +16) >> 5
When iFact is 0:
predSamples [x] [y] = ref [x + iIdx + 1]
(C) When the prediction mode number is 26 (vertical prediction): (x = 0, y = 0... NT-1 when the signal to be processed is a luminance signal and satisfies nT <32)
predSamples [x] [y] = Clip1 Y (p [x] [-1] + ((p [-1] [y] -p [-1] [-1]) >> 1))

(B)予測モード番号が18未満の場合
1.参照画素の配列ref[x](x=−nT…2×nT)
ref[x]=p[−1][−1+x](x=0…nT)
図16に定義されるintraPredAngleが0より小さい場合、かつ(nT×intraPredAngle)>>5が−1より小さい場合:
ref[x]=p[−1+((x×invAngle+128)>>8)][−1](x=−1…(nT×intraPredAngle)>>5)
上記以外の場合:
ref[x]=p[−1][−1+x](x=nT+1…2×nT)
(B) When the prediction mode number is less than 18 Reference pixel array ref [x] (x = −nT... 2 × nT)
ref [x] = p [-1] [-1 + x] (x = 0... nT)
When intraPredAngle defined in FIG. 16 is smaller than 0 and (nT × intraPredAngle) >> 5 is smaller than −1:
ref [x] = p [−1 + ((x × invAngle + 128) >> 8)] [− 1] (x = −1... (nT × intraPredAngle) >> 5)
Other than the above:
ref [x] = p [−1] [− 1 + x] (x = nT + 1... 2 × nT)

2.参照画素の配列ref[x](x=0…nT−1)
(a)インデックス(iIdx)および乗数パラメータ(iFact)を以下に定義する。
iIdx=((x+1)×intraPredAngle)>>5
iFact=((x+1)×intraPredAngle)&31
(b)iFactの値に応じて、以下の処理を実施する。
iFactが0以外のとき:
predSamples[x][y]=((32−iFact)×ref[y+iIdx+1]+iFact×ref[y+iIdx+2]+16)>>5
iFactが0のとき:
predSamples[x][y]=ref[y+iIdx+1]
(c)予測モード番号が10(水平予測)の場合:(処理対象信号が輝度信号で、かつnT<32を満たす場合におけるx=0…nT−1,y=0について)
predSamples[x][y]=Clip1Y(p[−1][y]+((p[x][−1]−p[−1][−1])>>1)
2. Reference pixel array ref [x] (x = 0... NT−1)
(A) An index (iIdx) and a multiplier parameter (iFact) are defined below.
iIdx = ((x + 1) × intraPredAngle) >> 5
iFact = ((x + 1) × intraPredAngle) & 31
(B) The following processing is performed according to the value of iFact.
When iFact is non-zero:
predSamples [x] [y] = ((32−iFact) × ref [y + iIdx + 1] + iFact × ref [y + iIdx + 2] +16) >> 5
When iFact is 0:
predSamples [x] [y] = ref [y + iIdx + 1]
(C) When the prediction mode number is 10 (horizontal prediction): (x = 0 to nT−1, y = 0 when the signal to be processed is a luminance signal and satisfies nT <32)
predSamples [x] [y] = Clip1Y (p [-1] [y] + ((p [x] [-1] -p [-1] [-1]) >> 1)

これらの処理により、33方向の細かい予測信号の生成が可能となり、柔軟な予測信号を作成できるため、HEVCのイントラ符号化性能はAVCよりも向上している。   By these processes, it is possible to generate prediction signals in 33 directions and create a flexible prediction signal, so that the intra coding performance of HEVC is improved over that of AVC.

上記ではAngular予測に関して詳述した。Angular予測は方向性のあるテクスチャに対しては効率的に予測残差エネルギーを低減できる性質を有するが、平坦な領域の予測には向いていない。平坦な領域に対しては、同一の予測値でブロック内を埋めるDC予測が効果的である。DC予測モードはAVCに採用されており、修正が施されたDC予測がHEVCに採用されている。   The above detailed the Angular prediction. Angular prediction has the property of effectively reducing the prediction residual energy for a directional texture, but is not suitable for prediction of a flat region. For a flat region, DC prediction in which the block is filled with the same prediction value is effective. The DC prediction mode is adopted for AVC, and the corrected DC prediction is adopted for HEVC.

DC予測は、予測信号をpredSamples[x][y](x,yは予測対象ブロックの座標、一番左上の画素位置がx=0,y=0に相当)、ブロックサイズをnT、参照信号をp[x][y](x,yは参照画素の位置、予測対象ブロックの左上の画素位置がx=0,y=0に相当)とするとき、まず(2)式で定義される予測値dcValを算出する。

Figure 0006357133
ここで、k=Log2(nT)となる。続いて、色差を示すフラグcIdxに応じて、下記の処理を実施する。 In DC prediction, a predicted signal is predSamples [x] [y] (x and y are the coordinates of the block to be predicted, the pixel position at the upper left is equivalent to x = 0 and y = 0), the block size is nT, and the reference signal P [x] [y] (where x and y are the position of the reference pixel, and the pixel position at the upper left of the prediction target block corresponds to x = 0 and y = 0), is first defined by equation (2) A predicted value dcVal is calculated.
Figure 0006357133
Here, k = Log2 (nT). Subsequently, the following processing is performed according to the flag cIdx indicating the color difference.

(C)cIdx=0のとき、すなわち対象ブロックが輝度信号でnT<32の場合
predSamples[0][0]=(p[−1][0]+2×dcVal+p[0][−1]+2)>>2
predSamples[x][0]=(p[x][−1]+3×dcVal+2)>>2 (x=1…nT−1)
predSamples[0][y]=(p[−1][y]+3×dcVal+2)>>2 (y=1…nT−1)
predSamples[x][y]=dcVal (x、y=1…nT−1)
(C) When cIdx = 0, that is, when the target block is a luminance signal and nT <32 predSamples [0] [0] = (p [−1] [0] + 2 × dcVal + p [0] [− 1] +2) >> 2
predSamples [x] [0] = (p [x] [− 1] + 3 × dcVal + 2) >> 2 (x = 1... nT−1)
predSamples [0] [y] = (p [−1] [y] + 3 × dcVal + 2) >> 2 (y = 1... nT−1)
predSamples [x] [y] = dcVal (x, y = 1... nT-1)

(D)cIdx≠0のとき、すなわち対象ブロックが色差信号の場合
predSamples[x][y]=dcVal(x、y=0…nT−1)
対象ブロックが輝度信号の場合、(C)に記載の通り、参照信号に隣接する予測信号は平均値であるdcValではなく、参照画素との重み付き和を求めて、その値を予測値としている。この重み付き和の計算はAVCでは導入されておらず、HEVC特有の処理となっている。
(D) When cIdx ≠ 0, that is, when the target block is a color difference signal predSamples [x] [y] = dcVal (x, y = 0... NT−1)
When the target block is a luminance signal, as described in (C), the prediction signal adjacent to the reference signal is not the average value dcVal, but a weighted sum with the reference pixel is obtained, and the value is used as the prediction value. . This calculation of the weighted sum is not introduced in AVC, and is a process specific to HEVC.

以上、HEVCの各イントラ予測モードおよびその予測処理方法について詳述した。続いて、イントラ予測の前に行われる参照画素の平滑化(Intra Smoothingと呼ばれる処理)について説明する。本処理はイントラ予測が実行される前に参照信号に対してスムージングフィルタを適用する処理である。以下ではブロックサイズをnT、参照信号をp[x][y](x,yは参照画素の位置、予測対象ブロックの左上の画素位置がx=0,y=0に相当)、フィルタ後の参照信号をpF[x][y]とする。   In the above, each intra prediction mode of HEVC and its prediction processing method have been described in detail. Next, reference pixel smoothing (a process called intra smoothing) performed before intra prediction will be described. This process is a process of applying a smoothing filter to the reference signal before intra prediction is executed. In the following, the block size is nT, the reference signal is p [x] [y] (x and y are the position of the reference pixel, and the upper left pixel position of the prediction target block is equivalent to x = 0 and y = 0), and after the filter Let the reference signal be pF [x] [y].

まず、フィルタの適用にかかわるフラグfilterFlagを定義して、以下の手順で設定する。   First, a flag filterFlag related to the application of a filter is defined and set by the following procedure.

・以下の条件で1つでも満たす場合、filterFlagを0にする。
予測モードがDC予測である。
ブロックサイズが4である。
-If any of the following conditions is satisfied, set filterFlag to 0.
The prediction mode is DC prediction.
The block size is 4.

・もしそうでなければ、以下を適用する。
変数minDistVerHorを以下でセットする。
Min(Abs(predModeIntra−26),Abs(predModeIntra−10))
変数intraHorVerDistThres[nT]を以下の通り定義する。
nT=8の場合、変数に7を代入する。
nT=16の場合、変数に1を代入する。
nT=32の場合、変数に0を代入する。
filterFlagは以下で導出される。
minDistVerHorがintraHorVerDistThres[nT]よりも大きい場合、filterFlagを1とする。
そうでなければ、filterFlagを0とする。
• If not, apply the following:
Set the variable minDistVerHor as follows:
Min (Abs (predModeIntra-26), Abs (predModeIntra-10))
The variable intraHorVerDistThres [nT] is defined as follows:
When nT = 8, 7 is substituted into the variable.
When nT = 16, 1 is substituted into the variable.
When nT = 32, 0 is substituted into the variable.
filterFlag is derived below.
If minDistVerHor is greater than intraHorVerDistThres [nT], filterFlag is set to 1.
Otherwise, set filterFlag to 0.

・filterFlagが1の場合、以下の処理を実行する。
変数biIntFlagを以下の流れで導出する。ここでbiIntFlagとはHEVCに導入されている強イントラスムージング(Strong Intra Smoothing)と呼ばれる線形補間による参照画素設定機構の使用可否を指し示すフラグである。
以下の全ての条件を満たす場合、biIntFlagを1にセットする。
strong_intra_smoothing_enabled_flagが1である。
nTが32である。
Abs(p[−1][−1]+p[nT×2−1][−1]−2×p[nT−1][−1])<(1<<(BitDepth−5))
Abs(p[−1][−1]+p[−1][nT×2−1]−2×p[−1][nT−1])<(1<<(BitDepth−5))
満たさない場合、biIntFlagを0にセットする。
When filterFlag is 1, the following processing is executed.
The variable biIntFlag is derived as follows. Here, biIntFlag is a flag indicating whether or not the reference pixel setting mechanism based on linear interpolation called strong intra smoothing introduced in HEVC can be used.
If all the following conditions are met, biIntFlag is set to 1.
strong_intra_smoothing_enabled_flag is 1.
nT is 32.
Abs (p [-1] [-1] + p [nT.times.2-1] [-1] -2.times.p [nT-1] [-1]) <(1 << (BitDepth Y- 5))
Abs (p [-1] [-1] + p [-1] [nT × 2-1] -2 × p [-1] [nT-1]) <(1 << (BitDepth Y- 5))
If not, set biIntFlag to 0.

・フィルタ処理は以下のように実行される。
biIntFlagが1である場合、x=−1、y=−1…63、そしてx=0…63、y=−1において、
pF[−1][−1]=p[−1][−1]
pF[−1][y]=((63−y)×p[−1][−1]+(y+1)×p[−1][63]+32)>>6 (y=0…62)
pF[−1][63]=p[−1][63]
pF[x][−1]=((63−x)×p[−1][−1]+(x+1)×p[63][−1]+32)>>6 (x=0…62)
pF[63][−1]=p[63][−1]
-Filter processing is executed as follows.
If biIntFlag is 1, at x = -1, y = -1 ... 63, and x = 0 ... 63, y = -1,
pF [-1] [-1] = p [-1] [-1]
pF [−1] [y] = ((63−y) × p [−1] [− 1] + (y + 1) × p [−1] [63] +32) >> 6 (y = 0... 62)
pF [-1] [63] = p [-1] [63]
pF [x] [− 1] = ((63−x) × p [−1] [− 1] + (x + 1) × p [63] [− 1] +32) >> 6 (x = 0... 62)
pF [63] [-1] = p [63] [-1]

・biIntFlagが0である場合、x=−1、y=−1…nT×2−1、そしてx=0…nT×2−1、y=−1において、
pF[−1][−1]=(p[−1][0]+2×p[−1][−1]+p[0][−1]+2)>>2
pF[−1][y]=(p[−1][y+1]+2×p[−1][y]+p[−1][y−1]+2)>>2 (y=0…nT×2−2)
pF[−1][nT×2−1]=p[−1][nT×2−1]
pF[x][−1]=(p[x−1][−1]+2×p[x][−1]+p[x+1][−1]+2)>>2 (x=0…nT×2−2)
pF[nT×2−1][−1]=p[nT×2−1][−1]
If biIntFlag is 0, then x = -1, y = -1 ... nT × 2-1, and x = 0 ... nT × 2-1, y = -1.
pF [-1] [-1] = (p [-1] [0] + 2 × p [-1] [-1] + p [0] [-1] +2) >> 2
pF [−1] [y] = (p [−1] [y + 1] + 2 × p [−1] [y] + p [−1] [y−1] +2) >> 2 (y = 0... nT × 2-2)
pF [−1] [nT × 2-1] = p [−1] [nT × 2-1]
pF [x] [− 1] = (p [x−1] [− 1] + 2 × p [x] [− 1] + p [x + 1] [− 1] +2) >> 2 (x = 0... nT × 2-2)
pF [nT × 2-1] [− 1] = p [nT × 2-1] [− 1]

biIntFlag=1の場合に適用される線形補間で参照画素を導出する処理が強イントラスムージング処理、biIntFlag=0の場合に[1,2,1]/4の平滑化フィルタを参照画素に施す処理がイントラスムージング処理とそれぞれ一般に呼ばれる。   The process of deriving the reference pixel by linear interpolation applied when biIntFlag = 1 is a strong intra-smoothing process, and the process of applying a smoothing filter of [1, 2, 1] / 4 to the reference pixel when biIntFlag = 0. Each is generally called an intra-smoothing process.

以上説明した各事項は、非特許文献1、非特許文献2、非特許文献3および非特許文献4に詳述されている。   Each item described above is described in detail in Non-Patent Document 1, Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4.

なお、本明細書において、画像とは一般的な動画像、映像、静止画像を含むものである。   In this specification, an image includes a general moving image, video, and still image.

大久保榮(監)、角野眞也、菊池義浩、鈴木輝彦(編)、「改訂三版H.264/AVC教科書」、株式会社インプレスR&D、pp.110−116、2009年Satoshi Okubo (Director), Shinya Tsuno, Yoshihiro Kikuchi, Teruhiko Suzuki (ed.), “Revised Third Edition H.264 / AVC Textbook”, Impress R & D, Inc., pp. 110-116, 2009 ITU-T: “SERIES H:AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services-Coding of moving video,Advanced video coding for generic audiovisual services", Recommendation ITU-T H.264,pp.116-135, 2005ITU-T: “SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services-Coding of moving video, Advanced video coding for generic audiovisual services”, Recommendation ITU-T H. 264, pp.116-135, 2005 ITU-T:“SERIES H:AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services-Coding of moving video,High efficiency video coding”, Recommendation ITU-T H.265,pp.101-111, 2013ITU-T: “SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services-Coding of moving video, High efficiency video coding”, Recommendation ITU-T H. 265, pp.101-111, 2013 大久保榮(監)、鈴木輝彦、高村誠之、中條健(編)、「H.265/HEVC教科書」、株式会社インプレスジャパン、pp.115−124、2013年Satoshi Okubo (Director), Teruhiko Suzuki, Noriyuki Takamura, Ken Nakatsuji (ed.), “H.265 / HEVC Textbook”, Impress Japan, pp. 115-124, 2013

HEVCのイントラ予測ではAVCと同様に、イントラ予測信号を生成する前に参照画素信号に対してスムージングフィルタを適用する処理が存在するが、イントラ予測モード番号およびブロックサイズなどの情報に基づいてフィルタ適用有無を判断することで適応的にフィルタを実施して、参照画素信号の符号化歪などのノイズを効率的に除去して符号化性能を改善している。   In HEVC intra prediction, similar to AVC, there is a process of applying a smoothing filter to a reference pixel signal before generating an intra prediction signal, but filter application is based on information such as the intra prediction mode number and block size. A filter is adaptively performed by determining the presence or absence, and noise such as encoding distortion of the reference pixel signal is efficiently removed to improve encoding performance.

しかしながら、イントラ予測モード番号とブロックサイズの他に復号参照画素の精度に関わる符号化パラメータを考慮してイントラスムージングフィルタの適用を判断している訳ではない。イントラ予測に用いられる参照画素は復号信号であるため、符号化歪が重畳される。特に量子化パラメータであるQP(Quantization Parameter)値が小さいとき(つまり高ビットレート時)は符号量が割り当てられて復号信号の劣化が小さくなる。逆にQP値が大きいとき(つまり低ビットレート時)は符号量が割り当てられなくなり、復号信号の劣化が大きくなる。   However, the application of the intra smoothing filter is not determined in consideration of the encoding parameters related to the accuracy of the decoded reference pixels in addition to the intra prediction mode number and the block size. Since the reference pixel used for intra prediction is a decoded signal, coding distortion is superimposed. In particular, when a QP (Quantization Parameter) value, which is a quantization parameter, is small (that is, at a high bit rate), a code amount is assigned and degradation of a decoded signal is small. Conversely, when the QP value is large (that is, at a low bit rate), the code amount is not allocated, and the degradation of the decoded signal increases.

すなわち、QP値が小さい場合はイントラ予測に用いる復号信号の符号化歪が小さくなるため、イントラスムージングを弱くする、ないしは適用する範囲を狭めることで符号化性能を保ちつつイントラスムージングフィルタの処理を省くことによる処理高速化も達成できる可能性がある。逆にQP値が大きい場合は復号信号の符号化歪が大きくなるため、イントラスムージングを強くする、ないしは適用する範囲を広げることで符号化性能を保つ、ないしはより改善することが期待できる。   In other words, when the QP value is small, the coding distortion of the decoded signal used for intra prediction is small, so the processing of the intra-smoothing filter is omitted while maintaining the coding performance by weakening the intra-smoothing or narrowing the application range. There is a possibility that processing speed can be increased. On the contrary, when the QP value is large, the coding distortion of the decoded signal becomes large. Therefore, it is expected that the encoding performance can be maintained or further improved by increasing the intra-smoothing or expanding the application range.

本発明は、このような事情に鑑みてなされたもので、現行のイントラ予測のスムージングフィルタにおいて、その適用有無の判断にQP値による復号信号の劣化度合いが適用されていないという課題を解決し、符号化性能と主観画質の改善、および高ビットレートにおける符号化処理と復号処理の高速化を実現することができるイントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and in the current intra prediction smoothing filter, solves the problem that the degree of degradation of the decoded signal due to the QP value is not applied to the determination of the presence or absence of the application. Intra-prediction processing device, intra-prediction processing method, intra-prediction processing program, image encoding device, and image capable of realizing improvement in encoding performance and subjective image quality, and speeding up of encoding processing and decoding processing at a high bit rate An object is to provide a decoding device.

本発明の一態様は、同一の画面内で予測信号を生成するイントラ予測を行うイントラ予測処理装置であって、イントラ予測モードを識別するイントラ予測モード情報を取得するモード情報取得手段と、前記イントラ予測に用いるブロックサイズを識別するブロックサイズ情報を取得するサイズ情報取得手段と、復号画素信号を参照画素信号として設定するための復号画素位置情報を取得する位置情報取得手段と、前記イントラ予測モード情報と前記ブロックサイズ情報とに基づいて参照画素信号に施すイントラスムージングフィルタの適用可否を判定してフィルタ使用情報を導出する導出手段と、前記復号画素位置情報によって特定される処理対象のブロックに用いられる量子化パラメータを取得するパラメータ取得手段と、予め定められたテーブルから前記量子化パラメータに対する閾値を読み込んで設定する設定手段と、取得された前記量子化パラメータと前記閾値とを比較し、前記量子化パラメータが小さいときにはイントラスムージングフィルタの適用されるイントラ予測モード数を削減し、前記量子化パラメータが大きいときには前記イントラ予測モード数を増加させるようにフィルタ使用情報を修正する修正手段と、修正された前記フィルタ使用情報に基づいて前記イントラスムージングフィルタを実施する実施手段を備えるイントラ予測処理装置である。 One aspect of the present invention is an intra prediction processing apparatus that performs intra prediction for generating a prediction signal within the same screen, the mode information acquiring unit that acquires intra prediction mode information for identifying an intra prediction mode, and the intra Size information acquisition means for acquiring block size information for identifying a block size used for prediction, position information acquisition means for acquiring decoded pixel position information for setting a decoded pixel signal as a reference pixel signal, and the intra prediction mode information And deriving means for deriving filter usage information by determining whether or not an intra-smoothing filter to be applied to a reference pixel signal is applied based on the block size information, and a processing target block specified by the decoded pixel position information A parameter acquisition means for acquiring a quantization parameter; Comparing a setting means for setting read thresholds for the quantization parameters from Buru, and said to have been acquired the quantization parameter threshold, the intra prediction mode number to be applied intra smoothing filter when the quantization parameter is less And means for correcting the filter usage information so as to increase the number of intra prediction modes when the quantization parameter is large, and means for implementing the intra-smoothing filter based on the corrected filter usage information Is an intra prediction processing apparatus.

本発明の一態様は、前記イントラ予測処理装置であって、前記修正手段は、複数の前記閾値を用いてイントラスムージングフィルタの適用されるイントラ予測モードの数を調整する調整手段を備える。   One aspect of the present invention is the intra prediction processing apparatus, wherein the correction unit includes an adjustment unit that adjusts the number of intra prediction modes to which the intra smoothing filter is applied, using a plurality of the threshold values.

本発明の一態様は、前記イントラ予測処理装置を備える画像符号化装置であって、予測誤差ないしは符号化コストを最小化する前記閾値を選択し符号化して画像復号装置へ伝送する閾値伝送手段を備える画像符号化装置である。   One aspect of the present invention is an image encoding device including the intra prediction processing device, comprising: threshold transmission means for selecting and encoding the threshold that minimizes a prediction error or encoding cost and transmitting the selected threshold to the image decoding device. An image encoding device provided.

本発明の一態様は、前記イントラ予測処理装置を有する画像復号装置であって、予測誤差ないしは符号化コストを最小化するように選択されて符号化された前記閾値を復号して設定する閾値設定手段を備える画像復号装置である。   One aspect of the present invention is an image decoding apparatus having the intra prediction processing apparatus, wherein threshold values are set by decoding and setting the threshold values selected and encoded so as to minimize prediction errors or encoding costs. An image decoding device comprising means.

本発明の一態様は、同一の画面内で予測信号を生成するイントラ予測を行うイントラ予測処理装置が行うイントラ予測処理方法であって、イントラ予測モードを識別するイントラ予測モード情報を取得するモード情報取得ステップと、前記イントラ予測に用いるブロックサイズを識別するブロックサイズ情報を取得するサイズ情報取得ステップと、復号画素信号を参照画素信号として設定するための復号画素位置情報を取得する位置情報取得ステップと、前記イントラ予測モード情報と前記ブロックサイズ情報とに基づいて参照画素信号に施すイントラスムージングフィルタの適用可否を判定してフィルタ使用情報を導出する導出ステップと、前記復号画素位置情報によって特定される処理対象のブロックに用いられる量子化パラメータを取得するパラメータ取得ステップと、予め定められたテーブルから前記量子化パラメータに対する閾値を読み込んで設定する設定ステップと、取得された前記量子化パラメータと前記閾値とを比較し、前記量子化パラメータが小さいときにはイントラスムージングフィルタの適用されるイントラ予測モード数を削減し、前記量子化パラメータが大きいときには前記イントラ予測モード数を増加させるようにフィルタ使用情報を修正する修正ステップと、修正された前記フィルタ使用情報に基づいて前記イントラスムージングフィルタを実施する実施ステップを有するイントラ予測処理方法である。 One aspect of the present invention is an intra prediction processing method performed by an intra prediction processing apparatus that performs intra prediction that generates a prediction signal within the same screen, and mode information that acquires intra prediction mode information that identifies an intra prediction mode. An obtaining step; a size information obtaining step for obtaining block size information for identifying a block size used for the intra prediction; and a position information obtaining step for obtaining decoded pixel position information for setting a decoded pixel signal as a reference pixel signal; , A derivation step for deriving filter use information by determining whether an intra smoothing filter to be applied to a reference pixel signal is applied based on the intra prediction mode information and the block size information, and a process specified by the decoded pixel position information Quantization parameters used for the target block A parameter acquiring step of, comparing a setting step of setting a predetermined table by reading the threshold value for the quantization parameter, and said to have been acquired the quantization parameter threshold, when the quantization parameter is small intra A correction step of correcting the filter usage information so as to reduce the number of intra prediction modes to which a smoothing filter is applied and to increase the number of intra prediction modes when the quantization parameter is large, and based on the corrected filter usage information This is an intra prediction processing method having an execution step of executing the intra smoothing filter.

本発明の一態様は、前記イントラ予測処理方法であって、前記修正ステップでは、複数の前記閾値を用いて前記イントラスムージングフィルタの適用されるイントラ予測モードの数を調整する調整ステップを有する。   One aspect of the present invention is the intra prediction processing method, wherein the correction step includes an adjustment step of adjusting the number of intra prediction modes to which the intra smoothing filter is applied using a plurality of the threshold values.

本発明の一態様は、コンピュータを、前記イントラ予測処理装置として機能させるためのイントラ予測処理プログラムである。   One aspect of the present invention is an intra prediction processing program for causing a computer to function as the intra prediction processing device.

本発明によれば、イントラ予測において、イントラスムージング処理の実施判断にQP値による復号済み参照画素信号の影響を適用することにより、復号された参照画素信号に重畳されている符号化歪などのノイズを効率的に削除して符号化効率と主観画質を改善することができる。また、高ビットレート時でのイントラスムージングフィルタを省くことにより符号化処理と復号処理を高速化することができるという効果が得られる。   According to the present invention, in intra prediction, noise such as coding distortion superimposed on a decoded reference pixel signal is applied by applying the influence of the decoded reference pixel signal based on the QP value to the determination of performing the intra smoothing process. Can be efficiently deleted to improve coding efficiency and subjective image quality. In addition, the effect of speeding up the encoding process and the decoding process can be obtained by omitting the intra smoothing filter at a high bit rate.

本発明の一実施形態による画像符号化装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image coding apparatus by one Embodiment of this invention. 本発明の一実施形態による画像復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image decoding apparatus by one Embodiment of this invention. 図1、図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an intra prediction processing unit 101 and an intra prediction processing unit 202 illustrated in FIGS. 1 and 2. 図3に示すイントラ予測処理部101が行うイントラ予測処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the intra prediction process which the intra prediction process part 101 shown in FIG. 3 performs. 図3に示す参照画素生成部302の構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of a reference pixel generation unit 302 illustrated in FIG. 3. HEVCにおけるイントラスムージングフィルタが適用される条件を示す図である。It is a figure which shows the conditions where the intra smoothing filter in HEVC is applied. イントラスムージングフィルタ適用範囲修正部405でのフィルタ使用情報の修正方法を示す説明図である。It is explanatory drawing which shows the correction method of the filter use information in the intra smoothing filter application range correction part 405. FIG. イントラスムージングフィルタ適用範囲修正部405でのフィルタ使用情報の修正方法を示す説明図である。It is explanatory drawing which shows the correction method of the filter use information in the intra smoothing filter application range correction part 405. FIG. 従来技術による参照画素生成部302’の構成を示すブロック図である。It is a block diagram which shows the structure of the reference pixel production | generation part 302 'by a prior art. 図5に示す参照画素生成部302が行う参照画素生成処理動作を示すフローチャートである。It is a flowchart which shows the reference pixel production | generation processing operation which the reference pixel production | generation part 302 shown in FIG. 5 performs. イントラ予測処理部101を備える画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a computer in the case of comprising the image coding apparatus 100 provided with the intra prediction process part 101 by a computer and a software program. イントラ予測処理部202を備える画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a computer in the case of comprising the image decoding apparatus 200 provided with the intra prediction process part 202 with a computer and a software program. HEVCにおける各処理ユニットの定義を示す図である。It is a figure which shows the definition of each processing unit in HEVC. HEVCの予測ユニットにおけるイントラ予測モード番号とイントラ予測モードの対応関係を示す図である。It is a figure which shows the correspondence of the intra prediction mode number and intra prediction mode in the prediction unit of HEVC. Angular予測モードと角度の対応関係を示す図である。It is a figure which shows the correspondence of Angular prediction mode and an angle. 予測モードと角度の対応関係を示す図である。It is a figure which shows the correspondence of prediction mode and an angle. 予測モードとパラメータの対応関係を示す図である。It is a figure which shows the correspondence of prediction mode and a parameter.

以下、図面を参照して、本発明の一実施形態による画像符号化装置及び画像復号装置を説明する。図1は、同実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、符号化対象の入力映像信号を入力し、入力映像信号の各フレームを複数のブロックに分割してブロックごとに符号化し、符号化結果のビットストリームを符号化ストリームとして出力する。   Hereinafter, an image encoding device and an image decoding device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image encoding device according to the embodiment. The image encoding device 100 receives an input video signal to be encoded, divides each frame of the input video signal into a plurality of blocks, encodes each block, and outputs a bit stream of the encoding result as an encoded stream To do.

画像符号化装置100は、図1に示すように、イントラ予測処理部101、インター予測処理部102、予測残差信号生成部103、変換処理部104、量子化処理部105、逆量子化処理部106、逆変換処理部107、復号信号生成部108、フレームメモリ109、インループフィルタ処理部110、インター予測情報格納部111、イントラ予測情報格納部112及びエントロピー符号化処理部113を備えている。   As shown in FIG. 1, the image encoding device 100 includes an intra prediction processing unit 101, an inter prediction processing unit 102, a prediction residual signal generation unit 103, a transform processing unit 104, a quantization processing unit 105, and an inverse quantization processing unit. 106, an inverse transform processing unit 107, a decoded signal generation unit 108, a frame memory 109, an in-loop filter processing unit 110, an inter prediction information storage unit 111, an intra prediction information storage unit 112, and an entropy encoding processing unit 113.

図1に示す画像符号化装置100においては、イントラ予測処理部101が特徴的な構成である。他の各機能部は、HEVCなどのエンコーダとして用いられている一般的な画像符号化装置が備える機能部と同等である。なお、インループフィルタ処理部110については、複数のインループフィルタが適用されてもよい。例えば、HEVCのようにデブロッキングフィルタおよびサンプルアダプティブオフセット(Sample Adaptive Offset:SAO)が適用される。HEVC標準化において提案されていたアダプティブループフィルタ(Adaptive Loop Filter:ALF)と呼ばれる符号化歪を除去するフィルタなどが挿入されてもよい。   In the image encoding device 100 illustrated in FIG. 1, the intra prediction processing unit 101 has a characteristic configuration. The other functional units are equivalent to the functional units included in a general image encoding device used as an encoder such as HEVC. Note that a plurality of in-loop filters may be applied to the in-loop filter processing unit 110. For example, as in HEVC, a deblocking filter and a sample adaptive offset (SAO) are applied. A filter for removing coding distortion called an adaptive loop filter (ALF) proposed in HEVC standardization may be inserted.

イントラ予測処理部101は、入力映像信号を入力し、入力映像信号に基づいて予測信号を生成する。また、イントラ予測処理部101は、入力映像信号に基づいて、予測モードなどを含むイントラ予測情報を生成し、生成したイントラ予測情報をイントラ予測情報格納部112に記憶させて格納する。   The intra prediction processing unit 101 receives an input video signal and generates a prediction signal based on the input video signal. Also, the intra prediction processing unit 101 generates intra prediction information including a prediction mode based on the input video signal, and stores the generated intra prediction information in the intra prediction information storage unit 112 for storage.

インター予測処理部102は、入力映像信号と、インループフィルタ処理部110から出力する参照画像とを入力する。インター予測処理部102は、入力映像信号と参照画像とに基づいて、予測信号を生成する。また、インター予測処理部102は、入力映像信号と参照信号とに基づいて、動きベクトルを含むインター予測情報を生成し、生成したインター予測情報をインター予測情報格納部111に記憶させて格納する。   The inter prediction processing unit 102 inputs an input video signal and a reference image output from the in-loop filter processing unit 110. The inter prediction processing unit 102 generates a prediction signal based on the input video signal and the reference image. Further, the inter prediction processing unit 102 generates inter prediction information including a motion vector based on the input video signal and the reference signal, and stores the generated inter prediction information in the inter prediction information storage unit 111 for storage.

予測残差信号生成部103は、入力映像信号と、イントラ予測処理部101あるいはインター予測処理部102から出力される予測信号との差分を算出する。予測残差信号生成部103は、算出した差分を予測残差信号として変換処理部104に出力する。   The prediction residual signal generation unit 103 calculates a difference between the input video signal and a prediction signal output from the intra prediction processing unit 101 or the inter prediction processing unit 102. The prediction residual signal generation unit 103 outputs the calculated difference to the conversion processing unit 104 as a prediction residual signal.

変換処理部104は、予測残差信号生成部103から入力した予測残差信号に対して離散コサイン変換(Discrete Cosine Transform:DCT)等の直交変換を行う。変換処理部104は、直交変換により得られた変換係数を量子化処理部105に出力する。   The transform processing unit 104 performs orthogonal transform such as discrete cosine transform (DCT) on the prediction residual signal input from the prediction residual signal generation unit 103. The transform processing unit 104 outputs the transform coefficient obtained by the orthogonal transform to the quantization processing unit 105.

量子化処理部105は、変換処理部104から入力した変換係数を量子化し、その量子化された変換係数を逆量子化処理部106とエントロピー符号化処理部113とに出力する。   The quantization processing unit 105 quantizes the transform coefficient input from the transform processing unit 104 and outputs the quantized transform coefficient to the inverse quantization processing unit 106 and the entropy coding processing unit 113.

逆量子化処理部106は、量子化処理部105から入力した変換係数を逆量子化して逆変換処理部107に出力する。逆変換処理部107は、逆量子化処理部106から入力した変換係数を逆直交変換する。逆変換処理部107は、逆直交変換により得られた予測残差復号信号を復号信号生成部108に出力する。   The inverse quantization processing unit 106 performs inverse quantization on the transform coefficient input from the quantization processing unit 105 and outputs the result to the inverse transform processing unit 107. The inverse transform processing unit 107 performs inverse orthogonal transform on the transform coefficient input from the inverse quantization processing unit 106. The inverse transform processing unit 107 outputs the prediction residual decoded signal obtained by the inverse orthogonal transform to the decoded signal generating unit 108.

復号信号生成部108は、逆変換処理部107から入力した予測残差復号信号と、イントラ予測処理部101あるいはインター予測処理部102が出力する予測信号とを加算する。復号信号生成部108は、加算結果を符号化した符号化対象ブロックの復号信号としてフレームメモリ109に記憶する。この復号信号は、イントラ予測処理部101あるいはインター予測処理部102において参照画像として用いる。   The decoded signal generation unit 108 adds the prediction residual decoded signal input from the inverse transform processing unit 107 and the prediction signal output from the intra prediction processing unit 101 or the inter prediction processing unit 102. The decoded signal generation unit 108 stores the addition result in the frame memory 109 as a decoded signal of an encoding target block obtained by encoding the addition result. This decoded signal is used as a reference image in the intra prediction processing unit 101 or the inter prediction processing unit 102.

フレームメモリ109は、復号信号生成部108が生成し出力した復号信号を記憶する。インループフィルタ処理部110は、フレームメモリ109に記憶されている復号信号を読み出し、読み出した復号信号に対してデブロッキングフィルタおよびSAO処理などを行う。インループフィルタ処理部110は、各種インループフィルタ処理後の画像を参照画像としてインター予測処理部102に出力する。   The frame memory 109 stores the decoded signal generated and output by the decoded signal generation unit 108. The in-loop filter processing unit 110 reads the decoded signal stored in the frame memory 109, and performs a deblocking filter, an SAO process, and the like on the read decoded signal. The in-loop filter processing unit 110 outputs the image after various in-loop filter processes to the inter prediction processing unit 102 as a reference image.

インター予測情報格納部111は、インター予測処理部102が生成したインター予測情報を記憶する。イントラ予測情報格納部112は、イントラ予測処理部101が生成したイントラ予測情報を記憶する。   The inter prediction information storage unit 111 stores the inter prediction information generated by the inter prediction processing unit 102. The intra prediction information storage unit 112 stores the intra prediction information generated by the intra prediction processing unit 101.

エントロピー符号化処理部113は、量子化処理部105において量子化された変換係数と、インター予測情報格納部111に格納されているインター予測情報と、イントラ予測情報格納部112に格納されているイントラ予測情報とをエントロピー符号化し、符号化ストリームとして出力する。   The entropy encoding processing unit 113 includes the transform coefficient quantized by the quantization processing unit 105, the inter prediction information stored in the inter prediction information storage unit 111, and the intra stored in the intra prediction information storage unit 112. The prediction information is entropy encoded and output as an encoded stream.

画像符号化装置100は、前述の各機能部を備えることにより、入力映像信号の各フレームを複数のブロックに分割してブロックベースの予測符号化を行い、入力映像信号を符号化して得られた符号化ストリームを出力する。   The image encoding apparatus 100 includes the above-described functional units, and is obtained by dividing each frame of the input video signal into a plurality of blocks, performing block-based predictive encoding, and encoding the input video signal. Output the encoded stream.

図2は、同実施形態における画像復号装置200の構成を示すブロック図である。画像復号装置200は、図1に示した画像符号化装置100などにより符号化されて出力される符号化ストリームを入力し、符号化ストリームを復号することにより復号画像である復号映像信号を出力する。   FIG. 2 is a block diagram showing the configuration of the image decoding apparatus 200 in the embodiment. The image decoding apparatus 200 receives an encoded stream that is encoded and output by the image encoding apparatus 100 shown in FIG. 1, and outputs a decoded video signal that is a decoded image by decoding the encoded stream. .

画像復号装置200は、図2に示すように、エントロピー復号処理部201、イントラ予測処理部202、インター予測処理部203、逆量子化処理部204、逆変換処理部205、復号信号生成部206、フレームメモリ207、インループフィルタ処理部208、インター予測情報格納部209及びイントラ予測情報格納部210を備えている。   As shown in FIG. 2, the image decoding apparatus 200 includes an entropy decoding processing unit 201, an intra prediction processing unit 202, an inter prediction processing unit 203, an inverse quantization processing unit 204, an inverse transformation processing unit 205, a decoded signal generation unit 206, A frame memory 207, an in-loop filter processing unit 208, an inter prediction information storage unit 209, and an intra prediction information storage unit 210 are provided.

図2に示す画像復号装置200においては、イントラ予測処理部202が特徴的な構成である。他の各機能部は、HEVCなどのデコーダとして用いられる一般的な画像復号装置が備える機能部と同等である。   In the image decoding apparatus 200 illustrated in FIG. 2, the intra prediction processing unit 202 has a characteristic configuration. The other functional units are equivalent to the functional units included in a general image decoding device used as a decoder such as HEVC.

エントロピー復号処理部201は、符号化ストリームを入力し、入力した符号化ストリームから復号対象ブロックの量子化変換係数をエントロピー復号するとともに、イントラ予測に関するイントラ予測情報及びインター予測に関するインター予測情報をエントロピー復号する。また、エントロピー復号処理部201は、量子化変換係数を逆量子化処理部204に出力し、インター予測情報をインター予測情報格納部209に記憶させて格納し、イントラ予測情報をイントラ予測情報格納部210に記憶させて格納する。   The entropy decoding processing unit 201 inputs an encoded stream, entropy-decodes the quantized transform coefficient of the decoding target block from the input encoded stream, and entropy-decodes intra prediction information related to intra prediction and inter prediction information related to inter prediction. To do. The entropy decoding processing unit 201 outputs the quantized transform coefficient to the inverse quantization processing unit 204, stores the inter prediction information in the inter prediction information storage unit 209, and stores the intra prediction information in the intra prediction information storage unit. It memorize | stores in 210 and stores.

イントラ予測処理部202は、フレームメモリ207に記憶される復号信号を参照画像として読み出す。また、イントラ予測処理部202は、イントラ予測情報格納部210からイントラ予測情報を読み出す。そして、イントラ予測処理部202は、読み出した参照画像と、読み出したイントラ予測情報とに基づいて、予測信号を生成する。   The intra prediction processing unit 202 reads the decoded signal stored in the frame memory 207 as a reference image. The intra prediction processing unit 202 reads the intra prediction information from the intra prediction information storage unit 210. Then, the intra prediction processing unit 202 generates a prediction signal based on the read reference image and the read intra prediction information.

インター予測処理部203は、インター予測情報格納部209からインター予測情報を読み出す。そして、インター予測処理部203は、インター予測情報と、インループフィルタ処理部208から入力した参照画像とに基づいて、予測信号を生成する。   The inter prediction processing unit 203 reads inter prediction information from the inter prediction information storage unit 209. Then, the inter prediction processing unit 203 generates a prediction signal based on the inter prediction information and the reference image input from the in-loop filter processing unit 208.

逆量子化処理部204は、エントロピー復号処理部201から入力した量子化変換係数を逆量子化して復号変換係数を算出し、算出した復号変換係数を逆変換処理部205に出力する。   The inverse quantization processing unit 204 inversely quantizes the quantized transform coefficient input from the entropy decoding processing unit 201 to calculate a decoded transform coefficient, and outputs the calculated decoded transform coefficient to the inverse transform processing unit 205.

逆変換処理部205は、逆量子化処理部204から入力した復号変換係数に逆直交変換を施し、予測残差復号信号を算出し、算出した予測残差復号信号を復号信号生成部206に出力する。   The inverse transform processing unit 205 performs inverse orthogonal transform on the decoded transform coefficient input from the inverse quantization processing unit 204, calculates a predicted residual decoded signal, and outputs the calculated predicted residual decoded signal to the decoded signal generating unit 206. To do.

復号信号生成部206は、逆変換処理部205から入力した予測残差復号信号と、イントラ予測処理部202あるいはインター予測処理部203が出力する予測信号とを加算する。そして、復号信号生成部206は、加算結果を復号対象ブロックの復号信号としてフレームメモリ207に記憶させて格納する。フレームメモリ207は、復号信号生成部206が算出した復号信号を記憶する。   The decoded signal generation unit 206 adds the prediction residual decoded signal input from the inverse transform processing unit 205 and the prediction signal output from the intra prediction processing unit 202 or the inter prediction processing unit 203. The decoded signal generation unit 206 stores the addition result in the frame memory 207 as a decoded signal of the decoding target block. The frame memory 207 stores the decoded signal calculated by the decoded signal generation unit 206.

インループフィルタ処理部208は、フレームメモリ207から復号信号を読み出し、読み出した復号信号により示される画像に対して符号化歪みを低減する各種インループフィルタ処理を行う。インループフィルタ処理部208は、各種インループフィルタ処理後の画像を復号映像信号として出力する。また、インループフィルタ処理部208は、フィルタ処理後の画像を参照画像としてインター予測処理部203に出力する。なお、画像符号化装置100と同様に、アダプティブループフィルタなどのフィルタ処理部を本インループフィルタ処理部208に含んでもよい。   The in-loop filter processing unit 208 reads out the decoded signal from the frame memory 207 and performs various in-loop filter processes for reducing coding distortion on the image indicated by the read-out decoded signal. The in-loop filter processing unit 208 outputs the image after various in-loop filter processes as a decoded video signal. Further, the in-loop filter processing unit 208 outputs the image after filter processing to the inter prediction processing unit 203 as a reference image. Similar to the image encoding device 100, the in-loop filter processing unit 208 may include a filter processing unit such as an adaptive loop filter.

インター予測情報格納部209は、エントロピー復号処理部201が復号したインター予測情報を格納する。イントラ予測情報格納部210は、エントロピー復号処理部201が復号したイントラ予測情報を格納する。   The inter prediction information storage unit 209 stores the inter prediction information decoded by the entropy decoding processing unit 201. The intra prediction information storage unit 210 stores the intra prediction information decoded by the entropy decoding processing unit 201.

画像復号装置200は、前述の各機能部を備えることにより、ブロックベースの予測符号化により符号化された映像の符号化ストリームを入力し、入力された符号化ストリームから映像を復号して復号映像信号を出力する。   The image decoding apparatus 200 includes the above-described functional units, thereby inputting an encoded stream of video encoded by block-based predictive encoding, decoding the video from the input encoded stream, and decoding video. Output a signal.

次に、図3を参照して、図1と図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成を説明する。図3は、図1、図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成例を示すブロック図である。イントラ予測処理部101とイントラ予測処理部202とは共通する処理を行い、同じ構成を備えているので、以下では、イントラ予測処理部101を説明し、イントラ予測処理部202の説明を省略する。   Next, the configuration of the intra prediction processing unit 101 and the intra prediction processing unit 202 illustrated in FIGS. 1 and 2 will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration example of the intra prediction processing unit 101 and the intra prediction processing unit 202 illustrated in FIGS. 1 and 2. Since the intra prediction processing unit 101 and the intra prediction processing unit 202 perform common processing and have the same configuration, the intra prediction processing unit 101 will be described below, and the description of the intra prediction processing unit 202 will be omitted.

イントラ予測処理部101は、図3に示すように、ブロック位置同定部301、参照画素生成部302及びイントラ予測信号生成部303を備えている。ブロック位置同定部301は、処理対象となるイントラ予測するブロックの位置を同定する。また、ブロック位置同定部301は、ブロックの位置を同定するために、フレームやスライスにおける位置となるブロック位置情報(空間座標やCU/PU/TUの位置)を入力とし、参照画素を取得するための復号画素位置情報を出力する。   As illustrated in FIG. 3, the intra prediction processing unit 101 includes a block position identification unit 301, a reference pixel generation unit 302, and an intra prediction signal generation unit 303. The block position identifying unit 301 identifies the position of a block to be intra-predicted as a processing target. The block position identification unit 301 receives block position information (spatial coordinates and CU / PU / TU position) as a position in a frame or a slice in order to identify a block position, and acquires a reference pixel. The decoded pixel position information is output.

参照画素生成部302は、ブロック位置同定部301が出力する復号画素位置情報と、復号画素信号と、イントラ予測モードとを入力する。参照画素生成部302は、復号画素位置情報に基づいて、予測信号生成に必要となる参照画素の格納と必要なフィルタ処理などを施す。ここで述べている参照画素の格納は、例えば、前述のp[x][y]の準備や参照画素配列ref[x]の生成を意味する。また、必要なフィルタ処理とは、イントラスムージング、すなわち[1,2,1]/4の平滑化フィルタを参照画素にかけてそのフィルタ後の画素値を予測値に適用する処理、および、前述の(A)、(B)のそれぞれの2.(b)に示す32分割上の位置の比を取るフィルタ処理などを示す。すなわち、予測信号生成に必要とされる復号画素信号のフィルタ処理は全てこの参照画素生成部302で行う。参照画素生成部302は、各種フィルタ処理後の復号画素信号を予測信号の配列にコピーするための参照画素信号として、イントラ予測信号生成部303に出力する。   The reference pixel generation unit 302 receives the decoded pixel position information output from the block position identification unit 301, the decoded pixel signal, and the intra prediction mode. Based on the decoded pixel position information, the reference pixel generation unit 302 performs storage of reference pixels necessary for prediction signal generation, necessary filter processing, and the like. The reference pixel storage described here means, for example, preparation of the above-mentioned p [x] [y] and generation of the reference pixel array ref [x]. The necessary filter processing includes intra smoothing, that is, processing of applying a smoothing filter of [1, 2, 1] / 4 to the reference pixel and applying the pixel value after the filtering to the predicted value, and the above-described (A ) And (B). The filtering process etc. which take the ratio of the position on 32 divisions shown in (b) are shown. That is, all the filtering processing of the decoded pixel signal necessary for the prediction signal generation is performed by the reference pixel generation unit 302. The reference pixel generation unit 302 outputs the decoded pixel signal after various filter processes to the intra prediction signal generation unit 303 as a reference pixel signal for copying to the array of prediction signals.

イントラ予測信号生成部303は、参照画素生成部302から入力した参照画素信号、復号画素信号及びイントラ予測モードに基づいて、イントラ予測信号を生成して出力する。   The intra prediction signal generation unit 303 generates and outputs an intra prediction signal based on the reference pixel signal, the decoded pixel signal, and the intra prediction mode input from the reference pixel generation unit 302.

以上のように、イントラ予測処理部101は、ブロック位置同定部301、参照画素生成部302及びイントラ予測信号生成部303により、入力となるブロック位置情報、復号画素信号、イントラ予測モードに基づき、イントラ予測信号を出力する。本発明では参照画素生成部302が従来法とは異なる特徴的な部位となる。   As described above, the intra prediction processing unit 101 uses the block position identification unit 301, the reference pixel generation unit 302, and the intra prediction signal generation unit 303 based on the block position information, the decoded pixel signal, and the intra prediction mode that are input. Output a prediction signal. In the present invention, the reference pixel generation unit 302 is a characteristic part different from the conventional method.

次に、図4を参照して、図3に示すイントラ予測処理部101の処理動作を説明する。図4は、図3に示すイントラ予測処理部101が行うイントラ予測処理の動作を示すフローチャートである。ブロック位置同定部301は、非特許文献3等に記載されている手順に従い、入力されたブロック位置情報に基づいて、処理対象となるイントラ予測するブロックの位置を同定し、予測に必要となる参照画素の生成のための復号画素の位置を示す情報を出力する(ステップS101)。   Next, with reference to FIG. 4, the processing operation of the intra prediction processing unit 101 shown in FIG. 3 will be described. FIG. 4 is a flowchart showing the operation of the intra prediction process performed by the intra prediction processing unit 101 shown in FIG. The block position identification unit 301 identifies the position of the block to be intra-predicted as a processing target based on the input block position information according to the procedure described in Non-Patent Document 3 and the like, and is necessary for prediction Information indicating the position of the decoded pixel for pixel generation is output (step S101).

次に、参照画素生成部302は、ブロック位置同定部301が出力する復号画素位置情報に基づいて、復号画素信号を配列として格納する処理や復号画素に施すフィルタ処理などを実施する(ステップS102)。続いて、イントラ予測信号生成部303は、参照画素生成部302が出力する参照画素信号と、別途入力するイントラ予測モードと復号画素信号に基づいて、イントラ予測信号を生成して出力する(ステップS103)。   Next, based on the decoded pixel position information output from the block position identifying unit 301, the reference pixel generation unit 302 performs a process of storing the decoded pixel signal as an array, a filter process applied to the decoded pixel, and the like (step S102). . Subsequently, the intra prediction signal generation unit 303 generates and outputs an intra prediction signal based on the reference pixel signal output from the reference pixel generation unit 302 and the intra prediction mode and the decoded pixel signal that are separately input (step S103). ).

次に、図5を参照して、図3に示す参照画素生成部302の構成を説明する。図5は、図3に示す参照画素生成部302の構成を示すブロック図である。参照画素生成部302は、図5に示すように、イントラ予測モード保存部401、復号画素位置情報設定部402、ブロックサイズ取得部403、イントラスムージングフィルタ使用判定部404、イントラスムージングフィルタ適用範囲修正部405、イントラスムージングフィルタ実行部406およびQP閾値設定部407を備えている。   Next, the configuration of the reference pixel generation unit 302 shown in FIG. 3 will be described with reference to FIG. FIG. 5 is a block diagram illustrating a configuration of the reference pixel generation unit 302 illustrated in FIG. As shown in FIG. 5, the reference pixel generation unit 302 includes an intra prediction mode storage unit 401, a decoded pixel position information setting unit 402, a block size acquisition unit 403, an intra smoothing filter use determination unit 404, and an intra smoothing filter application range correction unit. 405, an intra smoothing filter execution unit 406 and a QP threshold setting unit 407 are provided.

イントラ予測モード保存部401は、対象ブロックの予測モードを保存し、イントラスムージングフィルタ使用判定部404に対してイントラ予測モード情報を提供する。   The intra prediction mode storage unit 401 stores the prediction mode of the target block, and provides intra prediction mode information to the intra smoothing filter use determination unit 404.

復号画素位置情報設定部402は、前記ブロック位置同定部301から与えられる復号画素位置情報を保存し、イントラ予測に用いるための参照画素の位置を判断するための複合画素位置情報をイントラスムージングフィルタ使用判定部404に対して出力する。   The decoded pixel position information setting unit 402 stores the decoded pixel position information given from the block position identifying unit 301 and uses the composite pixel position information for determining the position of the reference pixel to be used for intra prediction using an intra smoothing filter. Output to the determination unit 404.

ブロックサイズ取得部403は、対象ブロックのブロックサイズを取得してそのブロックサイズをイントラスムージングフィルタ使用判定部404に対して出力する。   The block size acquisition unit 403 acquires the block size of the target block and outputs the block size to the intra smoothing filter use determination unit 404.

イントラ予測モード保存部401から与えられるイントラ予測モード情報と、復号画素位置情報設定部402から与えられる復号画素位置情報と、ブロックサイズ取得部403から与えられるブロックサイズとを用いて、イントラスムージングフィルタ使用判定部404では、イントラスムージングフィルタを適用するか否かの情報、すなわちfilterFlagの判定を実施する。また、強イントラスムージングの使用判定、すなわちbiIntraFlagの判定も合わせて実施するために、必要となる復号画素信号を取得する。これらのスムージングフィルタおよび強スムージングフィルタを使用するか否かの情報を合わせてフィルタ使用情報と定義する。そのフィルタ使用情報をイントラスムージングフィルタ判定修正部405へ出力する。   Using the intra prediction mode information using the intra prediction mode information provided from the intra prediction mode storage unit 401, the decoded pixel position information provided from the decoded pixel position information setting unit 402, and the block size provided from the block size acquisition unit 403 The determination unit 404 determines whether to apply the intra-smoothing filter, that is, filterFlag. In addition, a necessary decoded pixel signal is acquired in order to perform the use determination of strong intra-smoothing, that is, the determination of biIntraFlag. The information on whether or not to use these smoothing filters and strong smoothing filters is defined as filter use information. The filter usage information is output to the intra smoothing filter determination correction unit 405.

QP閾値設定部407は、イントラスムージングの使用可否判断をする上で必要となるQPに関する閾値情報を読み込む。その数値をQP閾値としてイントラスムージングフィルタ適用範囲修正部405へ出力する。   The QP threshold value setting unit 407 reads threshold information related to QP that is necessary for determining whether or not to use intra smoothing. The numerical value is output to the intra smoothing filter application range correction unit 405 as a QP threshold value.

イントラスムージングフィルタ適用範囲修正部405は、イントラスムージングフィルタ使用判定部404が出力するフィルタ使用情報と、QP閾値設定部407から得られるQP閾値を入力とする。QP閾値から復号信号の有する符号化歪を考慮して、QP閾値を超えるか否かを判定してイントラスムージングの必要性を再判定する。具体的な処理方法は後述する。ここでフィルタ使用情報は修正され、そのフィルタ使用修正情報がイントラスムージングフィルタ実行部406へ出力される。ここで、再判定の結果が修正なしとなっていれば、変更を加えずに入力されたフィルタ使用情報をそのまま出力することもできる。   The intra smoothing filter application range correction unit 405 receives the filter usage information output from the intra smoothing filter use determination unit 404 and the QP threshold obtained from the QP threshold setting unit 407. Considering the coding distortion of the decoded signal from the QP threshold value, it is determined whether or not the QP threshold value is exceeded, and the necessity of intra-smoothing is determined again. A specific processing method will be described later. Here, the filter usage information is corrected, and the filter usage correction information is output to the intra smoothing filter execution unit 406. Here, if the result of the re-determination is not corrected, the input filter usage information can be output without change.

イントラスムージングフィルタ実行部406は、イントラスムージングフィルタ判定修正部405から受け取ったフィルタ使用修正情報に基づいて、イントラスムージングフィルタなどの平滑化フィルタを実行し、参照画素のノイズを除去してイントラ予測に用いるための最終的な参照画素信号を出力する。   The intra smoothing filter execution unit 406 executes a smoothing filter such as an intra smoothing filter based on the filter use correction information received from the intra smoothing filter determination correction unit 405, and removes reference pixel noise to use for intra prediction. For this purpose, a final reference pixel signal is output.

図6は、HEVCにおけるイントラスムージングフィルタが適用される条件を示す図である。4×4のサイズが選択される場合、どの予測モードが選択されてもイントラスムージングフィルタは適用されない。8×8の場合は0,2,18,34の4種類のモードに対してイントラスムージングフィルタが適用される。16×16および32×32ではさらに多くの予測モードに対してイントラスムージングフィルタが適用される仕組みとなっている。HEVCの場合、このイントラスムージングフィルタがかかる図6のテーブルはQP値が変動しても同じテーブルが用いられることになっている。   FIG. 6 is a diagram illustrating conditions under which an intra smoothing filter is applied in HEVC. When the 4 × 4 size is selected, no intra smoothing filter is applied regardless of which prediction mode is selected. In the case of 8 × 8, an intra smoothing filter is applied to four types of modes 0, 2, 18, and 34. In 16 × 16 and 32 × 32, an intra smoothing filter is applied to more prediction modes. In the case of HEVC, the table shown in FIG. 6 to which this intra smoothing filter is applied is used even if the QP value varies.

これに対し、本発明におけるイントラスムージングフィルタの適用される条件を図7に示す。以下、イントラスムージングフィルタ適用範囲修正部405でのフィルタ使用情報の修正方法について図7を参照して説明する。図7は、イントラスムージングフィルタ適用範囲修正部405でのフィルタ使用情報の修正方法を示す説明図である。前述の通り、QP値に応じてイントラスムージングフィルタの適用範囲を切り替える。例えば、図7の上側の表に示される通り、QP値が特定の閾値よりも小さい場合にはイントラ予測に用いる参照画素に符号化歪は多く重畳されていないものとし、イントラスムージングフィルタの適用範囲を縮小する。逆に図7の下側の表に示される通り、QP値が特定の閾値以上となる場合には参照画素に符号化歪が多く重畳されていると想定して、イントラスムージングフィルタの適用範囲を拡大する。図7における表はあくまで一例であり、拡大および縮小される傾向が出れば、すなわちイントラスムージングフィルタの適用されるイントラ予測モード数が変動すればよい。   On the other hand, the conditions to which the intra smoothing filter in the present invention is applied are shown in FIG. Hereinafter, the correction method of the filter use information in the intra smoothing filter application range correction unit 405 will be described with reference to FIG. FIG. 7 is an explanatory diagram illustrating a method of correcting the filter use information in the intra smoothing filter application range correction unit 405. As described above, the application range of the intra smoothing filter is switched according to the QP value. For example, as shown in the upper table of FIG. 7, when the QP value is smaller than a specific threshold, it is assumed that a large amount of coding distortion is not superimposed on the reference pixel used for intra prediction, and the application range of the intra smoothing filter Reduce. Conversely, as shown in the lower table of FIG. 7, when the QP value is equal to or greater than a specific threshold, it is assumed that a large amount of encoding distortion is superimposed on the reference pixel, and the application range of the intra smoothing filter is Expanding. The table in FIG. 7 is merely an example, and it suffices if the number of intra prediction modes to which the intra smoothing filter is applied fluctuates if there is a tendency to expand and contract.

図7では閾値が1つの場合の事例を説明したが、閾値は複数あってもよく、例えば複数種用意した場合の事例を図8を参照して説明する。閾値をT1およびT2として2つ想定し、それぞれT1>T2とする。QP値の取り得る範囲を考慮すると、HEVCの場合であれば51≧T1>T2>0となる。ここで対象ブロックに適用されるQP値がT1以上であれば、最大の適用範囲を実現するパターンを設定し、QP値がT1未満T2以上であれば従来と同様の適用範囲を設定する。そしてT2未満であれば、従来よりもさらに小さい適用範囲を設定する。この適用も一例であり、例えば従来に依らない設定例を適用してもよい。また、閾値をさらに細かく5種類など設定しても構わない。   Although the case where there is one threshold has been described in FIG. 7, there may be a plurality of thresholds. For example, a case where a plurality of thresholds are prepared will be described with reference to FIG. Two thresholds are assumed as T1 and T2, and each satisfies T1> T2. Considering the possible range of the QP value, in the case of HEVC, 51 ≧ T1> T2> 0. Here, if the QP value applied to the target block is equal to or greater than T1, a pattern that realizes the maximum applicable range is set. If the QP value is less than T1 and equal to or greater than T2, the same applicable range as in the conventional case is set. And if it is less than T2, the still smaller application range will be set than before. This application is also an example. For example, a setting example that does not depend on the prior art may be applied. Further, the threshold values may be set more finely, such as five types.

なお、閾値については、1種類でも複数種類でも、符号化器と復号器で共通のテーブルをメモリなどに所有しておけば、伝送する必要はない。QP値の取り得る範囲で設定すればよい。映像の性質などに応じて適切な閾値は異なるため、例えば映像の特定のシーン単位、GroupOfPicture(GOP)単位、スライス単位、フレーム単位などで変化させてもよい。その場合は閾値を切り替える単位で伝送する必要がある。その符号量がオーバーヘッドとして発生するが、その分適切な単位で閾値を切り替えることができ、伝送しない場合と比較して符号化性能や主観画質をより改善できる可能性がある。発生するオーバーヘッドと切り替える粒度による効果はトレードオフの関係であるため、その関係を考慮して伝送単位を決めればよい。   As for the threshold value, whether it is one type or a plurality of types, it is not necessary to transmit the threshold value if a common table is held in the memory or the like by the encoder and the decoder. What is necessary is just to set in the range which QP value can take. Since an appropriate threshold varies depending on the nature of the video, the threshold may be changed, for example, in a specific scene unit of the video, a group of pictures (GOP) unit, a slice unit, or a frame unit. In that case, it is necessary to transmit in units of switching threshold values. Although the amount of code is generated as overhead, the threshold value can be switched in an appropriate unit, and there is a possibility that the coding performance and subjective image quality can be further improved as compared with the case where transmission is not performed. Since the effect due to the overhead generated and the granularity of switching is a trade-off relationship, the transmission unit may be determined in consideration of the relationship.

本実施形態における参照画素生成部302は、イントラスムージングフィルタ適用範囲修正部405とQP閾値設定部407を有している点が、従来技術にはない特徴である。   The reference pixel generation unit 302 in the present embodiment is characterized by having an intra-smoothing filter application range correction unit 405 and a QP threshold setting unit 407, which is not in the related art.

図9は、従来技術による参照画素生成部302’の構成を示すブロック図である。イントラ予測モード保存部501と、復号画素位置情報設定部502と、ブロックサイズ取得部503と、イントラスムージングフィルタ使用判定部504と、イントラスムージングフィルタ実行部505はそれぞれ図5に示すイントラ予測モード保存部401と、復号画素位置情報設定部402と、ブロックサイズ取得部403と、イントラスムージングフィルタ使用判定部404と、イントラスムージングフィルタ実行部406と同じ機能を有する。図9では、図5におけるイントラスムージングフィルタ適用範囲修正部405とQP閾値設定部407を持たず、イントラスムージングフィルタ使用判定部504から出力されるフィルタ使用情報は修正など変更を加えず、そのまま出力される。   FIG. 9 is a block diagram illustrating a configuration of a reference pixel generation unit 302 ′ according to the related art. The intra prediction mode storage unit 501, the decoded pixel position information setting unit 502, the block size acquisition unit 503, the intra smoothing filter use determination unit 504, and the intra smoothing filter execution unit 505 are each an intra prediction mode storage unit illustrated in FIG. 401, the decoded pixel position information setting unit 402, the block size acquisition unit 403, the intra smoothing filter use determination unit 404, and the intra smoothing filter execution unit 406 have the same functions. 9 does not have the intra-smoothing filter application range correction unit 405 and the QP threshold setting unit 407 in FIG. 5, and the filter usage information output from the intra-smoothing filter usage determination unit 504 is output as it is without modification or modification. The

次に、図10を参照して、図5に示す参照画素生成部302の動作を説明する。図10は、図5に示す参照画素生成部302が行う参照画素生成処理動作を示すフローチャートである。   Next, the operation of the reference pixel generation unit 302 shown in FIG. 5 will be described with reference to FIG. FIG. 10 is a flowchart showing the reference pixel generation processing operation performed by the reference pixel generation unit 302 shown in FIG.

参照画素生成部302において、イントラ予測信号導出処理のための参照画素を生成するために、まずイントラスムージングフィルタ使用判定部404は、イントラ予測モード保存部401に記憶されているイントラ予測モードを読み出し、復号画素位置情報設定部402から復号画素位置情報を読み出し、ブロックサイズ取得部403から対象ブロックのブロックサイズを読み出して取得する(ステップS201)。強イントラスムージングフィルタの場合は復号画素信号も用いることになるためそちらも取得する。そして、イントラスムージングフィルタ使用判定部404は、この読み出した3種の情報から、対象ブロックのイントラ予測に対するイントラスムージングフィルタを使用するかしないかの判定を実施する(ステップS202)。   In order to generate reference pixels for intra prediction signal derivation processing in the reference pixel generation unit 302, first, the intra smoothing filter use determination unit 404 reads the intra prediction mode stored in the intra prediction mode storage unit 401, The decoded pixel position information is read from the decoded pixel position information setting unit 402, and the block size of the target block is read and acquired from the block size acquisition unit 403 (step S201). In the case of a strong intra-smoothing filter, a decoded pixel signal is also used, so that is also obtained. Then, the intra-smoothing filter use determination unit 404 determines whether or not to use the intra-smoothing filter for the intra prediction of the target block from the three types of read information (step S202).

次に、イントラスムージングフィルタ適用範囲修正部405は、対象ブロックに用いられるQP値を読み込む(ステップS203)。さらにQP閾値設定部407からQPに対する閾値を読み込む(ステップS204)。以下、図7の下側にある表での場合の事例を示す。ステップS203で得られたQP値とステップS204で得られた閾値を比較してフィルタ使用情報の修正判断を行う(ステップS205)。もしQP値が閾値以上となる場合(ステップS205にてYES)、参照画素信号に強い符号化歪が含まれると判断して、イントラスムージングフィルタがより広い範囲で使われるように変更する修正を加えて、そのフィルタ使用修正情報をイントラスムージングフィルタ実行部406へ出力する(ステップS206)。QP値が閾値未満の場合(ステップS205にてNO)、フィルタ使用情報は変更せずにそのままフィルタ使用情報をイントラスムージングフィルタ実行部406へ出力する。イントラスムージングフィルタ実行部406はイントラスムージングフィルタ適用範囲修正部405からのフィルタ使用修正情報に基づき、イントラスムージングフィルタを実行してイントラ予測に用いる参照画素を出力する(ステップS207)。   Next, the intra smoothing filter application range correction unit 405 reads the QP value used for the target block (step S203). Further, the threshold for QP is read from the QP threshold setting unit 407 (step S204). Hereinafter, an example in the case of the table on the lower side of FIG. 7 is shown. The correction of the filter use information is determined by comparing the QP value obtained in step S203 with the threshold value obtained in step S204 (step S205). If the QP value is equal to or greater than the threshold (YES in step S205), it is determined that the reference pixel signal includes strong coding distortion, and a modification is made to change the intra smoothing filter to be used in a wider range. The filter use correction information is output to the intra smoothing filter execution unit 406 (step S206). If the QP value is less than the threshold value (NO in step S205), the filter usage information is output to the intra smoothing filter execution unit 406 without changing the filter usage information. The intra smoothing filter execution unit 406 executes the intra smoothing filter based on the filter use correction information from the intra smoothing filter application range correction unit 405 and outputs reference pixels used for intra prediction (step S207).

以上、本発明の実施形態において説明したイントラ予測処理部101、202と、イントラ予測処理部101を備える画像符号化装置100と、イントラ予測処理部202を備える画像復号装置200は、コンピュータとソフトウェアプログラムとを用いて実現することができる。   As described above, the intra prediction processing units 101 and 202 described in the embodiment of the present invention, the image encoding device 100 including the intra prediction processing unit 101, and the image decoding device 200 including the intra prediction processing unit 202 are configured using a computer and a software program. And can be realized.

図11は、イントラ予測処理部101を備える画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。コンピュータは、CPU900、メモリ901、映像信号入力部902、プログラム記憶装置903及び符号化ストリーム出力部905を備えている。   FIG. 11 is a diagram illustrating a hardware configuration example of a computer when the image encoding device 100 including the intra prediction processing unit 101 is configured by a computer and a software program. The computer includes a CPU 900, a memory 901, a video signal input unit 902, a program storage device 903, and an encoded stream output unit 905.

CPU900はプログラムを実行する。メモリ901は、CPU900がアクセスするプログラムやデータを一時的に格納するRAMなどである。映像信号入力部902は、映像信号を生成するカメラなどの機器から符号化対象の入力映像信号を入力する。なお、映像信号入力部902は、ハードディスク装置等による入力映像信号を記憶する記憶装置であってもよい。プログラム記憶装置903は、前述の各実施形態において説明した符号化処理をCPU900に実行させるソフトウェアプログラムである画像符号化プログラム904を格納する。符号化ストリーム出力部905は、CPU900がメモリ901にロードされた画像符号化プログラム904を実行することにより生成された符号化ストリームを出力する。符号化ストリーム出力部905は、ネットワークを介して、符号化ストリームを出力するようにしてもよい。また、符号化ストリーム出力部905は、ハードディスク装置等による符号化ストリーム記憶する記憶装置であってもよい。CPU900、メモリ901、映像信号入力部902、プログラム記憶装置903、符号化ストリーム出力部905は、バスを介して互いに接続されている。   The CPU 900 executes a program. The memory 901 is a RAM or the like that temporarily stores programs and data accessed by the CPU 900. The video signal input unit 902 inputs an input video signal to be encoded from a device such as a camera that generates a video signal. The video signal input unit 902 may be a storage device that stores an input video signal from a hard disk device or the like. The program storage device 903 stores an image encoding program 904 that is a software program that causes the CPU 900 to execute the encoding process described in the above embodiments. The encoded stream output unit 905 outputs an encoded stream generated when the CPU 900 executes the image encoding program 904 loaded in the memory 901. The encoded stream output unit 905 may output the encoded stream via a network. The encoded stream output unit 905 may be a storage device that stores an encoded stream such as a hard disk device. The CPU 900, the memory 901, the video signal input unit 902, the program storage device 903, and the encoded stream output unit 905 are connected to each other via a bus.

図12は、イントラ予測処理部202を備える画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。コンピュータは、CPU1000、メモリ1001、符号化ストリーム入力部1002、プログラム記憶装置1003及び復号映像出力部1005を備えている。   FIG. 12 is a diagram illustrating a hardware configuration example of a computer when the image decoding device 200 including the intra prediction processing unit 202 is configured by a computer and a software program. The computer includes a CPU 1000, a memory 1001, an encoded stream input unit 1002, a program storage device 1003, and a decoded video output unit 1005.

CPU1000はプログラムを実行する。メモリ1001は、CPU1000がアクセスするプログラムやデータを一時的に格納するRAMなどである。符号化ストリーム入力部1002は、例えば、画像符号化装置100が前述の処理により入力映像信号を符号化した符号化ストリームを入力する。なお、符号化ストリーム入力部1002は、ハードディスク装置等による符号化ストリームを記憶する記憶装置であってもよい。プログラム記憶装置1003は、前述の各実施形態において説明した復号処理をCPU1000に実行させるソフトウェアプログラムである画像復号プログラム1004を格納する。復号映像出力部1005は、CPU1000がメモリ1001にロードされた画像復号プログラム1004を実行することにより、符号化ストリームを復号して得られた復号映像を再生装置などに出力する。なお、復号映像出力部1005は、ハードディスク装置等による復号映像信号を記憶する記憶装置であってもよい。CPU1000、メモリ1001、符号化ストリーム入力部1002、プログラム記憶装置1003、復号映像出力部1005は、バスを介して互いに接続されている。   The CPU 1000 executes a program. The memory 1001 is a RAM that temporarily stores programs and data accessed by the CPU 1000. The encoded stream input unit 1002 inputs, for example, an encoded stream obtained by encoding the input video signal by the image encoding apparatus 100 through the above-described processing. The encoded stream input unit 1002 may be a storage device that stores an encoded stream by a hard disk device or the like. The program storage device 1003 stores an image decoding program 1004 that is a software program that causes the CPU 1000 to execute the decoding processing described in each of the above-described embodiments. The decoded video output unit 1005 outputs the decoded video obtained by decoding the encoded stream to a playback device or the like by the CPU 1000 executing the image decoding program 1004 loaded in the memory 1001. The decoded video output unit 1005 may be a storage device that stores a decoded video signal from a hard disk device or the like. The CPU 1000, the memory 1001, the encoded stream input unit 1002, the program storage device 1003, and the decoded video output unit 1005 are connected to each other via a bus.

前述した実施形態におけるイントラ予測処理部の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve all or one part of the intra prediction process part in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

イントラ予測の処理においてイントラスムージングフィルタの適用判断にQP値を加えることで参照画素信号に重畳されている符号化歪の大きさを判断して、イントラスムージングフィルタを適切に切り替えて、符号化効率および主観画質を改善すること、または高ビットレート時に符号化および復号処理の高速化が不可欠な用途に適用できる。   In the intra prediction process, the QP value is added to the determination of the application of the intra smoothing filter to determine the magnitude of the coding distortion superimposed on the reference pixel signal, and the intra smoothing filter is appropriately switched to obtain the coding efficiency and The present invention can be applied to applications where it is essential to improve the subjective image quality or to speed up the encoding and decoding processes at a high bit rate.

100…画像符号化装置、101…イントラ予測処理部、102…インター予測処理部、103…予測残差信号生成部、104…変換処理部、105…量子化処理部、106…逆量子化処理部、107…逆変換処理部、108…復号信号生成部、109…フレームメモリ、110…インループフィルタ処理部、111…インター予測情報格納部、112…イントラ予測情報格納部、113…エントロピー符号化処理部、200…画像復号装置、201…エントロピー復号処理部、202…イントラ予測処理部、203…インター予測処理部、204…逆量子化処理部、205…逆変換処理部、206…復号信号生成部、207…フレームメモリ、208…インループフィルタ処理部、209…インター予測情報格納部、210…イントラ予測情報格納部、301…ブロック位置同定部、302…参照画素生成部、303…イントラ予測信号生成部、401、501…イントラ予測モード保存部、402、502…復号画素位置情報設定部、403、503…ブロックサイズ取得部、404、504…イントラスムージングフィルタ使用判定部、405…イントラスムージングフィルタ適用範囲修正部、406、505…イントラスムージングフィルタ実行部、407…QP閾値設定部、900、1000…CPU、901、1001…メモリ、902…映像信号入力部、903、1003…プログラム記憶装置、904…画像符号化プログラム、905…符号化ストリーム出力部、1002…符号化ストリーム入力部、1004…画像復号プログラム、1005…復号映像出力部   DESCRIPTION OF SYMBOLS 100 ... Image coding apparatus, 101 ... Intra prediction process part, 102 ... Inter prediction process part, 103 ... Prediction residual signal generation part, 104 ... Transformation process part, 105 ... Quantization process part, 106 ... Inverse quantization process part , 107 ... Inverse transformation processing unit, 108 ... Decoded signal generation unit, 109 ... Frame memory, 110 ... In-loop filter processing unit, 111 ... Inter prediction information storage unit, 112 ... Intra prediction information storage unit, 113 ... Entropy encoding process , 200 ... image decoding apparatus, 201 ... entropy decoding processing part, 202 ... intra prediction processing part, 203 ... inter prediction processing part, 204 ... inverse quantization processing part, 205 ... inverse transformation processing part, 206 ... decoded signal generation part 207: Frame memory 208: In-loop filter processing unit 209 ... Inter prediction information storage unit 210: Intra prediction Information storage unit 301... Block position identification unit 302. Reference pixel generation unit 303. Intra prediction signal generation unit 401 and 501 Intra prediction mode storage unit 402 and 502 Decoded pixel position information setting unit 403 and 503 ... block size acquisition unit, 404, 504 ... intrasmoothing filter use determination unit, 405 ... intrasmoothing filter application range correction unit, 406,505 ... intrasmoothing filter execution unit, 407 ... QP threshold setting unit, 900, 1000 ... CPU, 901, 1001 ... Memory, 902 ... Video signal input unit, 903, 1003 ... Program storage device, 904 ... Image encoding program, 905 ... Encoded stream output unit, 1002 ... Encoded stream input unit, 1004 ... Image decoding program, 1005 ... Decoded video output unit

Claims (7)

同一の画面内で予測信号を生成するイントラ予測を行うイントラ予測処理装置であって、
イントラ予測モードを識別するイントラ予測モード情報を取得するモード情報取得手段と、
前記イントラ予測に用いるブロックサイズを識別するブロックサイズ情報を取得するサイズ情報取得手段と、
復号画素信号を参照画素信号として設定するための復号画素位置情報を取得する位置情報取得手段と、
前記イントラ予測モード情報と前記ブロックサイズ情報とに基づいて参照画素信号に施すイントラスムージングフィルタの適用可否を判定してフィルタ使用情報を導出する導出手段と、
前記復号画素位置情報によって特定される処理対象のブロックに用いられる量子化パラメータを取得するパラメータ取得手段と、
予め定められたテーブルから前記量子化パラメータに対する閾値を読み込んで設定する設定手段と、
取得された前記量子化パラメータと前記閾値とを比較し、前記量子化パラメータが小さいときにはイントラスムージングフィルタの適用されるイントラ予測モード数を削減し、前記量子化パラメータが大きいときには前記イントラ予測モード数を増加させるようにフィルタ使用情報を修正する修正手段と、
修正された前記フィルタ使用情報に基づいて前記イントラスムージングフィルタを実施する実施手段と
を備えるイントラ予測処理装置。
An intra prediction processing device that performs intra prediction that generates a prediction signal within the same screen,
Mode information acquisition means for acquiring intra prediction mode information for identifying the intra prediction mode;
Size information acquisition means for acquiring block size information for identifying a block size used for the intra prediction;
Position information acquisition means for acquiring decoded pixel position information for setting the decoded pixel signal as a reference pixel signal;
Derivation means for determining applicability of an intra smoothing filter to be applied to a reference pixel signal based on the intra prediction mode information and the block size information and deriving filter use information;
Parameter acquisition means for acquiring a quantization parameter used for a processing target block specified by the decoded pixel position information;
Setting means for reading and setting a threshold value for the quantization parameter from a predetermined table;
Comparing the acquired and the quantization parameter and the threshold value, the reduced number of intra prediction modes that apply intra smoothing filter when the quantization parameter is small, the number of the intra-prediction mode when the quantization parameter is large A correction means for correcting the filter usage information so as to increase;
An intra-prediction processing device comprising: an implementing unit that implements the intra-smoothing filter based on the modified filter use information.
前記修正手段は、
複数の前記閾値を用いてイントラスムージングフィルタの適用されるイントラ予測モードの数を調整する調整手段を備える請求項1に記載のイントラ予測処理装置。
The correcting means is
The intra prediction processing apparatus of Claim 1 provided with the adjustment means which adjusts the number of intra prediction modes to which an intra smoothing filter is applied using the said some threshold value.
請求項1または請求項2に記載のイントラ予測処理装置を備える画像符号化装置であって、
予測誤差ないしは符号化コストを最小化する前記閾値を選択し符号化して画像復号装置へ伝送する閾値伝送手段を備える画像符号化装置。
An image encoding device comprising the intra prediction processing device according to claim 1 or 2,
An image encoding apparatus comprising threshold transmission means for selecting, encoding, and transmitting to the image decoding apparatus the threshold that minimizes a prediction error or encoding cost.
請求項1または請求項2に記載のイントラ予測処理装置を有する画像復号装置であって、
予測誤差ないしは符号化コストを最小化するように選択されて符号化された前記閾値を復号して設定する閾値設定手段を備える画像復号装置。
An image decoding apparatus having the intra prediction processing apparatus according to claim 1 or 2,
An image decoding apparatus comprising threshold setting means for decoding and setting the threshold selected and encoded so as to minimize a prediction error or encoding cost.
同一の画面内で予測信号を生成するイントラ予測を行うイントラ予測処理装置が行うイントラ予測処理方法であって、
イントラ予測モードを識別するイントラ予測モード情報を取得するモード情報取得ステップと、
前記イントラ予測に用いるブロックサイズを識別するブロックサイズ情報を取得するサイズ情報取得ステップと、
復号画素信号を参照画素信号として設定するための復号画素位置情報を取得する位置情報取得ステップと、
前記イントラ予測モード情報と前記ブロックサイズ情報とに基づいて参照画素信号に施すイントラスムージングフィルタの適用可否を判定してフィルタ使用情報を導出する導出ステップと、
前記復号画素位置情報によって特定される処理対象のブロックに用いられる量子化パラメータを取得するパラメータ取得ステップと、
予め定められたテーブルから前記量子化パラメータに対する閾値を読み込んで設定する設定ステップと、
取得された前記量子化パラメータと前記閾値とを比較し、前記量子化パラメータが小さいときにはイントラスムージングフィルタの適用されるイントラ予測モード数を削減し、前記量子化パラメータが大きいときには前記イントラ予測モード数を増加させるようにフィルタ使用情報を修正する修正ステップと、
修正された前記フィルタ使用情報に基づいて前記イントラスムージングフィルタを実施する実施ステップと
を有するイントラ予測処理方法。
An intra-prediction processing method performed by an intra-prediction processing device that performs intra prediction that generates a prediction signal within the same screen,
A mode information acquisition step of acquiring intra prediction mode information for identifying an intra prediction mode;
A size information acquisition step of acquiring block size information for identifying a block size used for the intra prediction;
A position information acquisition step of acquiring decoded pixel position information for setting the decoded pixel signal as a reference pixel signal;
A derivation step of deriving filter usage information by determining applicability of an intra smoothing filter applied to a reference pixel signal based on the intra prediction mode information and the block size information;
A parameter acquisition step of acquiring a quantization parameter used for the processing target block specified by the decoded pixel position information;
A setting step of reading and setting a threshold value for the quantization parameter from a predetermined table;
Comparing the acquired and the quantization parameter and the threshold value, the reduced number of intra prediction modes that apply intra smoothing filter when the quantization parameter is small, the number of the intra-prediction mode when the quantization parameter is large A modification step to modify the filter usage information to increase;
An intra prediction processing method comprising: performing the intra smoothing filter based on the modified filter usage information.
前記修正ステップでは、
複数の前記閾値を用いて前記イントラスムージングフィルタの適用されるイントラ予測モードの数を調整する調整ステップを有する請求項5に記載のイントラ予測処理方法。
In the correction step,
The intra prediction processing method according to claim 5, further comprising an adjustment step of adjusting the number of intra prediction modes to which the intra smoothing filter is applied using a plurality of the threshold values.
コンピュータを、請求項1または2に記載のイントラ予測処理装置として機能させるためのイントラ予測処理プログラム。   An intra prediction processing program for causing a computer to function as the intra prediction processing device according to claim 1.
JP2015117657A 2015-06-10 2015-06-10 Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device Active JP6357133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015117657A JP6357133B2 (en) 2015-06-10 2015-06-10 Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015117657A JP6357133B2 (en) 2015-06-10 2015-06-10 Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device

Publications (2)

Publication Number Publication Date
JP2017005506A JP2017005506A (en) 2017-01-05
JP6357133B2 true JP6357133B2 (en) 2018-07-11

Family

ID=57754522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015117657A Active JP6357133B2 (en) 2015-06-10 2015-06-10 Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device

Country Status (1)

Country Link
JP (1) JP6357133B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG189076A1 (en) * 2010-09-30 2013-05-31 Mitsubishi Electric Corp Moving image encoding device, moving image decoding device, moving image coding method, and moving image decoding method

Also Published As

Publication number Publication date
JP2017005506A (en) 2017-01-05

Similar Documents

Publication Publication Date Title
KR102426721B1 (en) Methods of determination for chroma quantization parameter and apparatuses for using the same
US11102515B2 (en) In loop chroma deblocking filter
JP6053220B2 (en) Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, their program, and recording medium recording the program
JP7382951B2 (en) System and method for applying deblocking filters to recovered video data
US9906790B2 (en) Deblock filtering using pixel distance
JP6527859B2 (en) Method and device for emulating low fidelity coding in a high fidelity coder
JP2022087158A (en) Intra-prediction method and encoder and decoder using same
EP2755388B1 (en) Method, device, and program for encoding and decoding image
JP6383327B2 (en) Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device
KR102323427B1 (en) Method and Apparatus for image encoding
US20190335173A1 (en) Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
KR20130105114A (en) Method of decoding moving pictures in intra prediction
JP6159225B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
JP2014131162A (en) Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, program therefor, and program recorded recording medium
US20230090641A1 (en) Filtering method and video decoding apparatus
US11546589B2 (en) Filtering method and video decoding apparatus
JP6357133B2 (en) Intra prediction processing device, intra prediction processing method, intra prediction processing program, image encoding device, and image decoding device
JP6030989B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, program thereof, and recording medium recording the program
KR20140057519A (en) Method of encoding moving pictures
JP5814191B2 (en) Deblocking processing method, deblocking processing apparatus, program, and recording medium
JP7505869B2 (en) Encoding device, decoding device, and program
JP6396782B2 (en) Deblocking processing method, deblocking processing apparatus, computer program, and recording medium
KR20140057518A (en) Method of decoding moving pictures
KR20140057516A (en) Prediction block generation method
CN118077197A (en) Combining deblocking filtering and another filtering for video encoding and/or decoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180615

R150 Certificate of patent or registration of utility model

Ref document number: 6357133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150