JP7279128B2 - Prediction device and program - Google Patents

Prediction device and program Download PDF

Info

Publication number
JP7279128B2
JP7279128B2 JP2021164113A JP2021164113A JP7279128B2 JP 7279128 B2 JP7279128 B2 JP 7279128B2 JP 2021164113 A JP2021164113 A JP 2021164113A JP 2021164113 A JP2021164113 A JP 2021164113A JP 7279128 B2 JP7279128 B2 JP 7279128B2
Authority
JP
Japan
Prior art keywords
intra prediction
predicted image
prediction mode
unit
weighting factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021164113A
Other languages
Japanese (ja)
Other versions
JP2022017254A (en
Inventor
俊輔 岩村
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016097486A external-priority patent/JP6956471B2/en
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2021164113A priority Critical patent/JP7279128B2/en
Publication of JP2022017254A publication Critical patent/JP2022017254A/en
Application granted granted Critical
Publication of JP7279128B2 publication Critical patent/JP7279128B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、符号化装置、復号装置及びプログラムに関する。 The present invention relates to an encoding device, a decoding device and a program.

H.265/HEVC(High Efficiency Video Coding)に代表される動画像(映像)符号化方式では、フレーム間の時間的相関を利用したインター予測及びフレーム内の空間的相関を利用したイントラ予測の2種類の予測を切り替えながら予測を行って残差信号を生成した後、直交変換処理やループフィルタ処理やエントロピー符号化処理を行い得られたストリームを出力するように構成されている。 In moving picture (video) coding systems represented by H.265/HEVC (High Efficiency Video Coding), there are two methods: inter prediction using temporal correlation between frames and intra prediction using spatial correlation within frames. After performing prediction while switching the type of prediction and generating a residual signal, it is configured to perform orthogonal transform processing, loop filter processing, and entropy coding processing and output the obtained stream.

HEVCにおけるイントラ予測では、Planar予測やDC予測や方向予測の計35種類のイントラ予測モードが用意されており、エンコーダで決定されたイントラ予測モードに従って、隣接する復号済み参照画素を用いてイントラ予測を行うように構成されている。以下、特に記載が無い場合には、「参照画素」という記載は、復号済み参照画素を示すものとする。 In intra prediction in HEVC, a total of 35 types of intra prediction modes, including planar prediction, DC prediction, and directional prediction, are prepared. According to the intra prediction mode determined by the encoder, intra prediction is performed using adjacent decoded reference pixels. configured to do so. Hereinafter, unless otherwise specified, the term "reference pixel" indicates a decoded reference pixel.

ここで、HEVCにおけるイントラ予測では、フレーム内で最も左上に位置する符号化対象ブロック(以下、「CU:Coding Unit」と呼ぶ)等、隣接する参照画素が存在しないCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されている。 Here, in intra prediction in HEVC, a specified value (10 It is configured to create reference pixels to be used when generating a predicted image by filling in "512" in the case of a bit moving image).

また、従来のHEVCでは、符号化処理が、左上からラスタースキャン順に行われるために、参照画素が復号済みでない場合がある。このような場合には、最も近い復号済み参照画素を0次外挿した値を用いて予測画像を生成するように構成されている。 In addition, in conventional HEVC, encoding processing is performed in raster scan order from the upper left, so there are cases where reference pixels have not been decoded. In such a case, a prediction image is generated using a value obtained by extrapolating the nearest decoded reference pixel to the 0th order.

とりわけ、従来のHEVCにおけるイントラ予測では、ラスタースキャン順による符号化処理により、CUの左下側や右上側に位置する参照画素が復号済みでない場合が多く、このような場合に、復号済みでない参照画素が存在する方向からの方向予測を行うと予測精度が低下し、符号化効率が低減してしまうという問題点があった。 In particular, in intra prediction in conventional HEVC, there are many cases where reference pixels located on the lower left side and upper right side of the CU have not been decoded due to encoding processing in raster scan order. However, there is a problem that the prediction accuracy is lowered and the coding efficiency is reduced when the direction prediction is performed from the direction in which there is a .

かかる問題点を解決するために、イントラ予測において、CU内に存在する複数の変換ブロック(以下、「TU:Transform Unit」と呼ぶ)に対する符号化処理順として、ラスタースキャン順(例えば、Z型)の他、U型やX型等の符号化順に自由度を持たせることによって予測精度の向上を図る技術が知られている(非特許文献1参照)。 In order to solve such a problem, in intra prediction, raster scan order (for example, Z type) is used as the encoding processing order for a plurality of transform blocks existing in a CU (hereinafter referred to as "TU: Transform Unit"). In addition, there is known a technique for improving the prediction accuracy by giving a degree of freedom to the order of encoding such as U type and X type (see Non-Patent Document 1).

また、HEVCで用いられているイントラ予測は、空間的に隣接する上側又は左側の参照画素を利用した予測であり、参照画素に近い位置の予測画素の精度が高く、参照画素から遠い位置の予測画素の精度が低くなる傾向にある。 In addition, the intra prediction used in HEVC is prediction using spatially adjacent upper or left reference pixels. Pixel accuracy tends to be low.

したがって、CU/TUのサイズが小さい場合には、イントラ予測の精度は高い傾向にあるが、CU/TUのサイズが大きくなるにつれて、参照画素から遠い位置にある予測画素の割合が増え、予測画像全体の予測精度が低下する。また、CU/TUのサイズが大きくなるにつれて、参照画素に含まれるブロック歪み等の符号化劣化が予測画像に伝搬する可能性が高くなる。 Therefore, when the size of the CU/TU is small, the accuracy of intra prediction tends to be high. Decrease in overall prediction accuracy. In addition, as the size of the CU/TU increases, the possibility of propagation of coding deterioration such as block distortion contained in reference pixels to the predicted image increases.

そこで、従来のHEVCでは、CU/TUのサイズやイントラ予測モードの方向に応じて、参照画素に平滑化フィルタを適用した上で予測画像を生成するように構成されている。 Therefore, conventional HEVC is configured to apply a smoothing filter to reference pixels according to the size of the CU/TU and the direction of the intra-prediction mode to generate a predicted image.

一般的に、予測画像のうち、参照画素に近い位置の予測画素は、予測すべき原画像の有する真値に近くなりやすく、予測精度が高くなる傾向にある一方、参照画素から遠い位置の予測画素は、予測すべき原画像の有する真値から外れやすく、予測精度が低くなる傾向にあるため、HEVCのように、平滑化された復号済み参照画素を用いたイントラ予測の方が、予測精度が高くなる傾向にある。 In general, prediction pixels at positions close to the reference pixels in the prediction image tend to be close to the true values of the original image to be predicted, and the prediction accuracy tends to be high. Pixels tend to deviate from the true values of the original image to be predicted, and the prediction accuracy tends to be low. tends to be higher.

そこで、非特許文献2では、予測精度を高めるために、平滑化処理を施す前の参照画素により生成された予測画像(非平滑予測画像)及び平滑化処理を施した後の参照画素により生成された予測画像(平滑予測画像)を生成し、イントラ予測モードの方向及びCU/TUのサイズに応じて予め規定された重み係数を用いて非平滑予測画像及び平滑予測画像を合成することで、より精度の高い予測画像を生成する手法を提案している。 Therefore, in Non-Patent Document 2, in order to increase the prediction accuracy, a predicted image (non-smoothed predicted image) generated by reference pixels before smoothing and a reference pixel after smoothing are generated. By generating a predicted image (smoothed predicted image) and combining the non-smoothed predicted image and the smoothed predicted image using a predetermined weighting factor according to the direction of the intra prediction mode and the size of CU/TU, We propose a method for generating highly accurate predicted images.

以下、図12及び図13に、かかる重み係数の一例について示す。 An example of such a weighting factor is shown below in FIGS. 12 and 13. FIG.

図12(a)及び図12(b)は、HEVCにおけるイントラ予測モードが2である場合の重み係数の分布の一例を示し、図13(a)及び図13(b)は、HEVCにおけるイントラ予測モードが18である場合の重み係数の分布の一例を示す。 FIGS. 12(a) and 12(b) show an example of distribution of weighting factors when the intra prediction mode in HEVC is 2, and FIGS. 13(a) and 13(b) show intra prediction in HEVC. An example of the weighting factor distribution when the mode is 18 is shown.

また、図12(a)及び図13(a)は、平滑化前参照画素を用いた予測画像(すなわち、非平滑予測画像)における重み係数の一例を示し、図12(b)及び図13(b)は、平滑化後参照画素を用いた予測画像(すなわち、平滑予測画像)における重み係数の一例を示す。 Also, FIGS. 12(a) and 13(a) show examples of weighting coefficients in a predicted image (that is, a non-smoothed predicted image) using pre-smoothing reference pixels, and FIGS. 12(b) and 13( b) shows an example of a weighting factor in a predicted image using smoothed reference pixels (that is, a smoothed predicted image).

なお、図12及び図13において、黒い部分の重み係数は「0」であり、白い部分の重み係数は「1」である。 In FIGS. 12 and 13, the weighting factor for the black portion is "0" and the weighting factor for the white portion is "1".

図12及び図13に示すように、参照画素に近い位置にある予測画素においては、非平滑予測画像の比重が高くなり、参照画素から遠い位置にある予測画素においては、平滑予測画像の比重が高くなる。 As shown in FIGS. 12 and 13, the weight of the non-smoothed predicted image is higher in the predicted pixels located closer to the reference pixels, and the weight of the smoothed predicted images is higher in the predicted pixels located farther from the reference pixels. get higher

非特許文献2の手法では、イントラ予測モード及びCU/TUのサイズに応じて重み係数の分布を予め規定し、符号化対象のCU/TUのサイズやイントラ予測モードに応じて重み係数を切り替えて適用するように規定されている。 In the method of Non-Patent Document 2, the distribution of weighting factors is defined in advance according to the intra prediction mode and the size of the CU/TU, and the weighting factor is switched according to the size of the CU/TU to be encoded and the intra prediction mode. prescribed to apply.

なお、本明細書の図において、イントラ予測モードの方向(予測方向)を示す矢印は、
HEVC規格書における記載と同様に、イントラ予測の対象の画素から参照画素に向かうものとする(以下同様)。
In the figures of this specification, the arrow indicating the direction of intra prediction mode (prediction direction) is
Similar to the description in the HEVC standard, it is assumed that the intra-prediction target pixel is directed to the reference pixel (the same applies hereinafter).

望月等、「平均値座標に基づいた適用イントラ予測方式」、情報処理学会研究報告、vol、2012-AVM-77、No.12Mochizuki et al., "Applied intra-prediction method based on mean value coordinates", Information Processing Society of Japan research report, vol, 2012-AVM-77, No.12 A.Said、X.Zhao、J.Chen、M.Karczewicz、W.-J.Chien、F.Zhou、「Position dependent intra prediction combination」、MPEG doc. m37502及びITU-T SG16 Doc. COM16-C1016、2015年10月A. Said, X. Zhao, J. Chen, M. Karczewicz, W.-J. Chien, F. Zhou, "Position dependent intra prediction combination", MPEG doc. m37502 and ITU-T SG16 Doc. COM16-C1 016, October 2015

上述のように、非特許文献2の手法では、イントラ予測に用いる参照画素の位置を考慮しておらず、イントラ予測に用いる参照画素の位置に右側や下側を含む場合(すなわち、右側や下側の隣接する参照画素を用いて予測画像を生成する場合)であっても、イントラ予測モード及びCU/TUのサイズに応じて重み係数を決定してしまう。 As described above, the method of Non-Patent Document 2 does not consider the position of the reference pixel used for intra prediction, and when the position of the reference pixel used for intra prediction includes the right side and the bottom side (that is, the right side and the bottom side) Even in the case where a prediction image is generated using adjacent reference pixels on the side), the weighting factor is determined according to the intra prediction mode and the CU/TU size.

すなわち、非特許文献2の手法では、参照画素に近い位置においては、非平滑予測画像の方が、予測精度が高く、参照画素から遠い位置においては、平滑予測画像の方が、予測精度が高いにも関わらず、イントラ予測に用いる参照画素の位置によらずに、重み係数を決定してしまうため、予測精度が低下してしまい、符号化性能が低下してしまうという問題点があった。 That is, in the method of Non-Patent Document 2, the non-smoothed predicted image has higher prediction accuracy at positions close to the reference pixels, and the smoothed predicted image has higher prediction accuracy at positions far from the reference pixels. In spite of this, the weighting factor is determined regardless of the position of the reference pixel used for intra prediction, so there is a problem that the prediction accuracy is lowered and the encoding performance is lowered.

そこで、本発明は、上述した課題を解決するためになされたものであり、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる符号化装置、復号装置及びプログラムを提供することを目的とする。 Therefore, the present invention has been made to solve the above-described problems, and it is possible to prevent deterioration in prediction accuracy by appropriately synthesizing a non-smoothed predicted image and a smoothed predicted image when generating a predicted image. An object of the present invention is to provide an encoding device, a decoding device, and a program that can

本発明の第1の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている符号化装置であって、イントラ予測モードを用いて予測画像を生成するように構成されているイントラ予測部を具備しており、前記イントラ予測部は、参照画素に対して平滑化処理を施すことなく前記イントラ予測モードを用いて非平滑予測画像を生成するように構成されている非平滑イントラ予測部と、前記参照画素に対して平滑化処理を施した後に前記イントラ予測モードを用いて平滑予測画像を生成するように構成されている平滑イントラ予測部と、前記イントラ予測モード及び前記参照画素の位置に応じて重み係数を決定するように構成されている重み係数決定部と、前記重み係数を用いて、前記非平滑予測画像及び前記平滑予測画像を合成して前記予測画像を生成するように構成されている予測画像生成部とを具備することを要旨とする。 A first feature of the present invention is an encoding device that is configured to divide and encode an original image in units of frames that constitute a moving image into encoding target blocks, and uses an intra prediction mode to encode An intra prediction unit configured to generate a predicted image, wherein the intra prediction unit generates a non-smoothed predicted image using the intra prediction mode without performing smoothing processing on reference pixels. and a smoothed intra prediction unit configured to generate a smoothed predicted image using the intra prediction mode after performing smoothing processing on the reference pixels a weighting factor determination unit configured to determine weighting factors according to the intra prediction mode and the position of the reference pixel; and using the weighting factors, the non-smoothed predicted image and the smoothed predicted image. and a predicted image generator configured to generate the predicted image by synthesizing the .

本発明の第2の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して復号するように構成されている復号装置であって、イントラ予測モードを用いて予測画像を生成するように構成されているイントラ予測部を具備しており、前記イントラ予測部は、参照画素に対して平滑化処理を施すことなく前記イントラ予測モードを用いて非平滑予測画像を生成するように構成されている非平滑イントラ予測部と、前記参照画素に対して平滑化処理を施した後に前記イントラ予測モードを用いて平滑予測画像を生成するように構成されている平滑イントラ予測部と、前記イントラ予測モード及び前記参照画素の位置に応じて重み係数を決定するように構成されている重み係数決定部と、前記重み係数を用いて、前記非平滑予測画像及び前記平滑予測画像を合成して前記予測画像を生
成するように構成されている予測画像生成部とを具備することを要旨とする。
A second feature of the present invention is a decoding device configured to divide an original image in units of frames that constitute a moving image into encoding target blocks and decode the predicted image using an intra prediction mode. wherein the intra prediction unit generates a non-smooth predicted image using the intra prediction mode without performing smoothing processing on reference pixels and a smooth intra prediction unit configured to generate a smooth predicted image using the intra prediction mode after performing smoothing processing on the reference pixels. a weighting factor determination unit configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel; and using the weighting factor, synthesize the non-smoothed predicted image and the smoothed predicted image. and a predicted image generation unit configured to generate the predicted image as described above.

本発明の第3の特徴は、コンピュータを、上述の第1の特徴に記載の符号化装置として機能させるためのプログラムであることを要旨とする。 A gist of a third aspect of the present invention is a program for causing a computer to function as the encoding device according to the first aspect.

本発明の第4の特徴は、コンピュータを、上述の第2の特徴に記載の復号装置として機能させるためのプログラムであることを要旨とする。 A gist of a fourth aspect of the present invention is a program for causing a computer to function as the decoding device according to the second aspect.

本発明によれば、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる符号化装置、復号装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide an encoding device, a decoding device, and a program that can prevent a decrease in prediction accuracy by appropriately synthesizing a non-smoothed predicted image and a smoothed predicted image when generating a predicted image. can.

図1は、第1の実施形態に係る符号化装置1の機能ブロックの一例を示す図である。FIG. 1 is a diagram showing an example of functional blocks of an encoding device 1 according to the first embodiment. 図2は、第1の実施形態に係る符号化装置1のイントラ予測部14aの機能ブロックの一例を示す図である。FIG. 2 is a diagram showing an example of functional blocks of the intra prediction unit 14a of the encoding device 1 according to the first embodiment. 図3は、第1の実施形態において用いられるイントラ予測モードの方向の一例を示す図である。FIG. 3 is a diagram showing an example of directions of intra prediction modes used in the first embodiment. 図4は、第1の実施形態における予測画像の生成方法の一例を示す図である。FIG. 4 is a diagram illustrating an example of a predicted image generation method according to the first embodiment. 図5は、第1の実施形態における予測画像の生成方法の一例を示す図である。FIG. 5 is a diagram illustrating an example of a predicted image generation method according to the first embodiment. 図6は、第1の実施形態に係る符号化装置1の動作の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of the operation of the encoding device 1 according to the first embodiment. 図7は、第1の実施形態に係る符号化装置1の動作の一例を示すフローチャートである。FIG. 7 is a flow chart showing an example of the operation of the encoding device 1 according to the first embodiment. 図8は、第1の実施形態に係る符号化装置1の動作の一例を示すフローチャートである。FIG. 8 is a flow chart showing an example of the operation of the encoding device 1 according to the first embodiment. 図9は、第1の実施形態に係る符号化装置1の動作の一例を示すフローチャートである。FIG. 9 is a flow chart showing an example of the operation of the encoding device 1 according to the first embodiment. 図10は、第1の実施形態に係る復号装置3の機能ブロックの一例を示す図である。FIG. 10 is a diagram showing an example of functional blocks of the decoding device 3 according to the first embodiment. 図11は、第1の実施形態に係る復号装置3のイントラ予測部33aの機能ブロックの一例を示す図である。FIG. 11 is a diagram showing an example of functional blocks of the intra prediction unit 33a of the decoding device 3 according to the first embodiment. 図12は、従来技術について説明するための図である。FIG. 12 is a diagram for explaining the conventional technology. 図13は、従来技術について説明するための図である。FIG. 13 is a diagram for explaining the conventional technology.

(第1の実施形態)
以下、図1~図11を参照して、本発明の第1の実施形態に係る符号化装置1及び復号装置3について説明する。
(First embodiment)
An encoding device 1 and a decoding device 3 according to the first embodiment of the present invention will be described below with reference to FIGS. 1 to 11. FIG.

ここで、本実施形態に係る符号化装置1及び復号装置3は、HEVC等の動画像符号化方式におけるイントラ予測に対応するように構成されている。なお、本実施形態に係る符号化装置1及び復号装置3は、イントラ予測を行う動画像符号化方式であれば、任意の動画像符号化方式に対応することができるように構成されている。 Here, the encoding device 1 and the decoding device 3 according to this embodiment are configured to support intra prediction in a video encoding method such as HEVC. Note that the encoding device 1 and the decoding device 3 according to the present embodiment are configured to be compatible with any video encoding method as long as it is a video encoding method that performs intra prediction.

本実施形態に係る符号化装置1は、動画像を構成するフレーム単位の原画像をCUに分割して符号化するように構成されている。また、本実施形態に係る符号化装置1は、CUを複数のTUに分割することができるように構成されていてもよい。以下、本実施形態で
は、CUを複数のTUに分割するケースを例に挙げて説明するが、本発明は、CUを複数のTUに分割しないケースであって、当該CUの参照画素の位置が下側や右側を含む場合にも適用可能である。
The encoding device 1 according to the present embodiment is configured to divide an original image of each frame constituting a moving image into CUs and encode the CUs. Also, the encoding device 1 according to the present embodiment may be configured to be able to divide a CU into a plurality of TUs. Hereinafter, in the present embodiment, a case in which a CU is divided into a plurality of TUs will be described as an example. It is also applicable when including the lower side and the right side.

なお、本実施形態では、フレーム内で最も左上に位置するCU等、隣接する復号済み参照画素が存在しない符号化対象のCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されているため、符号化対象のCUの左側に隣接する画素について全て参照画素とすることができるものとする。 Note that, in the present embodiment, a specified value (“512” for a 10-bit moving image) is set for a CU to be encoded that does not have an adjacent decoded reference pixel, such as the CU located at the upper leftmost position in a frame. is configured to generate reference pixels used when generating a predicted image by filling in, all pixels adjacent to the left side of the CU to be coded can be used as reference pixels.

図1に示すように、本実施形態に係る符号化装置1は、イントラ予測モード決定部11と、TU分割決定部12と、符号化順制御部13と、逐次局部復号画像生成部14と、メモリ15と、エントロピー符号化部16とを具備している。 As shown in FIG. 1, the encoding device 1 according to the present embodiment includes an intra prediction mode determination unit 11, a TU partition determination unit 12, a coding order control unit 13, a sequential local decoded image generation unit 14, It comprises a memory 15 and an entropy coding unit 16 .

イントラ予測モード決定部11は、CUに適用する最適なイントラ予測モードを決定するように構成されている。 The intra-prediction mode determination unit 11 is configured to determine the optimum intra-prediction mode to apply to the CU.

TU分割決定部12は、CUを複数のTUに分割するか否かについて決定するように構成されている。なお、本実施形態では、CUを複数のTUに分割する方法として、4分割のケースを例に挙げて説明しているが、CUを複数のTUに分割する際の分割数や分割形状については、かかるケースに制限されるものではない。 The TU partition decision unit 12 is configured to decide whether to partition a CU into a plurality of TUs. In this embodiment, as a method of dividing a CU into a plurality of TUs, a case of 4 divisions is described as an example. , is not limited to such cases.

符号化順制御部13は、イントラ予測モード(例えば、イントラ予測モードの方向)に基づいてCU内のTUの符号化順を決定するように構成されている。 The coding order control unit 13 is configured to determine the coding order of the TUs within the CU based on the intra prediction mode (for example, the direction of the intra prediction mode).

例えば、符号化順制御部13は、TU分割決定部12によってCUを複数のTUに分割することが決定された場合に、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が右上から左下に向かう方向(図3に示すイントラ予測モード2~9)である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU内のTUの符号化順として、従来のラスタースキャン順でなく、CU内の左下のTU→CU内の右下のTU→CU内の左上のTU→CU内の右上のTUという符号化順、或いは、CU内の左下のTU→CU内の左上のTU→CU内の右下のTU→CU内の右上のTUという符号化順のうち、予め規定した符号化順を採用するように構成されていてもよい。 For example, when the TU division determination unit 12 determines to divide a CU into a plurality of TUs, the coding order control unit 13 determines that the direction of the intra prediction mode determined by the intra prediction mode determination unit 11 is from upper right to When the direction is toward the lower left (intra prediction modes 2 to 9 shown in FIG. 3) (that is, when directional prediction is performed from the lower left to the upper right), the coding order of the TUs in the CU is the conventional raster Not in the scan order, but in the encoding order of the lower left TU in the CU → the lower right TU in the CU → the upper left TU in the CU → the upper right TU in the CU, or the lower left TU in the CU → the inside of the CU It may be configured to employ a predetermined encoding order among the encoding order of the upper left TU→the lower right TU within the CU→the upper right TU within the CU.

逐次局部復号画像生成部14は、符号化順制御部13によって決定された符号化順及びCUのTUへの分割方法に基づいて局部復号画像(TUごとの復号画像)を生成するように構成されている。 The sequential locally decoded image generation unit 14 is configured to generate a locally decoded image (a decoded image for each TU) based on the coding order determined by the coding order control unit 13 and the method of dividing the CU into TUs. ing.

具体的には、逐次局部復号画像生成部14は、TU分割決定部12によってCUを複数のTUに分割することが決定された場合に、符号化順制御部13により決定された符号化順に従って、逐次、局部復号画像を生成するように構成されている。 Specifically, when the TU division determination unit 12 determines to divide the CU into a plurality of TUs, the sequential locally decoded image generation unit 14 follows the coding order determined by the coding order control unit 13. , is configured to sequentially generate a locally decoded image.

図1に示すように、逐次局部復号画像生成部14は、イントラ予測部14aと、残差信号生成部14bと、直交変換・量子化部14cと、逆量子化部・逆直交変換部14dと、局部復号画像生成部14eとを具備している。 As shown in FIG. 1, the sequential local decoded image generation unit 14 includes an intra prediction unit 14a, a residual signal generation unit 14b, an orthogonal transform/quantization unit 14c, and an inverse quantization/inverse orthogonal transformation unit 14d. , and a locally decoded image generator 14e.

イントラ予測部14aは、イントラ予測モード決定部11により決定されたイントラ予測モードを用いて予測画像を生成するように構成されている。すなわち、イントラ予測部14aは、かかるイントラ予測モードに応じて予測画像を生成する際に用いる参照画素の位置を決定し、かかる参照画素を用いて予測画像を生成するように構成されている。 The intra prediction unit 14 a is configured to generate a predicted image using the intra prediction mode determined by the intra prediction mode determination unit 11 . That is, the intra prediction unit 14a is configured to determine the positions of reference pixels used when generating a predicted image according to the intra prediction mode, and generate the predicted image using the reference pixels.

さらに、イントラ予測部14aは、符号化順制御部13によって決定された符号化順で、予測画像を生成するように構成されていてもよい。 Furthermore, the intra prediction unit 14a may be configured to generate a predicted image in the coding order determined by the coding order control unit 13. FIG.

図2に示すように、イントラ予測部14aは、非平滑イントラ予測部14a1と、平滑イントラ予測部14a2と、重み係数決定部14a3と、予測画像生成部14a4とを具備している。 As shown in FIG. 2, the intra prediction unit 14a includes a non-smooth intra prediction unit 14a1, a smooth intra prediction unit 14a2, a weighting factor determination unit 14a3, and a predicted image generation unit 14a4.

非平滑イントラ予測部14a1は、参照画素に対して平滑化処理を施すことなくイントラ予測モードを用いて非平滑予測画像を生成するように構成されている。 The non-smoothed intra prediction unit 14a1 is configured to generate a non-smoothed predicted image using an intra prediction mode without smoothing the reference pixels.

平滑イントラ予測部14a2は、参照画素に対して平滑化処理を施した後にイントラ予測モードを用いて平滑予測画像を生成するように構成されている。 The smooth intra prediction unit 14a2 is configured to generate a smooth predicted image using an intra prediction mode after performing smoothing processing on reference pixels.

重み係数決定部14a3は、イントラ予測モード及び参照画素の位置に応じて重み係数を決定するように構成されている。 The weighting factor determination unit 14a3 is configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel.

図3に、本実施形態において用いられるイントラ予測モードの一例について示す。図3に示すように、本実施形態では、イントラ予測モード2~9は、カテゴリAに分類され、イントラ予測モード10~26は、カテゴリBに分類され、イントラ予測モード27~34は、カテゴリCに分類されるものとする。 FIG. 3 shows an example of intra prediction modes used in this embodiment. As shown in FIG. 3, in the present embodiment, intra prediction modes 2 to 9 are classified into category A, intra prediction modes 10 to 26 are classified into category B, and intra prediction modes 27 to 34 are classified into category C shall be classified as

ここで、重み係数決定部14a3は、参照画素の位置として下側及び右側の少なくとも一方が含まれている場合、イントラ予測モードの方向に応じて予め規定される重み係数を変換した係数を、重み係数として決定するように構成されていてもよい。 Here, when at least one of the lower side and the right side is included as the position of the reference pixel, the weighting factor determination unit 14a3 converts the weighting factor predetermined according to the direction of the intra prediction mode to the weighting factor. It may be configured to be determined as a coefficient.

具体的には、重み係数決定部14a3は、参照画素の位置として下側及び右側が含まれていない場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Specifically, when the lower side and the right side are not included as the position of the reference pixel, the weighting factor determination unit 14a3 determines to use the weighting factor defined in advance according to the direction of the intra prediction mode. may be configured.

すなわち、重み係数決定部14a3は、イントラ予測モードがカテゴリBに属している場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 That is, when the intra prediction mode belongs to category B, the weighting factor determination unit 14a3 may be configured to use a weighting factor defined in advance according to the direction of the intra prediction mode.

例えば、重み係数決定部14a3は、イントラ予測モードが18である場合、図13(a)及び(b)に示す重み係数の分布を用いるように構成されていてもよい。ここで、非平滑予測画像に対して適用する重み係数の分布を「α」とすると、平滑予測画像に対して適用する重み係数の分布は「1-α」となる。 For example, when the intra prediction mode is 18, the weighting factor determination unit 14a3 may be configured to use the weighting factor distributions shown in FIGS. Here, if the distribution of the weighting factors applied to the non-smoothed predicted image is "α", the distribution of the weighting factors applied to the smoothed predicted image is "1-α".

或いは、重み係数決定部14a3は、イントラ予測モードがカテゴリAに属している場合で、且つ、参照画素の位置として下側が含まれていない場合(左側の隣接する参照画素のみを用いて予測画像を生成する場合)、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Alternatively, when the intra prediction mode belongs to category A and the position of the reference pixel does not include the lower side (the predicted image is calculated using only the adjacent reference pixels on the left side). generated), it may be configured to determine to use a predetermined weighting factor according to the direction of the intra prediction mode.

例えば、重み係数決定部14a3は、イントラ予測モードが2であり、参照画素の位置として下側が含まれていない場合、図12(a)及び(b)に示す重み係数の分布を用いるように構成されていてもよい。ここで、非平滑予測画像に対して適用する重み係数の分布を「α」とすると、平滑予測画像に対して適用する重み係数の分布は「1-α」となる。 For example, the weighting factor determination unit 14a3 is configured to use the weighting factor distribution shown in FIGS. may have been Here, if the distribution of the weighting factors applied to the non-smoothed predicted image is "α", the distribution of the weighting factors applied to the smoothed predicted image is "1-α".

或いは、重み係数決定部14a3は、イントラ予測モードがカテゴリCに属している場合で、且つ、参照画素の位置として右側が含まれていない場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Alternatively, when the intra prediction mode belongs to category C and the right side is not included as the position of the reference pixel, the weight factor determination unit 14a3 determines the weight predetermined according to the direction of the intra prediction mode. It may be configured to determine using coefficients.

一方、重み係数決定部14a3は、参照画素の位置として下側が含まれている場合(下側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を垂直方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 On the other hand, when the lower side is included as the position of the reference pixel (when generating the predicted image using the adjacent reference pixels on the lower side), the weighting factor determination unit 14a3 reverses the direction of the intra prediction mode in the vertical direction. It may be configured to determine a weighting factor obtained by vertically inverting a weighting factor defined in advance according to the direction of the movement.

例えば、重み係数決定部14a3は、イントラ予測モードがカテゴリAに属している場合で、且つ、参照画素の位置として左側及び下側が含まれている場合(左側及び下側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を垂直方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 For example, if the intra prediction mode belongs to category A and the positions of the reference pixels include the left side and the bottom side (the adjacent reference pixels on the left side and the bottom side are used, the weighting factor determination unit 14a3 when the prediction image is generated by using the intra-prediction mode), a weighting factor obtained by vertically inverting a weighting factor that is predetermined according to the direction in which the direction of the intra prediction mode is vertically inverted is determined as the weighting factor. may

ここで、「イントラ予測モードの方向を垂直方向に反転する」とは、図3の例では、イントラ予測モード2~9の方向とイントラ予測モード18~11の方向との間でそれぞれ変換することを意味する、すなわち、イントラ予測モード10の方向を基準にして各イントラ予測モードの方向を線対称な位置関係にあるイントラ予測モードの方向に変換することを意味する。 Here, "reversing the direction of the intra prediction mode in the vertical direction" means converting between the directions of intra prediction modes 2 to 9 and the directions of intra prediction modes 18 to 11, respectively That is, it means that the direction of each intra prediction mode is converted to the direction of the intra prediction mode having a linearly symmetrical positional relationship with respect to the direction of the intra prediction mode 10 .

図4(a)及び図4(b)は、イントラ予測モードが2である場合で且つ参照画素の位置として左側及び下側が含まれている場合の重み係数の分布の一例を示し、図5(a)及び図5(b)は、イントラ予測モードが18である場合の重み係数の分布の例を示す。 FIGS. 4(a) and 4(b) show an example of the distribution of weighting factors when the intra prediction mode is 2 and the reference pixel positions include the left side and the lower side, and FIG. a) and FIG. 5(b) show an example of weighting factor distribution when the intra prediction mode is 18. FIG.

また、図4(a)及び図5(a)は、平滑化前参照画素を用いた予測画像(すなわち、非平滑予測画像)における重み係数の一例を示し、図4(b)及び図5(b)は、平滑化後参照画素を用いた予測画像(すなわち、平滑予測画像)における重み係数の一例を示す。 4(a) and 5(a) show an example of weighting coefficients in a predicted image (that is, a non-smoothed predicted image) using reference pixels before smoothing, and FIGS. 4(b) and 5( b) shows an example of a weighting factor in a predicted image using smoothed reference pixels (that is, a smoothed predicted image).

なお、図4及び図5において、黒い部分の重み係数は「0」であり、白い部分の重み係数は「1」である。 In addition, in FIGS. 4 and 5, the weighting coefficient of the black portion is "0" and the weighting coefficient of the white portion is "1".

ここで、「重み係数を垂直方向に反転する」とは、図4及び図5に示す重み係数の分布を垂直方向Vに反転することによって各参照画素に対応する重み係数を変換することを意味する。 Here, "inverting the weighting factors in the vertical direction" means converting the weighting factors corresponding to each reference pixel by inverting the distribution of the weighting factors shown in FIGS. 4 and 5 in the vertical direction V. do.

例えば、図4(a)に示す重み係数の分布を垂直方向Vに反転すると図5(b)に示す重み係数の分布となり、図4(b)に示す重み係数の分布を垂直方向Vに反転すると図5(a)に示す重み係数の分布となる。 For example, if the weighting factor distribution shown in FIG. 4A is inverted in the vertical direction V, the weighting factor distribution shown in FIG. 5B is obtained, and the weighting factor distribution shown in FIG. Then, the weighting factor distribution shown in FIG. 5(a) is obtained.

すなわち、イントラ予測モードが2である場合で且つ参照画素の位置として左側及び下側が含まれている場合の重み係数の分布を垂直方向に反転すると、イントラ予測モードが18である場合の重み係数の分布となる。 That is, when the distribution of the weighting factors is vertically inverted when the intra prediction mode is 2 and the reference pixel positions include the left side and the lower side, the weighting factors when the intra prediction mode is 18 are distribution.

換言すると、重み係数決定部14a3は、イントラ予測モードが2であり、参照画素の位置として左側及び下側が含まれている場合、図12(a)及び(b)に示す重み係数の分布を用いる代わりに、図5に示すイントラ予測モードが18である場合の重み係数の分布を垂直方向に反転した重み係数の分布(図4に示す重み係数の分布)を用いるように構
成されている。
In other words, when the intra prediction mode is 2 and the positions of the reference pixels include the left side and the lower side, the weighting factor determination unit 14a3 uses the weighting factor distributions shown in FIGS. Instead, it is configured to use a weighting factor distribution obtained by vertically inverting the weighting factor distribution when the intra prediction mode is 18 shown in FIG. 5 (the weighting factor distribution shown in FIG. 4).

また、「重み係数を垂直方向に反転する」とは、以下の(式1)及び(式2)に示すように、重み係数の分布をαとα’との間で変換することを意味する。 In addition, "inverting the weighting factor in the vertical direction" means converting the distribution of the weighting factor between α and α' as shown in (Equation 1) and (Equation 2) below. .

Figure 0007279128000001
Figure 0007279128000001

ここで、α及びα’の各要素である「α11」~「αmn」が各参照画素に対応する重み係数を示す。 Here, "α11" to "αmn", which are the elements of α and α', indicate weighting factors corresponding to respective reference pixels.

さらに、重み係数決定部14a3は、参照画素の位置として右側が含まれている場合(右側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を水平方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 Furthermore, when the right side is included as the position of the reference pixel (when generating the predicted image using the adjacent reference pixels on the right side), the weighting factor determination unit 14a3 horizontally reverses the direction of the intra prediction mode. It may be configured such that a weighting factor that is horizontally inverted from a weighting factor that is predetermined according to the direction is determined as the weighting factor.

例えば、重み係数決定部14a3は、イントラ予測モードがカテゴリCに属している場合で、且つ、参照画素の位置として上側及び右側が含まれている場合(上側及び右側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を水平方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 For example, when the intra prediction mode belongs to category C and the upper and right sides are included as the reference pixel positions (using the upper and right adjacent reference pixels, the weighting factor determination unit 14a3 when generating a prediction image), a weighting factor that is horizontally inverted from a weighting factor that is predetermined according to the direction in which the direction of the intra prediction mode is horizontally inverted is determined as the weighting factor. good too.

ここで、「イントラ予測モードの方向を水平方向に反転する」とは、図3の例では、イントラ予測モード18~25の方向とイントラ予測モード34~27の方向との間でそれぞれ変換することを意味する、すなわち、イントラ予測モード26の方向を基準にして各イントラ予測モードの方向を線対称な位置関係にあるイントラ予測モードの方向に変換することを意味する。 Here, "reversing the direction of the intra prediction mode horizontally" means converting between the direction of the intra prediction modes 18 to 25 and the direction of the intra prediction modes 34 to 27 in the example of FIG. , that is, to convert the direction of each intra prediction mode to the direction of the intra prediction mode having a line-symmetrical positional relationship with respect to the direction of the intra prediction mode 26 .

また、「重み係数を水平方向に反転する」とは、図4及び図5に示す重み係数の分布を垂直方向Hに反転することによって各参照画素に対応する重み係数を変換することを意味する。 Further, "reversing the weighting coefficients in the horizontal direction" means that the weighting coefficients corresponding to each reference pixel are converted by reversing the distribution of the weighting coefficients shown in FIGS. 4 and 5 in the vertical direction H. .

或いは、「重み係数を水平方向に反転する」とは、以下の(式3)及び(式4)に示すように、重み係数の分布をαとα’’との間で変換することを意味する。 Alternatively, "horizontally inverting the weighting factors" means transforming the distribution of the weighting factors between α and α'' as shown in the following (Equation 3) and (Equation 4). do.

Figure 0007279128000002
Figure 0007279128000002

ここで、α及びα’’の各要素である「α11」~「αmn」が各参照画素に対応する重み係数を示す。 Here, “α11” to “αmn”, which are elements of α and α″, indicate weighting factors corresponding to respective reference pixels.

予測画像生成部14a4は、重み係数決定部14a3によって決定された重み係数を用いて、非平滑予測画像及び平滑予測画像を合成して予測画像を生成するように構成されている。 The predicted image generator 14a4 is configured to generate a predicted image by combining the non-smoothed predicted image and the smoothed predicted image using the weighting factor determined by the weighting factor determining part 14a3.

残差信号生成部14bは、イントラ予測部14aによって生成された予測画像と原画像との差分により残差信号を生成するように構成されている。 The residual signal generation unit 14b is configured to generate a residual signal from the difference between the predicted image generated by the intra prediction unit 14a and the original image.

直交変換・量子化部14cは、残差信号生成部14bによって生成された残差信号に対して直交変換処理及び量子化処理を施し、量子化された変換係数を生成するように構成されている。 The orthogonal transformation/quantization unit 14c is configured to perform orthogonal transformation processing and quantization processing on the residual signal generated by the residual signal generation unit 14b, and generate quantized transform coefficients. .

逆量子化部・逆直交変換部14dは、直交変換・量子化部14cによって生成された量子化された変換係数に対して、再び逆量子化処理及び逆直交変換処理を施して残差信号を生成するように構成されている。 The inverse quantization unit/inverse orthogonal transform unit 14d performs inverse quantization processing and inverse orthogonal transform processing again on the quantized transform coefficients generated by the orthogonal transform/quantization unit 14c to generate a residual signal. configured to generate

局部復号画像生成部14eは、逆量子化部・逆直交変換部14dによって生成された残差信号に対してイントラ予測部14aによって生成された予測画像を加えることで局部復号画像を生成するように構成されている。 The local decoded image generation unit 14e generates a local decoded image by adding the predicted image generated by the intra prediction unit 14a to the residual signal generated by the inverse quantization unit/inverse orthogonal transformation unit 14d. It is configured.

メモリ15は、逐次局部復号画像生成部14によって生成された局部復号画像を参照画像として利用可能に保持するように構成されている。 The memory 15 is configured to retain locally decoded images generated by the sequential local decoded image generator 14 so as to be usable as reference images.

エントロピー符号化部16は、イントラ予測モード決定部11によって決定されたイントラ予測モード等を含むフラグ情報や量子化された変換係数に対してエントロピー符号化処理を施してストリーム出力するように構成されている。 The entropy coding unit 16 is configured to perform entropy coding processing on the flag information including the intra prediction mode determined by the intra prediction mode determination unit 11 and the quantized transform coefficients, and output a stream. there is

図6~図9に、本実施形態に係る符号化装置1において予測画像を生成する動作の一例について説明するためのフローチャートについて示す。 6 to 9 show flowcharts for explaining an example of the operation of generating a predicted image in the encoding device 1 according to this embodiment.

図6に示すように、ステップS101において、CUを複数のTUに分割される場合に
は、本動作は、ステップS102に進む。一方、ステップS101において、CUを複数のTUに分割されない場合には、本動作は、ステップS104に進む。
As shown in FIG. 6, in step S101, when the CU is divided into a plurality of TUs, the operation proceeds to step S102. On the other hand, if the CU is not split into a plurality of TUs in step S101, the operation proceeds to step S104.

ステップS102において、イントラ予測モードがカテゴリAに属している場合には、本動作は、図7に進み、イントラ予測モードがカテゴリAに属していない場合には、本動作は、ステップS103に進む。 In step S102, when the intra prediction mode belongs to category A, the operation proceeds to FIG. 7, and when the intra prediction mode does not belong to category A, the operation proceeds to step S103.

ステップS103において、イントラ予測モードがカテゴリBに属している場合には、本動作は、図8に進み、イントラ予測モードがカテゴリBに属していない場合(すなわち、イントラ予測モードがカテゴリCに属している場合)には、本動作は、図9に進む。 In step S103, if the intra prediction mode belongs to category B, the operation proceeds to FIG. 8, and if the intra prediction mode does not belong to category B If yes), the operation proceeds to FIG.

ステップS104において、符号化装置1は、左側及び上側の参照画素を用いて予測画像を生成する。 In step S104, the encoding device 1 generates a predicted image using the left and upper reference pixels.

図7に示すように、ステップS201において、参照画素の位置として左側及び下側が含まれている場合には、本動作は、ステップS202に進み、参照画素の位置として下側が含まれていない場合には、本動作は、ステップS204に進む。 As shown in FIG. 7, in step S201, if the left side and the lower side are included as the reference pixel positions, the operation proceeds to step S202, and if the lower side is not included as the reference pixel positions, , the operation proceeds to step S204.

ステップS202において、符号化装置1は、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を算出する。 In step S<b>202 , the encoding device 1 calculates a weighting factor defined in advance according to the direction obtained by vertically reversing the direction of the intra prediction mode.

ステップS203において、符号化装置1は、算出した重み係数を垂直方向に反転した重み係数を用いて予測画像を生成する。 In step S203, the encoding device 1 generates a predicted image using weighting factors obtained by vertically inverting the calculated weighting factors.

ステップS204において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。 In step S204, the encoding device 1 calculates a weighting factor defined in advance according to the direction of the intra prediction mode.

ステップS205において、符号化装置1は、算出した重み係数を用いて予測画像を生成する。 In step S205, the encoding device 1 generates a predicted image using the calculated weighting factors.

図8に示すように、ステップS301において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。 As shown in FIG. 8, in step S301, the encoding device 1 calculates a weighting factor defined in advance according to the direction of the intra prediction mode.

ステップS302において、符号化装置1は、算出した重み係数を用いて予測画像を生成する。 In step S302, the encoding device 1 generates a predicted image using the calculated weighting factors.

図9に示すように、ステップS401において、参照画素の位置として上側及び右側が含まれている場合には、本動作は、ステップS402に進み、参照画素の位置として右側が含まれていない場合には、本動作は、ステップS404に進む。 As shown in FIG. 9, in step S401, if the upper and right sides are included as the reference pixel positions, the operation proceeds to step S402, and if the right side is not included as the reference pixel positions, , the operation proceeds to step S404.

ステップS402において、符号化装置1は、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を算出する。 In step S402, the encoding device 1 calculates a weighting factor defined in advance according to the direction obtained by horizontally reversing the direction of the intra prediction mode.

ステップS403において、符号化装置1は、算出した重み係数を水平方向に反転した重み係数を用いて予測画像を生成する。 In step S403, the encoding device 1 generates a predicted image using weighting factors obtained by horizontally inverting the calculated weighting factors.

ステップS404において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。 In step S404, the encoding device 1 calculates a weighting factor defined in advance according to the direction of the intra prediction mode.

ステップS405において、符号化装置1は、算出した重み係数を用いて予測画像を生
成する。
In step S405, the encoding device 1 generates a predicted image using the calculated weighting factors.

本実施形態に係る符号化装置1によれば、イントラ予測モードやCU/TUのサイズだけでなく参照画素の位置を考慮して重み係数を決定することができるので、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる。 According to the encoding device 1 according to the present embodiment, the weighting factor can be determined by considering not only the intra prediction mode and the CU/TU size but also the position of the reference pixel. A decrease in prediction accuracy can be prevented by appropriately synthesizing the non-smoothed predicted image and the smoothed predicted image.

例えば、図4に示すように、イントラ予測モード2を用いて予測画像を生成する場合、参照画素に近い左側及び下側に位置する予測画素については、非平滑予測画像の予測精度が高くなると考えられる一方、参照画素から遠い右上に位置する予測画素については、平滑予測画像の予測精度が高くなると考えられる。 For example, as shown in FIG. 4, when a predicted image is generated using intra prediction mode 2, the prediction accuracy of the non-smoothed predicted image is considered to be high for the predicted pixels located on the left side and the lower side near the reference pixel. On the other hand, it is considered that the prediction accuracy of the smoothed prediction image is high for the prediction pixel positioned on the upper right far from the reference pixel.

したがって、本実施形態に係る符号化装置1によれば、参照画素の位置として左側及び右側が含まれている場合には、図12に示す重み係数の分布を用いる代わりに、図4に示す重み係数の分布を用いることで、予測精度を向上させることができる。 Therefore, according to the encoding apparatus 1 according to the present embodiment, when the positions of the reference pixels include the left side and the right side, the weights shown in FIG. 4 are used instead of the distribution of the weight coefficients shown in FIG. Prediction accuracy can be improved by using the distribution of coefficients.

また、本実施形態に係る復号装置3は、動画像を構成するフレーム単位の原画像をCUに分割して復号するように構成されている。また、本実施形態に係る復号装置3は、本実施形態に係る符号化装置1と同様に、CUを複数のTUに分割することができるように構成されている。 Further, the decoding device 3 according to the present embodiment is configured to divide an original image of each frame constituting a moving image into CUs and decode the CUs. Also, the decoding device 3 according to this embodiment is configured to be able to divide a CU into a plurality of TUs, like the encoding device 1 according to this embodiment.

図10に示すように、本実施形態に係る復号装置3は、エントロピー復号部31と、復号順制御部32と、逐次復号画像生成部33と、メモリ34とを具備している。 As shown in FIG. 10 , the decoding device 3 according to this embodiment includes an entropy decoding unit 31 , a decoding order control unit 32 , a sequential decoded image generation unit 33 and a memory 34 .

エントロピー復号部31は、符号化装置1から出力されたストリームに対してエントロピー復号処理を施すことによって、符号化装置1から出力されたストリームから、変換係数やフラグ情報等を復号するように構成されている。ここで、変換係数は、符号化装置1によって、フレーム単位の原画像をCUに分割して符号化された信号として得られた量子化された変換係数である。 The entropy decoding unit 31 is configured to decode transform coefficients, flag information, and the like from the stream output from the encoding device 1 by performing entropy decoding processing on the stream output from the encoding device 1. ing. Here, the transform coefficients are quantized transform coefficients obtained by the encoding apparatus 1 as signals encoded by dividing the original image in units of frames into CUs.

復号順制御部32は、イントラ予測モードに基づいてCU内のTUの復号順を決定するように構成されている。 The decoding order control unit 32 is configured to determine the decoding order of TUs within the CU based on the intra prediction mode.

具体的には、復号順制御部32は、エントロピー復号部31によって出力されたTU分割が行われた否か(CUが複数のTUに分割されているか否か)について示すフラグ及びイントラ予測モードの方向に応じて、CU内のTUの復号順を決定するように構成されている。 Specifically, the decoding order control unit 32 uses a flag indicating whether or not the TU division output by the entropy decoding unit 31 has been performed (whether or not the CU is divided into a plurality of TUs) and the intra prediction mode. The direction is configured to determine the decoding order of the TUs within the CU.

例えば、復号順制御部32は、符号化順制御部13と同様に、CUが複数のTUに分割されている場合で、且つ、イントラ予測モードの方向が右上から左下に向かう方向(すなわち、左下から右上に向かって方向予測が行われる場合)である場合、CU内の左下のTU→CU内の右下のTU→CU内の左上のTU→CU内の右上のTUという復号順、或いは、CU内の左下のTU→CU内の左上のTU→CU内の右下のTU→CU内の右上のTUという復号順のうち、予め規定した復号順で、復号処理を行うように構成されていてもよい。 For example, similar to the encoding order control unit 13, the decoding order control unit 32 may be configured such that when a CU is divided into a plurality of TUs and the direction of the intra prediction mode is from the upper right to the lower left (that is, the lower left direction prediction is performed toward the upper right), the decoding order of the lower left TU in the CU → the lower right TU in the CU → the upper left TU in the CU → the upper right TU in the CU, or The decoding process is performed in a predetermined decoding order among the decoding order of the lower left TU in the CU→the upper left TU in the CU→the lower right TU in the CU→the upper right TU in the CU. may

逐次復号画像生成部33は、復号順制御部32によって決定された復号順及びCUのTUへの分割方法に基づいてTUごとの復号画像を生成するように構成されている。 The sequentially decoded image generator 33 is configured to generate a decoded image for each TU based on the decoding order determined by the decoding order controller 32 and the method of dividing the CU into TUs.

具体的には、逐次復号画像生成部33は、CUが複数のTUに分割されている場合に、
復号順制御部32によって決定された復号順に従って、エントロピー復号部31によって出力された量子化された変換係数に対して、逐次、イントラ予測や逆量子化処理や逆直交変換処理を行うことによって、復号画像を生成するように構成されている。
Specifically, when the CU is divided into a plurality of TUs, the sequentially decoded image generation unit 33
By sequentially performing intra prediction, inverse quantization processing, and inverse orthogonal transformation processing on the quantized transform coefficients output by the entropy decoding unit 31 according to the decoding order determined by the decoding order control unit 32, configured to generate a decoded image;

図10に示すように、逐次復号画像生成部33は、イントラ予測部33aと、逆量子化・逆変換部33bと、復号画像生成部33cとを具備している。 As shown in FIG. 10, the sequentially decoded image generation unit 33 includes an intra prediction unit 33a, an inverse quantization/inverse transform unit 33b, and a decoded image generation unit 33c.

イントラ予測部33aは、復号順制御部32によって決定した復号順に従って、エントロピー復号部31によって出力されたイントラ予測モードを用いて、予測画像を生成するように構成されていてもよい。 The intra prediction unit 33 a may be configured to generate a prediction image using the intra prediction mode output by the entropy decoding unit 31 according to the decoding order determined by the decoding order control unit 32 .

図11に示すように、イントラ予測部33aは、非平滑イントラ予測部33a1と、平滑イントラ予測部33a2と、重み係数決定部33a3と、予測画像生成部33a4とを具備している。 As shown in FIG. 11, the intra prediction unit 33a includes a non-smooth intra prediction unit 33a1, a smooth intra prediction unit 33a2, a weighting factor determination unit 33a3, and a predicted image generation unit 33a4.

非平滑イントラ予測部33a1は、非平滑イントラ予測部14a1と同様に、参照画素に対して平滑化処理を施すことなくイントラ予測モードを用いて非平滑予測画像を生成するように構成されている。 The non-smoothed intra prediction unit 33a1 is configured to generate a non-smoothed predicted image using the intra prediction mode without smoothing the reference pixels, similarly to the non-smoothed intra prediction unit 14a1.

平滑イントラ予測部33a2は、平滑イントラ予測部14a2と同様に、参照画素に対して平滑化処理を施した後にイントラ予測モードを用いて平滑予測画像を生成するように構成されている。 The smoothed intra prediction unit 33a2, like the smoothed intra prediction unit 14a2, is configured to perform smoothing processing on reference pixels and then generate a smoothed predicted image using the intra prediction mode.

重み係数決定部33a3は、重み係数決定部14a3と同様に、イントラ予測モード及び参照画素の位置に応じて重み係数を決定するように構成されている。 The weighting factor determination unit 33a3 is configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel, similarly to the weighting factor determination unit 14a3.

予測画像生成部33a4は、予測画像生成部14a4と同様に、重み係数決定部14a3によって決定された重み係数を用いて、非平滑予測画像及び平滑予測画像を合成して予測画像を生成するように構成されている。 Like the predicted image generator 14a4, the predicted image generator 33a4 uses the weighting factors determined by the weighting factor determining unit 14a3 to combine the non-smoothed predicted image and the smoothed predicted image to generate a predicted image. It is configured.

逆量子化・逆変換部33bは、エントロピー復号部31によって出力された量子化された変換係数に対して逆量子化処理及び逆変換処理(例えば、逆直交変換処理)を施すことによって、残差信号を生成するように構成されている。 The inverse quantization/inverse transform unit 33b performs inverse quantization processing and inverse transform processing (for example, inverse orthogonal transform processing) on the quantized transform coefficients output from the entropy decoding unit 31, thereby generating a residual configured to generate a signal;

復号画像生成部33cは、イントラ予測部33aによって生成された予測画像と逆量子化・逆変換部33bによって生成された残差信号とを加えることで復号画像を生成するように構成されている。 The decoded image generator 33c is configured to generate a decoded image by adding the predicted image generated by the intra prediction unit 33a and the residual signal generated by the inverse quantization/inverse transform unit 33b.

メモリ34は、逐次復号画像生成部33によって生成された復号画像を、イントラ予測及びインター予測のための参照画像として利用可能に保持するように構成されている。 The memory 34 is configured to hold the decoded images generated by the sequential decoded image generation unit 33 so that they can be used as reference images for intra prediction and inter prediction.

なお、本実施形態に係る復号装置3において予測画像を生成する動作は、図6~図9に示す本実施形態に係る符号化装置1において予測画像を生成する動作と同一であるため、説明を省略する。 Note that the operation of generating a predicted image in the decoding device 3 according to this embodiment is the same as the operation of generating a predicted image in the encoding device 1 according to this embodiment shown in FIGS. omitted.

本実施形態に係る復号装置3によれば、イントラ予測モードやCU/TUのサイズだけでなく参照画素の位置を考慮して重み係数を決定することができるので、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる。 According to the decoding device 3 according to the present embodiment, it is possible to determine the weighting factor in consideration of not only the intra prediction mode and the size of the CU/TU but also the position of the reference pixel. A decrease in prediction accuracy can be prevented by appropriately synthesizing the smoothed predicted image and the smoothed predicted image.

(その他の実施形態)
上述のように、本発明について、上述した実施形態によって説明したが、かかる実施形態における開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。かかる開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As noted above, the present invention has been described through the above-described embodiments, but the statements and drawings forming part of the disclosure in such embodiments should not be understood to limit the present invention. From such disclosure, various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art.

また、上述の実施形態では特に触れていないが、上述の符号化装置1及び復号装置3によって行われる各処理をコンピュータに実行させるプログラムが提供されてもよい。また、かかるプログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、かかるプログラムをコンピュータにインストールすることが可能である。ここで、かかるプログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 Moreover, although not particularly mentioned in the above-described embodiment, a program may be provided that causes a computer to execute each process performed by the above-described encoding device 1 and decoding device 3 . Also, such a program may be recorded on a computer-readable medium. Such programs can be installed on a computer using a computer readable medium. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

或いは、上述の符号化装置1及び復号装置3内の少なくとも一部の機能を実現するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。 Alternatively, a chip configured by a memory storing a program for realizing at least part of the functions in the encoding device 1 and the decoding device 3 described above and a processor executing the program stored in the memory may be provided. good.

1…符号化装置
11…イントラ予測モード決定部
12…TU分割決定部
13…符号化順制御部
14…逐次局部復号画像生成部
14a…イントラ予測部
14a1…非平滑イントラ予測部
14a2…平滑イントラ予測部
14a3…重み係数決定部
14a4…予測画像生成部
14b…残差信号生成部
14c…直交変換・量子化部
14d…逆量子化部・逆直交変換部
14e…局部復号画像生成部
15…メモリ
16…エントロピー符号化部
3…復号装置
31…エントロピー復号部
32…復号順制御部
33…逐次復号画像生成部
33a…イントラ予測部
33a1…非平滑イントラ予測部
33a2…平滑イントラ予測部
33a3…重み係数決定部
33a4…予測画像生成部
33b…逆量子化・逆変換部
33c…復号画像生成部
34…メモリ
1 Encoding device 11 Intra prediction mode determination unit 12 TU division determination unit 13 Encoding order control unit 14 Sequential local decoded image generation unit 14a Intra prediction unit 14a1 Non-smooth intra prediction unit 14a2 Smooth intra prediction Unit 14a3 Weighting factor determination unit 14a4 Predicted image generation unit 14b Residual signal generation unit 14c Orthogonal transformation/quantization unit 14d Inverse quantization/inverse orthogonal transformation unit 14e Local decoded image generation unit 15 Memory 16 Entropy encoding unit 3 Decoding device 31 Entropy decoding unit 32 Decoding order control unit 33 Sequentially decoded image generation unit 33a Intra prediction unit 33a1 Non-smooth intra prediction unit 33a2 Smooth intra prediction unit 33a3 Weighting factor determination Part 33a4...Predicted image generation part 33b...Inverse quantization/inverse transformation part 33c...Decoded image generation part 34...Memory

Claims (2)

原画像対象ブロックをイントラ予測により予測する予測装置であって、
イントラ予測モードを用いて、平滑化処理を施した参照画素からイントラ予測により予測画像を生成する第1生成部と、
前記イントラ予測モードに基づいて、前記平滑化処理を用いずに参照画素から合成用画像を生成する第2生成部と、
前記予測画像と前記合成用画像との重み付き合成処理を行う重み付き合成部と、を具備し、
前記重み付き合成部は、
前記イントラ予測モードが水平方向のモードよりも小さい場合であって、且つ、前記参照画素の位置が、前記対象ブロックの左側に隣接する画素ラインに含まれる位置のみであるという条件が満たされた場合には、所定の重み係数を決定する処理を行い、当該条件が満たされない場合には、当該処理と異なる処理を行い、
前記イントラ予測モードが垂直方向のモードよりも大きい場合であって、且つ、前記参照画素の位置が、前記対象ブロックの上側に隣接する画素ラインに含まれる位置のみであるという条件が満たされた場合には、所定の重み係数を決定する処理を行い、当該条件が満たされない場合には、当該処理と異なる処理を行うことを特徴とする予測装置。
A prediction device that predicts a target block of an original image by intra prediction,
A first generation unit that generates a predicted image by intra prediction from reference pixels that have undergone smoothing processing using an intra prediction mode;
a second generating unit that generates an image for synthesis from reference pixels without using the smoothing process based on the intra prediction mode;
a weighted synthesis unit that performs weighted synthesis processing of the predicted image and the synthesis image ,
The weighted combining unit
When the intra prediction mode is smaller than the horizontal mode, and when the position of the reference pixel is only a position included in a pixel line adjacent to the left side of the target block is satisfied. , a process for determining a predetermined weighting factor is performed, and if the condition is not satisfied, a process different from the process is performed,
When the intra prediction mode is larger than the vertical mode, and when the position of the reference pixel is only the position included in the pixel line adjacent to the upper side of the target block is satisfied. performs a process of determining a predetermined weighting factor, and performs a process different from the process if the condition is not satisfied.
コンピュータを、請求項1に記載の予測装置として機能させるためのプログラム。 A program for causing a computer to function as the prediction device according to claim 1.
JP2021164113A 2016-05-13 2021-10-05 Prediction device and program Active JP7279128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021164113A JP7279128B2 (en) 2016-05-13 2021-10-05 Prediction device and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016097486A JP6956471B2 (en) 2016-05-13 2016-05-13 Coding device, decoding device and program
JP2021164113A JP7279128B2 (en) 2016-05-13 2021-10-05 Prediction device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016097486A Division JP6956471B2 (en) 2016-05-13 2016-05-13 Coding device, decoding device and program

Publications (2)

Publication Number Publication Date
JP2022017254A JP2022017254A (en) 2022-01-25
JP7279128B2 true JP7279128B2 (en) 2023-05-22

Family

ID=87888666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021164113A Active JP7279128B2 (en) 2016-05-13 2021-10-05 Prediction device and program

Country Status (1)

Country Link
JP (1) JP7279128B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6956471B2 (en) 2016-05-13 2021-11-02 日本放送協会 Coding device, decoding device and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6956471B2 (en) 2016-05-13 2021-11-02 日本放送協会 Coding device, decoding device and program

Also Published As

Publication number Publication date
JP2022017254A (en) 2022-01-25

Similar Documents

Publication Publication Date Title
JP6886528B2 (en) Video decoding method and equipment by intra-prediction in video coding system
US11665337B2 (en) Method and apparatus for encoding/decoding an image signal
KR102635983B1 (en) Methods of decoding using skip mode and apparatuses for using the same
RU2603542C2 (en) Method and apparatus for encoding video and method and apparatus for decoding video
US11750822B2 (en) Encoding device, decoding device, and program
KR101653039B1 (en) An appratus for scaling a resoltion using decoding information and a method thereof
US20180376150A1 (en) Encoding device, decoding device, and program
KR20200005648A (en) Intra prediction mode based image processing method and apparatus therefor
JP2023072035A (en) Decoder and program
JP6956471B2 (en) Coding device, decoding device and program
JP2023159443A (en) Decoding device and program
JP7279128B2 (en) Prediction device and program
JP7093152B2 (en) Encoding device, decoding device and program
JP7167212B2 (en) Encoding device, decoding device and program
JP7092455B2 (en) Encoding device, decoding device and program
JP7166743B2 (en) Encoding device, decoding device and program
JP7476279B2 (en) Encoding device, decoding device, and program
JP7449253B2 (en) Encoding device, decoding device and program
WO2023197998A1 (en) Extended block partition types for video coding
WO2024022144A1 (en) Intra prediction based on multiple reference lines
JP6740534B2 (en) Encoding device, decoding device and program
JP2017139758A (en) Coding apparatus, decoding apparatus, and program
JP2023024721A (en) Coding device, decoding device, and program
CN116530084A (en) Video codec using block-based deep learning model
KR20180040827A (en) Video coding method and apparatus using grouped coding uinit syntax

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R150 Certificate of patent or registration of utility model

Ref document number: 7279128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150