JP2020137119A - Intra prediction device, image coding device, image decoding device, and program - Google Patents

Intra prediction device, image coding device, image decoding device, and program Download PDF

Info

Publication number
JP2020137119A
JP2020137119A JP2020020957A JP2020020957A JP2020137119A JP 2020137119 A JP2020137119 A JP 2020137119A JP 2020020957 A JP2020020957 A JP 2020020957A JP 2020020957 A JP2020020957 A JP 2020020957A JP 2020137119 A JP2020137119 A JP 2020137119A
Authority
JP
Japan
Prior art keywords
prediction
image
unit
intra
weighting coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020020957A
Other languages
Japanese (ja)
Inventor
慎平 根本
Shimpei Nemoto
慎平 根本
俊輔 岩村
Shunsuke Iwamura
俊輔 岩村
井口 和久
Kazuhisa Iguchi
和久 井口
市ヶ谷 敦郎
Atsuro Ichigaya
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Publication of JP2020137119A publication Critical patent/JP2020137119A/en
Pending legal-status Critical Current

Links

Images

Abstract

To further improve a prediction accuracy of an intra prediction by a prediction image composition method.SOLUTION: An intra prediction device performs an intra prediction for an image block obtained by dividing an original image. The intra prediction device comprises: a first prediction image generation part that predicts the image block from a first intra prediction mode as a directional property prediction; a second prediction image generation part that generates a second prediction image by predicting the image block by a second intra prediction mode as a non-directional property prediction; a weighting coefficient determination part that determines a weighting coefficient used when performing a weighting composition of the first prediction image and the second prediction image on the basis of at least one of the block size and a block form of the image block; and an image composition part that performs the weighting composition of the first and second prediction images by using the weighting coefficient determined by the weighting coefficient determination part.SELECTED DRAWING: Figure 3

Description

本発明は、イントラ予測装置、画像符号化装置、画像復号装置、及びプログラムに関す
る。
The present invention relates to an intra prediction device, an image coding device, an image decoding device, and a program.

静止画像や動画像の伝送時や保存時のデータ量圧縮のため、映像符号化方式の研究が行
われている。近年、映像符号化技術では8K−SHVに代表されるような超高解像度映像
の普及が進んでおり、膨大なデータ量の動画像を伝送するための手法としてAVC/H.
264やHEVC/H.265などの符号化方式が知られている。
Research on video coding methods is being conducted to compress the amount of data during transmission and storage of still images and moving images. In recent years, in video coding technology, ultra-high resolution video represented by 8K-SHV has become widespread, and AVC / H.A. is used as a method for transmitting a moving image of a huge amount of data.
264 and HEVC / H. Coding methods such as 265 are known.

MPEG及びITUが合同で標準化を行っている次世代映像符号化方式であるVVCの
評価用ソフトウェア(VTM)では、フレーム内の空間的な相関を利用したイントラ予測
が利用されている(非特許文献1参照)。符号化対象の画像ブロックの周辺の復号済み参
照画素を利用して、Planar予測、DC予測、及び65通りの方向性予測の、計67
通りの予測モードから、エンコーダ側で最適なモードが選択され、その情報がデコーダ側
へ送られる。
Intra-prediction using spatial correlation within a frame is used in VVC evaluation software (VTM), which is a next-generation video coding method jointly standardized by MPEG and ITU (Non-Patent Documents). 1). Using the decoded reference pixels around the image block to be encoded, Planar prediction, DC prediction, and 65 directional predictions, a total of 67
From the street prediction mode, the optimum mode is selected on the encoder side, and that information is sent to the decoder side.

イントラ予測の予測精度を高めるための手法として、2つのイントラ予測モードにより
それぞれ予測画像を生成し、2つの予測画像の各画素を足し合わせて新しい予測画像を生
成する予測画像合成手法が提案されている(非特許文献2参照)。具体的には、上述の6
5通りの方向性予測のうちいずれかのモードによって生成した予測画像である方向性予測
画像と、Planarモードによって生成した予測画像であるPlanar予測画像とを
足し合わせて予測画像を生成する。
As a method for improving the prediction accuracy of intra-prediction, a prediction image synthesis method has been proposed in which a prediction image is generated in each of the two intra prediction modes and each pixel of the two prediction images is added to generate a new prediction image. (See Non-Patent Document 2). Specifically, 6 above
A prediction image is generated by adding a direction prediction image, which is a prediction image generated by any of the five modes of direction prediction, and a Planar prediction image, which is a prediction image generated by the Planar mode.

JVET−L1001 “Versatile Video Coding (Draft 3)”JVET-L1001 "Versatile Video Coding (Draft 3)" JVET−M0458 “Non−CE3: Combined-Hypothesis Intra−Prediction”JVET-M0458 “Non-CE3: Combined-Hypothesis Intra-Prescription”

ところで、方向性予測は、参照画素に近い位置の画素については予測の精度が高いもの
の、参照画素から遠ざかるにつれて予測の精度が低くなりうるという欠点を有する。
By the way, the directional prediction has a drawback that the prediction accuracy is high for a pixel at a position close to the reference pixel, but the prediction accuracy may decrease as the distance from the reference pixel increases.

しかしながら、非特許文献2に記載の予測画像合成手法は、方向性予測画像とPlan
ar予測画像とを単に画素単位で平均化するに過ぎないものであって、方向性予測の欠点
について考慮しておらず、イントラ予測の予測精度をさらに高める点において改善の余地
があった。
However, the predictive image synthesis method described in Non-Patent Document 2 includes a directional predictive image and a Plan.
It merely averages the ar prediction image on a pixel-by-pixel basis, does not consider the drawbacks of directional prediction, and there is room for improvement in further improving the prediction accuracy of intra prediction.

そこで、本発明は、予測画像合成手法によりイントラ予測の予測精度をさらに高めるイ
ントラ予測装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的
とする。
Therefore, an object of the present invention is to provide an intra-prediction device, an image coding device, an image decoding device, and a program that further enhance the prediction accuracy of intra-prediction by a predictive image synthesis method.

第1の態様に係るイントラ予測装置は、原画像を分割して得た画像ブロックに対するイ
ントラ予測を行う。前記イントラ予測装置は、方向性予測である第1イントラ予測モード
により前記画像ブロックを予測して第1予測画像を生成する第1予測画像生成部と、非方
向性予測である第2イントラ予測モードにより前記画像ブロックを予測して第2予測画像
を生成する第2予測画像生成部と、前記画像ブロックのブロックサイズ及びブロック形状
のうち少なくとも一方に基づいて、前記第1予測画像及び前記第2予測画像を重み付け合
成する際に用いる重み係数を決定する重み係数決定部と、前記重み係数決定部により決定
された前記重み係数を用いて、前記第1予測画像及び前記第2予測画像を重み付け合成す
る画像合成部とを備える。
The intra prediction device according to the first aspect performs intra prediction for an image block obtained by dividing an original image. The intra prediction device includes a first prediction image generation unit that predicts the image block by a first intra prediction mode that is directional prediction and generates a first prediction image, and a second intra prediction mode that is non-directional prediction. Based on at least one of the block size and block shape of the image block and the second prediction image generation unit that predicts the image block and generates the second prediction image, the first prediction image and the second prediction image. The first predicted image and the second predicted image are weighted and synthesized using the weighting coefficient determining unit that determines the weighting coefficient used when weighting and synthesizing the images and the weighting coefficient determined by the weighting coefficient determining unit. It is equipped with an image compositing unit.

第2の態様に係る画像符号化装置は、第1の態様に係るイントラ予測装置を備える。 The image coding device according to the second aspect includes an intra prediction device according to the first aspect.

第3の態様に係る画像復号装置は、第1の態様に係るイントラ予測装置を備える。 The image decoding device according to the third aspect includes an intra prediction device according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係るイントラ予測装置と
して機能させる。
The program according to the fourth aspect causes the computer to function as the intra prediction device according to the first aspect.

本発明によれば、予測画像合成手法によりイントラ予測の予測精度をさらに高めるイン
トラ予測装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。
According to the present invention, it is possible to provide an intra-prediction device, an image coding device, an image decoding device, and a program that further enhance the prediction accuracy of intra-prediction by a predictive image synthesis method.

実施形態に係る画像符号化装置の構成を示す図である。It is a figure which shows the structure of the image coding apparatus which concerns on embodiment. 実施形態に係るイントラ予測の予測モードを示す図である。It is a figure which shows the prediction mode of the intra prediction which concerns on embodiment. 実施形態に係る画像符号化装置のイントラ予測部の構成を示す図である。It is a figure which shows the structure of the intra prediction part of the image coding apparatus which concerns on embodiment. 実施形態に係るイントラ予測部の動作例を示す図である。It is a figure which shows the operation example of the intra prediction part which concerns on embodiment. 実施形態に係る重み係数決定部の動作例1を示す図である。It is a figure which shows the operation example 1 of the weighting coefficient determination part which concerns on embodiment. 実施形態に係る重み係数決定部の動作例2を示す図である。It is a figure which shows the operation example 2 of the weighting coefficient determination part which concerns on embodiment. 実施形態に係る画像復号装置の構成を示す図である。It is a figure which shows the structure of the image decoding apparatus which concerns on embodiment. 実施形態に係る画像復号装置のイントラ予測部の構成を示す図である。It is a figure which shows the structure of the intra prediction part of the image decoding apparatus which concerns on embodiment. 実施形態に係るイントラ予測部の動作フロー例を示す図である。It is a figure which shows the operation flow example of the intra prediction part which concerns on embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。
実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化
及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は
類似の符号を付している。
The image coding apparatus and the image decoding apparatus according to the embodiment will be described with reference to the drawings.
The image coding device and the image decoding device according to the embodiment encode and decode a moving image represented by MPEG, respectively. In the description of the drawings below, the same or similar parts are designated by the same or similar reference numerals.

<画像符号化装置の構成>
まず、本実施形態に係る画像符号化装置について説明する。図1は、本実施形態に係る
画像符号化装置1の構成を示す図である。
<Configuration of image coding device>
First, the image coding apparatus according to the present embodiment will be described. FIG. 1 is a diagram showing a configuration of an image coding device 1 according to the present embodiment.

図1に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、
変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と
、合成部150と、メモリ160と、予測部170とを有する。
As shown in FIG. 1, the image coding apparatus 1 includes a block dividing unit 100, a subtracting unit 110, and the same.
It has a conversion / quantization unit 120, an entropy coding unit 130, an inverse quantization / inverse conversion unit 140, a synthesis unit 150, a memory 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画
像である原画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部1
10に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8
×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず長方形(矩形
)であってもよい。画像ブロックは、画像符号化装置1が符号化を行う単位(符号化対象
ブロック)であり、且つ画像復号装置が復号を行う単位(復号対象ブロック)である。か
かる画像ブロックはCU(Coding Unit)と呼ばれることがある。
The block division unit 100 divides the original image, which is an input image for each frame (or picture) constituting the moving image, into a plurality of image blocks, and the image block obtained by the division is subtracted from the subtraction unit 1.
Output to 10. The size of the image block is, for example, 32 × 32 pixels, 16 × 16 pixels, 8
It is × 8 pixels, 4 × 4 pixels, or the like. The shape of the image block is not limited to a square and may be a rectangle (rectangle). The image block is a unit for encoding by the image coding device 1 (encoding target block) and a unit for decoding by the image decoding device (decoding target block). Such an image block may be called a CU (Coding Unit).

減算部110は、ブロック分割部100から入力された符号化対象ブロックと、符号化
対象ブロックを予測部170が予測して得た予測画像との差分(誤差)を表す予測残差を
算出する。具体的には、減算部110は、ブロックの各画素値から予測画像の各画素値を
減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力
する。
The subtraction unit 110 calculates a prediction residual representing a difference (error) between the coding target block input from the block division unit 100 and the prediction image obtained by predicting the coding target block by the prediction unit 170. Specifically, the subtraction unit 110 calculates the prediction residual by subtracting each pixel value of the prediction image from each pixel value of the block, and outputs the calculated prediction residual to the conversion / quantization unit 120.

変換・量子化部120は、ブロック単位で直交変換処理及び量子化処理を行う。変換・
量子化部120は、変換部121と、量子化部122とを有する。
The conversion / quantization unit 120 performs orthogonal conversion processing and quantization processing in block units. conversion·
The quantization unit 120 includes a conversion unit 121 and a quantization unit 122.

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って
直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換と
は、例えば、離散コサイン変換(DCT:Discrete Cosine Trans
form)や離散サイン変換(DST:Discrete Sine Transfor
m)、カルーネンレーブ変換(KLT: Karhunen-Loeve Transfo
rm)等をいう。
The conversion unit 121 performs orthogonal conversion processing on the predicted residual input from the subtraction unit 110 to calculate the orthogonal conversion coefficient, and outputs the calculated orthogonal conversion coefficient to the quantization unit 122. The orthogonal transform is, for example, the Discrete Cosine Transform (DCT).
form) and discrete sine conversion (DST: Discrete Sine Transfer)
m), Karhunen-Loeve Transfer (KLT: Karhunen-Loeve Transfo)
rm) etc.

量子化部122は、変換部121から入力された直交変換係数を量子化パラメータ(Q
p)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部
130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、
ブロック内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の
粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化
値を要素として有する行列である。
The quantization unit 122 uses the orthogonal conversion coefficient input from the conversion unit 121 as a quantization parameter (Q).
It is quantized using p) and the quantization matrix, and the quantized orthogonal conversion coefficient is output to the entropy coding unit 130 and the inverse quantization / inverse conversion unit 140. The quantization parameter (Qp) is
It is a parameter that is commonly applied to each orthogonal conversion coefficient in the block and determines the roughness of quantization. The quantization matrix is a matrix having a quantization value as an element when quantizing each orthogonal conversion coefficient.

エントロピー符号化部130は、量子化部122から入力された直交変換係数に対して
エントロピー符号化を行い、データ圧縮を行って符号化データ(ビットストリーム)を生
成し、符号化データを画像符号化装置1の外部に出力する。エントロピー符号化には、ハ
フマン符号やCABAC(Context−based Adaptive Binar
y Arithmetic Coding;コンテキスト適応型2値算術符号)等を用い
ることができる。なお、エントロピー符号化部130は、予測部170から予測に関する
シンタックス等の情報が入力され、入力された情報のエントロピー符号化も行う。
The entropy coding unit 130 performs entropy coding on the orthogonal conversion coefficient input from the quantization unit 122, performs data compression to generate coded data (bit stream), and image-codes the coded data. Output to the outside of device 1. For entropy coding, Huffman code or CABAC (Context-based Adaptive Binar)
y Arithmetic Coding; context-adaptive binary arithmetic coding) and the like can be used. The entropy coding unit 130 receives information such as syntax related to prediction from the prediction unit 170, and also performs entropy coding of the input information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆直交変換処理を行う
。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。
The inverse quantization / inverse conversion unit 140 performs inverse quantization processing and inverse orthogonal conversion processing in block units. The inverse quantization / inverse conversion unit 140 includes an inverse quantization unit 141 and an inverse conversion unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う
。具体的には、逆量子化部141は、量子化部122から入力された直交変換係数を、量
子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を
復元し、復元した直交変換係数を逆変換部142に出力する。
The inverse quantization unit 141 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122. Specifically, the inverse quantization unit 141 restores the orthogonal conversion coefficient by inversely quantizing the orthogonal conversion coefficient input from the quantization unit 122 using the quantization parameter (Qp) and the quantization matrix. , The restored orthogonal conversion coefficient is output to the inverse conversion unit 142.

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う
。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散
コサイン変換を行う。逆変換部142は、逆量子化部141から入力された直交変換係数
に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残
差を合成部150に出力する。
The inverse conversion unit 142 performs an inverse orthogonal conversion process corresponding to the orthogonal conversion process performed by the conversion unit 121. For example, when the conversion unit 121 performs the discrete cosine transform, the inverse transform unit 142 performs the inverse discrete cosine transform. The inverse conversion unit 142 performs an inverse orthogonal conversion process on the orthogonal conversion coefficient input from the inverse quantization unit 141 to restore the predicted residual, and the restored predicted residual, which is the restored predicted residual, is combined with the composite unit 150. Output to.

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入
力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予
測画像の各画素値を加算して符号化対象ブロックを再構成(復号)し、復号したブロック
単位の復号画像をメモリ160に出力する。かかる復号画像は、再構成画像と呼ばれるこ
とがある。
The synthesizing unit 150 synthesizes the restoration prediction residual input from the inverse conversion unit 142 with the prediction image input from the prediction unit 170 in pixel units. The synthesizing unit 150 adds each pixel value of the restoration prediction residual and each pixel value of the predicted image to reconstruct (decode) the coded block, and outputs the decoded image of the decoded block unit to the memory 160. Such a decoded image may be referred to as a reconstructed image.

メモリ160は、合成部150から入力された復号画像を記憶する。メモリ160は、
復号画像をフレーム単位で記憶する。メモリ160は、記憶している復号画像を予測部1
70に出力する。なお、合成部150とメモリ160との間にループフィルタが設けられ
てもよい。なお、メモリ160の一部は、予測部170に含まれていてもよい。
The memory 160 stores the decoded image input from the compositing unit 150. Memory 160
The decoded image is stored in frame units. The memory 160 predicts the stored decoded image in the prediction unit 1.
Output to 70. A loop filter may be provided between the compositing unit 150 and the memory 160. A part of the memory 160 may be included in the prediction unit 170.

予測部170は、ブロック単位で予測を行う。予測部170は、インター予測部171
と、イントラ予測部172と、切替部173とを有する。
The prediction unit 170 makes a prediction in block units. The prediction unit 170 is an inter prediction unit 171.
And an intra prediction unit 172 and a switching unit 173.

インター予測部171は、メモリ160に記憶された復号画像を参照画像として用いて
、ブロックマッチングなどの手法により動きベクトルを算出し、符号化対象ブロックを予
測してインター予測画像を生成し、生成したインター予測画像を切替部173に出力する
The inter-prediction unit 171 uses the decoded image stored in the memory 160 as a reference image, calculates a motion vector by a method such as block matching, predicts a block to be encoded, and generates an inter-prediction image. The inter-prediction image is output to the switching unit 173.

インター予測部171は、複数の参照画像を用いるインター予測(典型的には、双予測
)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測
方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部
171は、インター予測に関する情報(動きベクトル等)をエントロピー符号化部130
に出力する。
The inter-prediction unit 171 selects the optimum inter-prediction method from inter-prediction using a plurality of reference images (typically bi-prediction) and inter-prediction using one reference image (one-way prediction). Inter-prediction is performed using the selected inter-prediction method. The inter-prediction unit 171 inputs information (motion vector, etc.) related to the inter-prediction to the entropy coding unit 130.
Output to.

イントラ予測部172は、メモリ160に記憶された復号画像のうち、符号化対象ブロ
ックの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予
測画像を切替部173に出力する。また、イントラ予測部172は、選択した予測モード
に関するシンタックスをエントロピー符号化部130に出力する。以下において、イント
ラ予測の対象となるブロックをイントラ予測対象ブロックと呼ぶ。
The intra prediction unit 172 generates an intra prediction image by referring to the decoded pixel values around the coded block among the decoded images stored in the memory 160, and outputs the generated intra prediction image to the switching unit 173. To do. Further, the intra prediction unit 172 outputs the syntax related to the selected prediction mode to the entropy coding unit 130. In the following, a block that is the target of intra-prediction will be referred to as an intra-prediction target block.

イントラ予測部172は、複数の予測モードの中から、イントラ予測対象ブロックに適
用する最適な予測モードを選択し、選択した予測モードを用いてイントラ予測対象ブロッ
クを予測する。
The intra prediction unit 172 selects the optimum prediction mode to be applied to the intra prediction target block from the plurality of prediction modes, and predicts the intra prediction target block using the selected prediction mode.

図2は、本実施形態に係るイントラ予測の予測モードを示す図である。図2に示すよう
に、0から66までの67通りの予測モードがある。予測モードのモード「0」はPla
nar予測であり、予測モードのモード「1」はDC予測であり、予測モードのモード「
2」乃至「66」は方向性予測である。方向性予測において、矢印の方向は予測方向を示
し、矢印の起点は予測対象の画素の位置を示し、矢印の終点はこの予測対象画素の予測に
用いる参照画素の位置を示す。モード「2」〜「33」は、イントラ予測の対象ブロック
の左側の参照画素を主として参照する予測モードである。一方で、モード「35」〜「6
6」は、イントラ予測の対象ブロックの上側の参照画素を主として参照する予測モードで
ある。
FIG. 2 is a diagram showing a prediction mode of intra prediction according to the present embodiment. As shown in FIG. 2, there are 67 prediction modes from 0 to 66. Prediction mode mode "0" is Pla
nar prediction, prediction mode mode "1" is DC prediction, prediction mode mode "1"
"2" to "66" are direction predictions. In the directionality prediction, the direction of the arrow indicates the prediction direction, the starting point of the arrow indicates the position of the pixel to be predicted, and the end point of the arrow indicates the position of the reference pixel used for predicting the pixel to be predicted. Modes "2" to "33" are prediction modes that mainly refer to the reference pixel on the left side of the target block for intra prediction. On the other hand, modes "35" to "6"
6 ”is a prediction mode in which the reference pixel on the upper side of the target block for intra prediction is mainly referred to.

切替部173は、インター予測部171から入力されるインター予測画像とイントラ予
測部172から入力されるイントラ予測画像とを切り替えて、いずれかの予測画像を減算
部110及び合成部150に出力する。
The switching unit 173 switches between the inter prediction image input from the inter prediction unit 171 and the intra prediction image input from the intra prediction unit 172, and outputs one of the prediction images to the subtraction unit 110 and the synthesis unit 150.

図3は、本実施形態に係るイントラ予測部172の構成を示す図である。イントラ予測
部172は、画像符号化装置1に設けられるイントラ予測装置に相当する。
FIG. 3 is a diagram showing the configuration of the intra prediction unit 172 according to the present embodiment. The intra prediction unit 172 corresponds to an intra prediction device provided in the image coding device 1.

図3に示すように、イントラ予測部172は、メモリ160aと、第1予測画像生成部
172aと、第2予測画像生成部172bと、重み係数決定部172cと、画像合成部1
72dとを有する。
As shown in FIG. 3, the intra prediction unit 172 includes a memory 160a, a first prediction image generation unit 172a, a second prediction image generation unit 172b, a weighting coefficient determination unit 172c, and an image composition unit 1.
It has 72d and.

メモリ160aは、図1に示すメモリ160の一部である。メモリ160aは、イント
ラ予測の際に参照される復号済み画素である参照画素を記憶する。
The memory 160a is a part of the memory 160 shown in FIG. The memory 160a stores reference pixels, which are decoded pixels that are referred to during intra-prediction.

第1予測画像生成部172aは、方向性予測である第1イントラ予測モードによりイン
トラ予測対象ブロックを予測して方向性予測画像(第1予測画像)を生成し、生成した方
向性予測画像を画像合成部172dに出力する。具体的には、第1予測画像生成部172
aは、メモリ160aに記憶された参照画素を参照し、65通りの方向性予測のうちいず
れかのモードによって方向性予測画像を生成する。
The first prediction image generation unit 172a predicts the intra prediction target block by the first intra prediction mode, which is the direction prediction, generates a direction prediction image (first prediction image), and images the generated direction prediction image. It is output to the synthesis unit 172d. Specifically, the first prediction image generation unit 172
a refers to the reference pixel stored in the memory 160a, and generates a directional prediction image in any mode of 65 directional predictions.

第2予測画像生成部172bは、非方向性予測である第2イントラ予測モードによりイ
ントラ予測対象ブロックを予測して予測画像(第2予測画像)を生成し、生成した予測画
像を画像合成部172dに出力する。具体的には、第2予測画像生成部172bは、メモ
リ160aに記憶された参照画素を参照し、予め定められた非方向性の第2イントラ予測
モードによって方向性予測画像を生成する。
The second prediction image generation unit 172b predicts the intra prediction target block by the second intra prediction mode, which is non-directional prediction, generates a prediction image (second prediction image), and generates a prediction image (second prediction image), and the generated prediction image is generated by the image synthesis unit 172d. Output to. Specifically, the second prediction image generation unit 172b refers to the reference pixel stored in the memory 160a and generates a directional prediction image in a predetermined non-directional second intra prediction mode.

第2イントラ予測モードは、非方向性の予測モードであればどのような予測モードであ
ってもよいが、本実施形態において第2イントラ予測モードがPlanar予測である一
例について説明する。
The second intra prediction mode may be any prediction mode as long as it is a non-directional prediction mode, but an example in which the second intra prediction mode is a Planar prediction will be described in the present embodiment.

重み係数決定部172cは、イントラ予測対象ブロックのブロックサイズ及びブロック
形状のうち少なくとも一方に基づいて重み係数を決定し、決定した重み係数を画像合成部
172dに出力する。重み係数決定部172cが出力する重み係数は、第1予測画像生成
部172aが生成する方向性予測画像及び第2予測画像生成部172bが生成するPla
nar予測画像を重み付け合成する際に用いられる。
The weighting coefficient determining unit 172c determines the weighting coefficient based on at least one of the block size and the block shape of the intra-prediction target block, and outputs the determined weighting coefficient to the image composition unit 172d. The weighting coefficient output by the weighting coefficient determining unit 172c is a directional prediction image generated by the first prediction image generation unit 172a and a Pla generated by the second prediction image generation unit 172b.
It is used when weighting and synthesizing nar prediction images.

画像合成部172dは、重み係数決定部172cから入力された重み係数を用いて、第
1予測画像生成部172aから入力された方向性予測画像及び第2予測画像生成部172
bから入力されたPlanar予測画像を重み付け合成し、重み付け合成後の予測画像を
イントラ予測画像として出力する。
The image synthesizing unit 172d uses the weighting coefficient input from the weighting coefficient determining unit 172c to generate the directional prediction image and the second predicted image generation unit 172 input from the first prediction image generation unit 172a.
The Planar prediction image input from b is weighted and synthesized, and the predicted image after weighting and synthesis is output as an intra prediction image.

図4は、本実施形態に係るイントラ予測部172の動作例を示す図である。図4におい
て、イントラ予測対象ブロックが8×8画素の正方形状である一例を例示しているが、イ
ントラ予測対象ブロックは正方形でなくてもよい。また、図4における黒丸は参照画素を
表す。
FIG. 4 is a diagram showing an operation example of the intra prediction unit 172 according to the present embodiment. In FIG. 4, an example in which the intra-prediction target block has a square shape of 8 × 8 pixels is illustrated, but the intra-prediction target block does not have to be a square. The black circles in FIG. 4 represent reference pixels.

図4(a)に示すように、第2予測画像生成部172bは、Planar予測によりイ
ントラ予測対象ブロックを予測してPlanar予測画像を生成する。具体的には、Pl
anar予測は、図4(a)に示す4つの参照画素を用いて内挿予測により予測画素値
を生成するものである。
As shown in FIG. 4A, the second prediction image generation unit 172b predicts the intra-prediction target block by the Planar prediction and generates the Planar prediction image. Specifically, Pl
In the anar prediction, the predicted pixel value is generated by interpolation prediction using the four reference pixels shown in FIG. 4A.

図4(b)に示すように、第1予測画像生成部172aは、方向性予測モードによりイ
ントラ予測対象ブロックを予測して方向性予測画像を生成する。方向性予測は、参照画素
を予測方向に沿って外挿して予測画素値を生成するものであるため、参照画素に近い位置
の画素については予測の精度が高いものの、参照画素から遠ざかるにつれて予測の精度が
低くなりうるという欠点を有する。
As shown in FIG. 4B, the first prediction image generation unit 172a predicts the intra-prediction target block in the direction prediction mode and generates a direction prediction image. In directional prediction, the reference pixel is extrapolated along the prediction direction to generate the predicted pixel value. Therefore, although the prediction accuracy is high for the pixel at the position close to the reference pixel, the prediction is made as the distance from the reference pixel increases. It has the disadvantage that the accuracy can be low.

重み係数決定部172cは、イントラ予測対象ブロックのブロックサイズ及びブロック
形状のうち少なくとも一方に基づいて重み係数を決定する。本実施形態において、重み係
数決定部172cは、Planar予測画像に適用する重み係数α(第2重み係数)と、
方向性予測画像に適用する重み係数β(第1重み係数)とを決定する。
The weighting coefficient determining unit 172c determines the weighting coefficient based on at least one of the block size and the block shape of the intra-prediction target block. In the present embodiment, the weighting coefficient determining unit 172c has a weighting coefficient α (second weighting coefficient) applied to the Planar prediction image and
The weighting coefficient β (first weighting coefficient) applied to the direction prediction image is determined.

図4(c)に示すように、画像合成部172dは、第1予測画像生成部172aが生成
した方向性予測画像の画素ごとに重み係数βを適用するとともに、第2予測画像生成部1
72bが生成したPlanar予測画像の画素ごとに重み係数αを適用し、且つ、方向性
予測画像及びPlanar予測画像を画素単位で合成し、合成後の予測画像をイントラ予
測画像として出力する。
As shown in FIG. 4C, the image synthesizing unit 172d applies a weighting coefficient β to each pixel of the directional prediction image generated by the first prediction image generation unit 172a, and the second prediction image generation unit 1
A weighting coefficient α is applied to each pixel of the Planar prediction image generated by 72b, the direction prediction image and the Planar prediction image are combined in pixel units, and the combined prediction image is output as an intra prediction image.

図5は、本実施形態に係る重み係数決定部172cの動作例1を示す図である。図5に
おいて、「小さい一辺の長さ」は、矩形状のイントラ予測対象ブロックの短辺の長さを画
素数で表したものである。すなわち、「小さい一辺の長さ」は、イントラ予測対象ブロッ
クのブロックサイズを表す。一方、図5の「α:β」は、重み係数αの重み係数βに対す
る比を表す。
FIG. 5 is a diagram showing an operation example 1 of the weighting coefficient determining unit 172c according to the present embodiment. In FIG. 5, the “small side length” represents the length of the short side of the rectangular intra-prediction target block in terms of the number of pixels. That is, the "small side length" represents the block size of the intra-prediction target block. On the other hand, “α: β” in FIG. 5 represents the ratio of the weighting coefficient α to the weighting coefficient β.

ここではイントラ予測対象ブロックのブロックサイズを示す一例として「小さい一辺の
長さ」を提示したが、ほかの例として「ブロックの幅+ブロックの高さ」や「ブロックの
幅×ブロックの高さ」などを用いても構わない。
Here, "small side length" is presented as an example showing the block size of the intra-prediction target block, but "block width + block height" and "block width x block height" are other examples. Etc. may be used.

図5に示すように、重み係数決定部172cは、イントラ予測対象ブロックのブロック
サイズが大きくなるにつれて、方向性予測画像の重み(β)に対するPlanar予測画
像の重み(α)の比を大きくするように、重み係数α及びβを決定する。
As shown in FIG. 5, the weighting coefficient determining unit 172c increases the ratio of the weight (α) of the Planar prediction image to the weight (β) of the direction prediction image as the block size of the intra prediction target block increases. In addition, the weighting coefficients α and β are determined.

図5に示す例において、ブロックサイズが「8」である場合、Planar予測画像の
重み(α)と方向性予測画像の重み(β)とが等しい。この場合、画像合成部172dは
、Planar予測画像と方向性予測画像との平均をとって得た予測画像をイントラ予測
画像として出力する。以下において、ブロックサイズ「8」を基準ブロックサイズと呼ぶ
In the example shown in FIG. 5, when the block size is “8”, the weight (α) of the Planar predicted image and the weight (β) of the directional predicted image are equal. In this case, the image synthesizing unit 172d outputs a predicted image obtained by averaging the Planar predicted image and the directional predicted image as an intra predicted image. In the following, the block size "8" will be referred to as a reference block size.

基準ブロックサイズよりも小さいブロックサイズ「4」である場合、重み係数決定部1
72cは、Planar予測画像の重み(α=1)が方向性予測画像の重み(β=2)よ
りも小さくなるように重み係数α及びβを決定する。この場合、画像合成部172dが出
力するイントラ予測画像のうちPlanar予測画像の占める割合が小さくなる。
When the block size is "4", which is smaller than the reference block size, the weighting coefficient determination unit 1
In 72c, the weighting coefficients α and β are determined so that the weight (α = 1) of the Planar predicted image is smaller than the weight (β = 2) of the directional prediction image. In this case, the ratio of the Planar predicted image to the intra predicted image output by the image synthesizing unit 172d becomes small.

一方、重み係数決定部172cは、基準ブロックサイズよりもブロックサイズが大きく
なるにつれて、Planar予測画像の重み(α)が方向性予測画像の重み(β)よりも
大きくなるように重み係数α及びβを決定する。この場合、画像合成部172dが出力す
るイントラ予測画像のうちPlanar予測画像の占める割合が大きくなる。
On the other hand, the weighting coefficient determining unit 172c has weighting coefficients α and β so that the weight (α) of the Planar predicted image becomes larger than the weight (β) of the directional prediction image as the block size becomes larger than the reference block size. To determine. In this case, the ratio of the Planar predicted image to the intra predicted image output by the image synthesizing unit 172d becomes large.

ここで、方向性予測においては、イントラ予測対象ブロックのブロックサイズが大きく
なるほど、参照画素から遠い画素の予測精度が低くなりうる。このため、Planar予
測画像の占める割合を大きくし、且つ、方向性予測画像の占める割合を小さくするように
重み係数α及びβを決定することにより、予測精度を改善できる。
Here, in the directionality prediction, the larger the block size of the intra-prediction target block, the lower the prediction accuracy of the pixel far from the reference pixel. Therefore, the prediction accuracy can be improved by determining the weighting coefficients α and β so as to increase the proportion of the Planar prediction image and decrease the proportion of the directional prediction image.

なお、図5に示す重み係数α及びβの決定方法は一例であって、重み係数α及びβの具
体的な値については図5に示す例に限定されるものではない。
The method for determining the weighting coefficients α and β shown in FIG. 5 is an example, and the specific values of the weighting coefficients α and β are not limited to the example shown in FIG.

図6は、本実施形態に係る重み係数決定部172cの動作例2を示す図である。図6に
おいて、「width/heightまたはheight/widthの大きい方」は、
イントラ予測対象ブロックについて、幅(width)/高さ(height)の値、高
さ(height)/幅(width)の値のうち、大きい方の値である。すなわち、「
width/heightまたはheight/widthの大きい方」は、イントラ予
測対象ブロックが細長形状であるほど大きくなる値である。一方、図6の「α:β」は、
重み係数αの重み係数βに対する比を表す。
FIG. 6 is a diagram showing an operation example 2 of the weighting coefficient determining unit 172c according to the present embodiment. In FIG. 6, "the larger of might / height or height / width" is
For the intra-prediction target block, it is the larger value of the width (wise) / height (height) value and the height (height) / width (wise) value. That is, "
“Which / height or height / width is larger” is a value that becomes larger as the intra-prediction target block has an elongated shape. On the other hand, "α: β" in FIG. 6 is
It represents the ratio of the weighting coefficient α to the weighting coefficient β.

図6に示すように、重み係数決定部172cは、矩形状のイントラ予測対象ブロックの
短辺に対する長辺の比が大きくなるにつれて、方向性予測画像の重み(β)に対するPl
anar予測画像の重み(α)の比を小さくするように、重み係数α及びβを決定する。
なお、短辺とは矩形の短い方の辺をいい、長辺とは矩形の長い方の辺をいう。
As shown in FIG. 6, the weighting coefficient determining unit 172c has a Pl of the weight (β) of the directional prediction image as the ratio of the long side to the short side of the rectangular intra-prediction target block increases.
The weighting coefficients α and β are determined so as to reduce the ratio of the weights (α) of the anar predicted image.
The short side means the short side of the rectangle, and the long side means the long side of the rectangle.

言い換えると、重み係数決定部172cは、イントラ予測対象ブロックが細長形状であ
るほど、方向性予測画像の重み(β)に対するPlanar予測画像の重み(α)の比を
小さくするように、重み係数α及びβを決定する。
In other words, the weighting coefficient determination unit 172c reduces the ratio of the weight (α) of the Planar prediction image to the weight (β) of the direction prediction image as the intra-prediction target block has an elongated shape. And β are determined.

図6に示す例において、「width/heightまたはheight/width
の大きい方」が「1」である場合、すなわち、イントラ予測対象ブロックが正方形である
場合、Planar予測画像の重み(α)と方向性予測画像の重み(β)とが等しい。こ
の場合、画像合成部172dは、Planar予測画像と方向性予測画像との平均をとっ
て得た予測画像をイントラ予測画像として出力する。以下において、正方形のイントラ予
測対象ブロックを基準形状と呼ぶ。
In the example shown in FIG. 6, "wise / height or height / width"
When "the larger one" is "1", that is, when the intra-prediction target block is square, the weight (α) of the Planar prediction image and the weight (β) of the direction prediction image are equal. In this case, the image synthesizing unit 172d outputs a predicted image obtained by averaging the Planar predicted image and the directional predicted image as an intra predicted image. In the following, the square intra-prediction target block will be referred to as a reference shape.

重み係数決定部172cは、イントラ予測対象ブロックが基準形状(正方形)から細長
形状に変化するにつれて、Planar予測画像の重み(α)が方向性予測画像の重み(
β)よりも小さくなるように重み係数α及びβを決定する。この場合、画像合成部172
dが出力するイントラ予測画像のうちPlanar予測画像の占める割合が小さくなる。
In the weight coefficient determination unit 172c, as the intra-prediction target block changes from the reference shape (square) to the elongated shape, the weight (α) of the Planar prediction image becomes the weight of the direction prediction image (
The weighting coefficients α and β are determined so as to be smaller than β). In this case, the image composition unit 172
The ratio of the Planar predicted image to the intra predicted image output by d becomes smaller.

ここで、方向性予測においては、イントラ予測対象ブロックが細長形状であるほど、参
照画素から遠く離れた画素を予測する可能性が小さくなり、予測精度が高くなりうる。こ
のため、Planar予測画像の占める割合を小さくし、且つ、方向性予測画像の占める
割合を大きくするように重み係数α及びβを決定することにより、予測精度を改善できる
Here, in the directionality prediction, the longer the intra-prediction target block is, the less likely it is to predict a pixel far away from the reference pixel, and the higher the prediction accuracy can be. Therefore, the prediction accuracy can be improved by determining the weighting coefficients α and β so as to reduce the proportion of the Planar prediction image and increase the proportion of the directional prediction image.

なお、図6に示す重み係数α及びβの決定方法は一例であって、重み係数α及びβの具
体的な値については図6に示す例に限定されるものではない。
The method for determining the weighting coefficients α and β shown in FIG. 6 is an example, and the specific values of the weighting coefficients α and β are not limited to the example shown in FIG.

また、重み係数決定部172cの動作例1と動作例2とを組み合わせて実施してもよい
。例えば、「小さい一辺の長さ」(すなわち、ブロックサイズ)の値ごとに、図6のよう
なテーブルを別々に定義してもよい。或いは、「width/heightまたはhei
ght/widthの大きい方」の値ごとに、図5のようなテーブルを別々に定義しても
よい。
Further, the operation example 1 and the operation example 2 of the weighting coefficient determining unit 172c may be combined and carried out. For example, a table as shown in FIG. 6 may be defined separately for each value of "small side length" (that is, block size). Alternatively, "wise / height or hei"
A table as shown in FIG. 5 may be defined separately for each value of “ght / width larger”.

<画像復号装置の構成>
次に、本実施形態に係る画像復号装置について説明する。図7は、本実施形態に係る画
像復号装置2の構成を示す図である。
<Configuration of image decoding device>
Next, the image decoding device according to the present embodiment will be described. FIG. 7 is a diagram showing the configuration of the image decoding device 2 according to the present embodiment.

図7に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変
換部210と、合成部220と、メモリ230と、予測部240とを有する。
As shown in FIG. 7, the image decoding device 2 includes an entropy decoding unit 200, an inverse quantization / inverse conversion unit 210, a synthesis unit 220, a memory 230, and a prediction unit 240.

エントロピー復号部200は、画像符号化装置1により生成された符号化データを復号
し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロ
ピー復号部200は、予測(イントラ予測及びインター予測)に関するシンタックスを取
得し、取得したシンタックスを予測部240に出力する。
The entropy decoding unit 200 decodes the coded data generated by the image coding device 1 and outputs the quantized orthogonal conversion coefficient to the inverse quantization / inverse conversion unit 210. Further, the entropy decoding unit 200 acquires the syntax related to the prediction (intra-prediction and inter-prediction), and outputs the acquired syntax to the prediction unit 240.

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆直交変換処理を行う
。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。
The inverse quantization / inverse conversion unit 210 performs inverse quantization processing and inverse orthogonal conversion processing in block units. The inverse quantization / inverse conversion unit 210 includes an inverse quantization unit 211 and an inverse conversion unit 212.

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する
逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から入力された量
子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化するこ
とにより、復号対象ブロックの直交変換係数を復元し、復元した直交変換係数を逆変換部
212に出力する。
The inverse quantization unit 211 performs the inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the image coding apparatus 1. The inverse quantization unit 211 dequantizes the quantization orthogonal conversion coefficient input from the entropy decoding unit 200 using the quantization parameter (Qp) and the quantization matrix to obtain the orthogonal conversion coefficient of the block to be decoded. It is restored and the restored orthogonal conversion coefficient is output to the inverse conversion unit 212.

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆
直交変換処理を行う。逆変換部212は、逆量子化部211から入力された直交変換係数
に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)
を合成部220に出力する。
The inverse conversion unit 212 performs an inverse orthogonal conversion process corresponding to the orthogonal conversion process performed by the conversion unit 121 of the image coding apparatus 1. The inverse conversion unit 212 performs an inverse orthogonal conversion process on the orthogonal conversion coefficient input from the inverse quantization unit 211 to restore the predicted residual, and the restored predicted residual (restored predicted residual).
Is output to the synthesis unit 220.

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力さ
れた予測画像とを画素単位で合成することにより、元のブロックを再構成(復号)し、ブ
ロック単位の復号画像をメモリ230に出力する。
The synthesis unit 220 reconstructs (decodes) the original block by synthesizing the prediction residual input from the inverse conversion unit 212 and the prediction image input from the prediction unit 240 in pixel units, and blocks units. The decoded image of is output to the memory 230.

メモリ230は、合成部220から入力された復号画像を記憶する。メモリ230は、
復号画像をフレーム単位で記憶する。メモリ230は、フレーム単位の復号画像を画像復
号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタ
が設けられてもよい。また、メモリ230の一部は、予測部240に含まれていてもよい
The memory 230 stores the decoded image input from the compositing unit 220. Memory 230
The decoded image is stored in frame units. The memory 230 outputs a frame-by-frame decoded image to the outside of the image decoding device 2. A loop filter may be provided between the compositing unit 220 and the memory 230. Further, a part of the memory 230 may be included in the prediction unit 240.

予測部240は、ブロック単位で予測を行う。予測部240は、インター予測部241
と、イントラ予測部242と、切替部243とを有する。
The prediction unit 240 makes a prediction in block units. The prediction unit 240 is an inter prediction unit 241.
And an intra prediction unit 242 and a switching unit 243.

インター予測部241は、メモリ230に記憶された復号画像を参照画像として用いて
、復号対象ブロックをインター予測により予測する。インター予測部241は、エントロ
ピー復号部200から入力されたシンタックス及び動きベクトル等に従ってインター予測
を行うことによりインター予測画像を生成し、生成したインター予測画像を切替部243
に出力する。
The inter-prediction unit 241 uses the decoded image stored in the memory 230 as a reference image to predict the decoding target block by inter-prediction. The inter-prediction unit 241 generates an inter-prediction image by performing inter-prediction according to the syntax, motion vector, etc. input from the entropy decoding unit 200, and the generated inter-prediction image is switched to the switching unit 243.
Output to.

イントラ予測部242は、メモリ230に記憶された復号画像を参照し、エントロピー
復号部200から入力されたシンタックスに基づいて、復号対象ブロックをイントラ予測
により予測することによりイントラ予測画像を生成し、生成したイントラ予測画像を切替
部243に出力する。
The intra prediction unit 242 refers to the decoded image stored in the memory 230, and generates an intra prediction image by predicting the decoding target block by the intra prediction based on the syntax input from the entropy decoding unit 200. The generated intra prediction image is output to the switching unit 243.

切替部243は、インター予測部241から入力されるインター予測画像とイントラ予
測部242から入力されるイントラ予測画像とを切り替えて、いずれかの予測画像を合成
部220に出力する。
The switching unit 243 switches between the inter prediction image input from the inter prediction unit 241 and the intra prediction image input from the intra prediction unit 242, and outputs one of the prediction images to the synthesis unit 220.

図8は、本実施形態に係るイントラ予測部242の構成を示す図である。イントラ予測
部242は、画像復号装置2に設けられるイントラ予測装置に相当する。イントラ予測部
242は、画像符号化装置1に設けられるイントラ予測部172と同様な動作を行う。
FIG. 8 is a diagram showing the configuration of the intra prediction unit 242 according to the present embodiment. The intra prediction unit 242 corresponds to an intra prediction device provided in the image decoding device 2. The intra prediction unit 242 operates in the same manner as the intra prediction unit 172 provided in the image coding device 1.

図8に示すように、イントラ予測部242は、メモリ230aと、第1予測画像生成部
242aと、第2予測画像生成部242bと、重み係数決定部242cと、画像合成部2
42dとを有する。
As shown in FIG. 8, the intra prediction unit 242 includes a memory 230a, a first prediction image generation unit 242a, a second prediction image generation unit 242b, a weight coefficient determination unit 242c, and an image composition unit 2.
It has 42d and.

メモリ230aは、図7に示すメモリ230の一部である。メモリ230aは、イント
ラ予測の際に参照される復号済み画素である参照画素を記憶する。
The memory 230a is a part of the memory 230 shown in FIG. 7. The memory 230a stores reference pixels, which are decoded pixels that are referred to during intra-prediction.

第1予測画像生成部242aは、方向性予測である第1イントラ予測モードによりイン
トラ予測対象ブロックを予測して方向性予測画像(第1予測画像)を生成し、生成した方
向性予測画像を画像合成部242dに出力する。具体的には、第1予測画像生成部242
aは、メモリ230aに記憶された参照画素を参照し、エントロピー復号部200から入
力されたシンタックスが示す方向性予測モードによって方向性予測画像を生成する。
The first prediction image generation unit 242a predicts the intra prediction target block by the first intra prediction mode, which is the direction prediction, generates a direction prediction image (first prediction image), and images the generated direction prediction image. It is output to the synthesis unit 242d. Specifically, the first prediction image generation unit 242
a refers to the reference pixel stored in the memory 230a, and generates a directional prediction image according to the directional prediction mode indicated by the syntax input from the entropy decoding unit 200.

第2予測画像生成部242bは、非方向性予測である第2イントラ予測モードによりイ
ントラ予測対象ブロックを予測して予測画像(第2予測画像)を生成し、生成した予測画
像を画像合成部242dに出力する。具体的には、第2予測画像生成部242bは、メモ
リ230aに記憶された参照画素を参照し、予め定められた非方向性の第2イントラ予測
モードによって方向性予測画像を生成する。本実施形態において第2イントラ予測モード
はPlanar予測である。
The second prediction image generation unit 242b predicts the intra prediction target block by the second intra prediction mode, which is a non-directional prediction, and generates a prediction image (second prediction image), and the generated prediction image is generated by the image synthesis unit 242d. Output to. Specifically, the second prediction image generation unit 242b refers to the reference pixel stored in the memory 230a and generates a directional prediction image in a predetermined non-directional second intra prediction mode. In this embodiment, the second intra prediction mode is Planar prediction.

重み係数決定部242cは、イントラ予測対象ブロックのブロックサイズ及びブロック
形状のうち少なくとも一方に基づいて重み係数を決定し、決定した重み係数を画像合成部
242dに出力する。イントラ予測対象ブロックのブロックサイズ及びブロック形状は、
エントロピー復号部200から重み係数決定部242cに入力される。重み係数決定部2
42cの動作は、上述した動作例1及び2と同じ動作である。
The weighting coefficient determining unit 242c determines the weighting coefficient based on at least one of the block size and the block shape of the intra-prediction target block, and outputs the determined weighting coefficient to the image combining unit 242d. The block size and block shape of the intra-prediction target block are
It is input from the entropy decoding unit 200 to the weighting coefficient determining unit 242c. Weight coefficient determination unit 2
The operation of 42c is the same operation as the above-described operation examples 1 and 2.

画像合成部242dは、重み係数決定部242cから入力された重み係数を用いて、第
1予測画像生成部242aから入力された方向性予測画像及び第2予測画像生成部242
bから入力されたPlanar予測画像を重み付け合成し、重み付け合成後の予測画像を
イントラ予測画像として出力する。
The image composition unit 242d uses the weighting coefficient input from the weighting coefficient determining unit 242c to generate the directional prediction image and the second prediction image generation unit 242 input from the first prediction image generation unit 242a.
The Planar prediction image input from b is weighted and synthesized, and the predicted image after weighting and synthesis is output as an intra prediction image.

<イントラ予測の動作フロー例>
次に、本実施形態に係るイントラ予測の動作フロー例について説明する。画像符号化装
置1及び画像復号装置2でイントラ予測の動作は同じであるが、ここでは画像復号装置2
におけるイントラ予測(イントラ予測部242)の動作を説明する。図9は、イントラ予
測部242の動作フロー例を示す図である。
<Example of intra-prediction operation flow>
Next, an example of the operation flow of the intra prediction according to the present embodiment will be described. The intra-prediction operation is the same in the image coding device 1 and the image decoding device 2, but here, the image decoding device 2
The operation of the intra prediction (intra prediction unit 242) in the above will be described. FIG. 9 is a diagram showing an example of an operation flow of the intra prediction unit 242.

第1に、エントロピー復号部200は、画像符号化装置1により選択されたイントラ予
測モードを示すシンタックスを復号する。このシンタックスが方向性予測モード以外のモ
ード(DC予測又はPlanar予測)を示す場合(ステップS1:NO)、イントラ予
測部242は、従来と同様なイントラ予測を行う(ステップS7)。
First, the entropy decoding unit 200 decodes the syntax indicating the intra prediction mode selected by the image coding device 1. When this syntax indicates a mode other than the directional prediction mode (DC prediction or Planar prediction) (step S1: NO), the intra prediction unit 242 performs the same intra prediction as before (step S7).

第2に、エントロピー復号部200は、予測画像合成手法を適用するか否かを示すシン
タックスを復号する。このシンタックスが予測画像合成手法を適用しないことを示す場合
(ステップS2:NO)、イントラ予測部242は、従来と同様なイントラ予測を行う(ステップS7)。但し、画像符号化装置1により選択されたイントラ予測モードが方向性予測モードである場合、常に予測画像合成手法を適用するとしてもよい。この場合、予測画像合成手法を適用するか否かを示すシンタックスのシグナリングは不要である。
Second, the entropy decoding unit 200 decodes the syntax indicating whether or not to apply the predictive image synthesis method. When this syntax indicates that the prediction image composition method is not applied (step S2: NO), the intra prediction unit 242 performs the same intra prediction as before (step S7). However, when the intra prediction mode selected by the image coding apparatus 1 is the directional prediction mode, the prediction image composition method may always be applied. In this case, syntax signaling indicating whether or not to apply the predictive image synthesis method is unnecessary.

第3に、画像符号化装置1により選択されたイントラ予測モードが方向性予測であり(
ステップS1:YES)、且つ、予測画像合成手法を適用する場合(ステップS2:YE
S)、重み係数決定部242cは、イントラ予測対象ブロックのブロックサイズ及びブロ
ック形状のうち少なくとも一方に基づいて重み係数α及びβを決定する(ステップS3)
Third, the intra prediction mode selected by the image encoding device 1 is directional prediction (direction prediction).
Step S1: YES) and when applying the predictive image composition method (Step S2: YE)
S), the weighting coefficient determining unit 242c determines the weighting coefficients α and β based on at least one of the block size and the block shape of the intra-prediction target block (step S3).
..

第4に、第1予測画像生成部242aは、画像符号化装置1により選択された方向性予
測モードによりイントラ予測対象ブロックを予測して方向性予測画像を生成する(ステッ
プS4)。また、第2予測画像生成部242bは、Planar予測によりイントラ予測
対象ブロックを予測してPlanar予測画像を生成する(ステップS5)。
Fourth, the first prediction image generation unit 242a predicts the intra-prediction target block by the direction prediction mode selected by the image coding device 1 and generates a direction prediction image (step S4). In addition, the second prediction image generation unit 242b predicts the intra-prediction target block by the Planar prediction and generates the Planar prediction image (step S5).

第5に、画像合成部242dは、ステップS3で決定された重み係数α及びβを用いて
、ステップS4で生成された方向性予測画像とステップS5で生成されたPlanar予
測画像とを重み付け合成し、重み付け合成後の予測画像をイントラ予測画像として出力す
る(ステップS6)。
Fifth, the image synthesizing unit 242d weight-combines the directional prediction image generated in step S4 and the Planar prediction image generated in step S5 by using the weighting coefficients α and β determined in step S3. , The predicted image after weighting synthesis is output as an intra prediction image (step S6).

<実施形態のまとめ>
本実施形態に係る画像符号化装置1及び画像復号装置2は、イントラ予測対象ブロック
のブロックサイズ及びブロック形状のうち少なくとも一方に基づいて重み係数を決定し、
決定した重み係数を用いて方向性予測画像及びPlanar予測画像を重み付け合成する
。これにより、予測画像合成手法において、方向性予測画像とPlanar予測画像とを
単に平均化する場合に比べて、イントラ予測の予測精度を高めることができる。
<Summary of Embodiment>
The image coding device 1 and the image decoding device 2 according to the present embodiment determine the weighting coefficient based on at least one of the block size and the block shape of the intra-prediction target block.
The directional prediction image and the Planar prediction image are weighted and combined using the determined weighting coefficient. As a result, in the prediction image synthesis method, the prediction accuracy of the intra prediction can be improved as compared with the case where the direction prediction image and the Planar prediction image are simply averaged.

<その他の実施形態>
上述した実施形態において、第2イントラ予測モードがPlanar予測である一例に
ついて主として説明した。しかしながら、第2イントラ予測モードは、Plane予測で
あってもよい。第2イントラ予測モードがPlane予測である場合、上述した実施形態
における「Planar予測」を「Plane予測」と読み替えればよい。
<Other Embodiments>
In the above-described embodiment, an example in which the second intra-prediction mode is Planar prediction has been mainly described. However, the second intra prediction mode may be Plane prediction. When the second intra-prediction mode is Plane prediction, "Planar prediction" in the above-described embodiment may be read as "Plane prediction".

或いは、第2イントラ予測モードは、DC予測であってもよい。第2イントラ予測モー
ドがDC予測である場合、上述した実施形態における「Planar予測」を「DC予測
」と読み替えればよい。
Alternatively, the second intra prediction mode may be DC prediction. When the second intra prediction mode is DC prediction, "Planar prediction" in the above-described embodiment may be read as "DC prediction".

画像符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されても
よい。画像復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されて
もよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュ
ータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可
能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の
記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例え
ば、CD−ROMやDVD−ROM等の記録媒体であってもよい。
A program may be provided that causes a computer to execute each process performed by the image coding apparatus 1. A program that causes a computer to execute each process performed by the image decoding device 2 may be provided. The program may be recorded on a computer-readable medium. Computer-readable media can be used to install programs on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transient recording medium. The non-transient recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体
集積回路(チップセット、SoC)により構成してもよい。画像復号装置2が行う各処理
を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)
により構成してもよい。
A circuit that executes each process performed by the image coding device 1 may be integrated, and the image coding device 1 may be configured by a semiconductor integrated circuit (chipset, SoC). A circuit that executes each process performed by the image decoding device 2 is integrated, and the image decoding device 2 is a semiconductor integrated circuit (chipset, SoC).
It may be configured by.

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のもの
に限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが
可能である。
Although the embodiments have been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the gist.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
160a :メモリ
170 :予測部
171 :インター予測部
172 :イントラ予測部
172a :第1予測画像生成部
172b :第2予測画像生成部
172c :重み係数決定部
172d :画像合成部
173 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
230a :メモリ
240 :予測部
241 :インター予測部
242 :イントラ予測部
242a :第1予測画像生成部
242b :第2予測画像生成部
242c :重み係数決定部
242d :画像合成部
243 :切替部
1: Image coding device 2: Image decoding device 100: Block division unit 110: Subtraction unit 120: Conversion / quantization unit 121: Conversion unit 122: Quantization unit 130: Entropy coding unit 140: Inverse quantization / inverse conversion Unit 141: Inverse quantization unit 142: Inverse conversion unit 150: Synthesis unit 160: Memory 160a: Memory 170: Prediction unit 171: Inter-prediction unit 172: Intra-prediction unit 172a: First prediction image generation unit 172b: Second prediction image Generation unit 172c: Weight coefficient determination unit 172d: Image composition unit 173: Switching unit 200: Entropy decoding unit 210: Inverse quantization / inverse conversion unit 211: Inverse quantization unit 212: Inverse conversion unit 220: Synthesis unit 230: Memory 230a : Memory 240: Prediction unit 241: Inter prediction unit 242: Intra prediction unit 242a: First prediction image generation unit 242b: Second prediction image generation unit 242c: Weight coefficient determination unit 242d: Image composition unit 243: Switching unit

Claims (8)

原画像を分割して得た画像ブロックに対するイントラ予測を行うイントラ予測装置であ
って、
方向性予測である第1イントラ予測モードにより前記画像ブロックを予測して第1予測
画像を生成する第1予測画像生成部と、
非方向性予測である第2イントラ予測モードにより前記画像ブロックを予測して第2予
測画像を生成する第2予測画像生成部と、
前記画像ブロックのブロックサイズ及びブロック形状のうち少なくとも一方に基づいて
、前記第1予測画像及び前記第2予測画像を重み付け合成する際に用いる重み係数を決定
する重み係数決定部と、
前記重み係数決定部により決定された前記重み係数を用いて、前記第1予測画像及び前
記第2予測画像を重み付け合成する画像合成部と、を備えることを特徴とするイントラ予
測装置。
It is an intra-prediction device that makes intra-prediction for image blocks obtained by dividing the original image.
A first prediction image generation unit that predicts the image block and generates a first prediction image in the first intra prediction mode, which is a direction prediction.
A second prediction image generation unit that predicts the image block and generates a second prediction image in the second intra prediction mode, which is non-directional prediction.
A weighting coefficient determining unit that determines a weighting coefficient used when weighting and synthesizing the first predicted image and the second predicted image based on at least one of the block size and the block shape of the image block.
An intra-prediction apparatus comprising: an image synthesizing unit for weighting and synthesizing the first prediction image and the second prediction image using the weighting coefficient determined by the weighting coefficient determining unit.
前記第2イントラ予測モードは、Planar予測又はPlane予測又はDC予測で
あることを特徴とする請求項1に記載のイントラ予測装置。
The intra-prediction device according to claim 1, wherein the second intra-prediction mode is Planar prediction, Plane prediction, or DC prediction.
前記重み係数決定部は、前記画像ブロックのブロックサイズが大きくなるにつれて、前
記第1予測画像の重みに対する前記第2予測画像の重みの比を大きくするように、前記重
み係数を決定することを特徴とする請求項1又は2に記載のイントラ予測装置。
The weighting coefficient determining unit determines the weighting coefficient so that the ratio of the weight of the second predicted image to the weight of the first predicted image increases as the block size of the image block increases. The intra prediction device according to claim 1 or 2.
前記重み係数決定部は、矩形状の前記画像ブロックの短辺に対する長辺の比が大きくな
るにつれて、前記第1予測画像の重みに対する前記第2予測画像の重みの比を小さくする
ように、前記重み係数を決定することを特徴とする請求項1乃至3のいずれか1項に記載
のイントラ予測装置。
The weighting coefficient determining unit reduces the ratio of the weight of the second predicted image to the weight of the first predicted image as the ratio of the long side to the short side of the rectangular image block increases. The intra prediction device according to any one of claims 1 to 3, wherein the weighting coefficient is determined.
前記重み係数決定部は、前記第1予測画像に適用する第1重み係数と前記第2予測画像
に適用する第2重み係数とを前記重み係数として決定し、
前記画像合成部は、前記第1予測画像の画素ごとに前記第1重み係数を適用するととも
に、前記第2予測画像の画素ごとに前記第2重み係数を適用し、且つ、前記第1予測画像
及び前記第2予測画像を画素単位で合成することを特徴とする請求項1乃至4のいずれか
1項に記載のイントラ予測装置。
The weighting coefficient determining unit determines the first weighting coefficient applied to the first predicted image and the second weighting coefficient applied to the second predicted image as the weighting coefficient.
The image synthesizing unit applies the first weighting coefficient to each pixel of the first predicted image, applies the second weighting coefficient to each pixel of the second predicted image, and applies the second weighting coefficient to each pixel of the second predicted image. The intra-prediction device according to any one of claims 1 to 4, wherein the second prediction image is synthesized in pixel units.
請求項1乃至5のいずれか1項に記載のイントラ予測装置を備えることを特徴とする画
像符号化装置。
An image coding device including the intra prediction device according to any one of claims 1 to 5.
請求項1乃至5のいずれか1項に記載のイントラ予測装置を備えることを特徴とする画
像復号装置。
An image decoding device comprising the intra prediction device according to any one of claims 1 to 5.
コンピュータを請求項1乃至5のいずれか1項に記載のイントラ予測装置として機能さ
せるためのプログラム。
A program for operating a computer as an intra prediction device according to any one of claims 1 to 5.
JP2020020957A 2019-02-12 2020-02-10 Intra prediction device, image coding device, image decoding device, and program Pending JP2020137119A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019023028 2019-02-12
JP2019023028 2019-02-12

Publications (1)

Publication Number Publication Date
JP2020137119A true JP2020137119A (en) 2020-08-31

Family

ID=72263785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020020957A Pending JP2020137119A (en) 2019-02-12 2020-02-10 Intra prediction device, image coding device, image decoding device, and program

Country Status (1)

Country Link
JP (1) JP2020137119A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114938453A (en) * 2022-07-19 2022-08-23 深流微智能科技(深圳)有限公司 Video coding method, chip, storage medium and computer equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114938453A (en) * 2022-07-19 2022-08-23 深流微智能科技(深圳)有限公司 Video coding method, chip, storage medium and computer equipment
CN114938453B (en) * 2022-07-19 2022-09-30 深流微智能科技(深圳)有限公司 Video coding method, chip, storage medium and computer equipment

Similar Documents

Publication Publication Date Title
WO2020036132A1 (en) Image encoding device, image decoding device, and program
JP2022000953A (en) Intra prediction device, image encoding device, image decoding device and program
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
JP2022105654A (en) Encoder, decoder, and program
JP2024053019A (en) Encoding device, decoding device, and program
JP2023138826A (en) Intra prediction device, image coding device, image decoding device, and program
JP7415067B2 (en) Intra prediction device, image decoding device, and program
JP2020137119A (en) Intra prediction device, image coding device, image decoding device, and program
JP2020156087A (en) Intra prediction device, image encoding device, image decoding device and program
JP2020028066A (en) Color difference intra prediction candidate generation device, image coding device, image decoding device, and program
JP7361498B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7100194B2 (en) Image coding device, image decoding device, and program
JP7069421B2 (en) Encoding device, decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
JP7396883B2 (en) Encoding device, decoding device, and program
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7441638B2 (en) Encoding device, decoding device, and program
JP2021129148A (en) Prediction device, encoding device, decoding device, and program
JP2020137118A (en) Intra prediction device, image decoding device, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422