JP2023168518A - Prediction block generation device, image encoder, image decoder, and program - Google Patents

Prediction block generation device, image encoder, image decoder, and program Download PDF

Info

Publication number
JP2023168518A
JP2023168518A JP2023172326A JP2023172326A JP2023168518A JP 2023168518 A JP2023168518 A JP 2023168518A JP 2023172326 A JP2023172326 A JP 2023172326A JP 2023172326 A JP2023172326 A JP 2023172326A JP 2023168518 A JP2023168518 A JP 2023168518A
Authority
JP
Japan
Prior art keywords
prediction
block
unit
intra prediction
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023172326A
Other languages
Japanese (ja)
Inventor
慎平 根本
Shimpei Nemoto
俊輔 岩村
Shunsuke Iwamura
敦郎 市ヶ谷
Atsuro Ichigaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2023172326A priority Critical patent/JP2023168518A/en
Publication of JP2023168518A publication Critical patent/JP2023168518A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve prediction accuracy by properly deciding the weighting coefficient in CIIP.SOLUTION: A prediction block generation device which generates an intra prediction signal and a prescribed prediction signal by predicting a prediction object block obtained by dividing an image by intra prediction and prescribed prediction different from the intra prediction and outputs a prediction signal in the prediction object block by synthesizing the intra prediction signal and the prescribed prediction signal by weighting synthesis, comprises: a mode specification part which specifies an intra prediction mode of intra prediction applied to a peripheral block when there is the peripheral block applied with the intra prediction in the periphery of the prediction object block; and a weighting coefficient decision part which decides a weighting coefficient used for the weighting synthesis on the basis of the intra prediction mode specified by the mode specification part.SELECTED DRAWING: Figure 4

Description

本発明は、予測ブロック生成装置、画像符号化装置、画像復号装置、及びプログラムに関する。 The present invention relates to a predictive block generation device, an image encoding device, an image decoding device, and a program.

従来から、伝送時や保存時の静止画像や動画像のデータ量を圧縮するため映像符号化方式の研究が行われている。近年、映像符号化技術では8K-SHVに代表されるような超高解像度映像の普及が進んでおり、膨大なデータ量の動画像を伝送するための手法としてAVC/H.264やHEVC/H.265などの符号化方式が知られている。 BACKGROUND ART Research has been carried out on video encoding methods to compress the amount of data of still images and moving images during transmission and storage. In recent years, ultra-high resolution video such as 8K-SHV has become increasingly popular in video encoding technology, and AVC/H. 264 and HEVC/H. Encoding systems such as H.265 are known.

MPEG及びITUが合同で標準化を行っている次世代符号化方式であるVVCでは、フレーム内の空間的な相関を利用したイントラ予測、及びフレーム間の相関を利用したインター予測が利用されている(例えば、非特許文献1参照)。これらの予測では、画像を分割して得たブロック単位での予測を行う。 VVC, a next-generation coding system jointly standardized by MPEG and ITU, uses intra prediction that uses spatial correlation within a frame, and inter prediction that uses correlation between frames ( For example, see Non-Patent Document 1). In these predictions, prediction is performed in units of blocks obtained by dividing an image.

また、VVCでは、Combined Inter and Intra Prediction(CIIP)という技術が採用される見込みである。CIIPは、予測対象のブロックをインター予測及びイントラ予測によりそれぞれ予測してインター予測ブロック及びイントラ予測ブロックを生成し、インター予測ブロック及びイントラ予測ブロックを重み付け合成により合成することで予測ブロックを出力する技術である。なお、CIIPにおけるイントラ予測のイントラ予測モードはPlanarモードに固定されている。 Additionally, VVC is expected to adopt a technology called Combined Inter and Intra Prediction (CIIP). CIIP is a technology that generates inter-predicted blocks and intra-predicted blocks by respectively predicting a prediction target block using inter-prediction and intra-prediction, and outputs a predicted block by combining the inter-predicted blocks and intra-predicted blocks using weighted synthesis. It is. Note that the intra prediction mode for intra prediction in CIIP is fixed to Planar mode.

CIIPにおける重み付け合成に用いる重み係数の情報は、画像符号化装置から画像復号装置へ送られることはなく、予測対象のブロックの上ブロック及び左ブロックにおいてイントラ予測が適用されているか又はインター予測が適用されているかに応じて暗黙的に決定される。 Information on weighting coefficients used for weighted synthesis in CIIP is not sent from the image encoding device to the image decoding device, and it is determined whether intra prediction is applied to the upper block and left block of the block to be predicted or inter prediction is applied. implicitly determined depending on whether

具体的な重み係数は、イントラ予測ブロックの重みを「Intra」、インター予測ブロックの重みを「Inter」としたとき、
(a)両方でイントラ予測が用いられている場合、Intra:Inter=3:1
(b)どちらか片方でイントラ予測が用いられている場合、Intra:Inter=2:2
(c)両方でインター予測が用いられている場合、Intra:Inter=1:3
となっている。つまり、周辺ブロックでイントラ予測が適用されているときはイントラ予測ブロックの重みが大きく、周辺ブロックでインター予測が適用されているときはインター予測ブロックの重みが大きくなるように設計されている。
The specific weighting coefficient is when the weight of the intra prediction block is "Intra" and the weight of the inter prediction block is "Inter".
(a) If intra prediction is used in both, Intra:Inter=3:1
(b) If intra prediction is used in either one, Intra:Inter=2:2
(c) If inter prediction is used in both, Intra:Inter=1:3
It becomes. In other words, the design is such that the weight of the intra-prediction block is large when intra-prediction is applied to the surrounding blocks, and the weight of the inter-prediction block is large when the inter-prediction is applied to the surrounding blocks.

JVET-N1001 Versatile Video Coding (Draft 5)JVET-N1001 Versatile Video Coding (Draft 5)

上述のように、CIIPにおける重み係数は、周辺ブロックにイントラ予測が適用されているか否かに応じて決定されている。 As described above, the weighting coefficients in CIIP are determined depending on whether intra prediction is applied to surrounding blocks.

しかしながら、周辺ブロックでイントラ予測が適用されていても、周辺ブロックのイントラ予測モードがPlanar予測でない場合には、予測対象のブロックと周辺ブロックとで相関性がなく絵柄やテクスチャが大きく異なる可能性がある。そのような場合、イントラ予測ブロックの重みを大きくすることが逆効果になり、予測対象のブロックに対する予測精度が低くなり得るという課題がある。 However, even if intra prediction is applied to the surrounding blocks, if the intra prediction mode of the surrounding blocks is not Planar prediction, there is a possibility that there is no correlation between the prediction target block and the surrounding blocks, and the patterns and textures may be significantly different. be. In such a case, there is a problem that increasing the weight of the intra-prediction block may have the opposite effect, and the prediction accuracy for the block to be predicted may decrease.

そこで、本発明は、CIIPにおける重み係数を適切に決定することで予測精度を改善する予測ブロック生成装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a predictive block generation device, an image encoding device, an image decoding device, and a program that improve prediction accuracy by appropriately determining weighting coefficients in CIIP.

第1の態様に係る予測ブロック生成装置は、画像を分割して得た予測対象ブロックをイントラ予測及び前記イントラ予測と異なる所定予測によりそれぞれ予測してイントラ予測信号及び所定予測信号を生成し、前記イントラ予測信号及び前記所定予測信号を重み付け合成により合成することで前記予測対象ブロック内の予測信号を出力する予測ブロック生成装置であって、前記予測対象ブロックの周辺にイントラ予測が適用された周辺ブロックがある場合、前記周辺ブロックに適用されたイントラ予測のイントラ予測モードを特定するモード特定部と、前記モード特定部が特定した前記イントラ予測モードに基づいて、前記重み付け合成に用いる重み係数を決定する重み係数決定部と、を備える。実施形態に係る予測ブロック生成装置は、画像を分割して得た予測対象ブロックをインター予測及びイントラ予測によりそれぞれ予測してインター予測ブロック及びイントラ予測ブロックを生成し、前記インター予測ブロック及び前記イントラ予測ブロックを重み付け合成により合成することで前記予測対象ブロックに対する予測ブロックを出力する。前記予測ブロック生成装置は、前記予測対象ブロックの周辺にイントラ予測が適用された周辺ブロックがある場合、前記周辺ブロックに適用されたイントラ予測のイントラ予測モードを特定するモード特定部と、前記モード特定部が特定した前記イントラ予測モードに基づいて、前記重み付け合成に用いる重み係数を決定する重み係数決定部とを備える。 The prediction block generation device according to the first aspect generates an intra prediction signal and a predetermined prediction signal by respectively predicting a prediction target block obtained by dividing an image by intra prediction and a predetermined prediction different from the intra prediction, and generates an intra prediction signal and a predetermined prediction signal. A prediction block generation device that outputs a prediction signal within the prediction target block by combining an intra prediction signal and the predetermined prediction signal by weighted synthesis, the peripheral block to which intra prediction is applied around the prediction target block. If there is, a mode specifying unit that specifies an intra prediction mode of intra prediction applied to the peripheral block, and a weighting coefficient to be used for the weighted synthesis based on the intra prediction mode specified by the mode specifying unit. A weighting factor determining section. The prediction block generation device according to the embodiment generates an inter prediction block and an intra prediction block by respectively predicting a prediction target block obtained by dividing an image by inter prediction and intra prediction, and generates an inter prediction block and an intra prediction block. A prediction block for the prediction target block is output by combining the blocks using weighted combination. When there is a peripheral block to which intra prediction is applied around the prediction target block, the prediction block generation device includes a mode identifying unit that identifies an intra prediction mode of intra prediction applied to the peripheral block; and a weighting coefficient determination unit that determines a weighting coefficient to be used for the weighted combination based on the intra prediction mode specified by the unit.

第2の態様に係る画像符号化装置は、第1の態様に係る予測ブロック生成装置を備える。 The image encoding device according to the second aspect includes the predictive block generation device according to the first aspect.

第3の態様に係る画像復号装置は、第1の態様に係る予測ブロック生成装置を備える。 The image decoding device according to the third aspect includes the predictive block generation device according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係る予測ブロック生成装置として機能させる。 The program according to the fourth aspect causes a computer to function as the predictive block generation device according to the first aspect.

本発明によれば、CIIPにおける重み係数を適切に決定することで予測精度を改善する予測ブロック生成装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。 According to the present invention, it is possible to provide a predictive block generation device, an image encoding device, an image decoding device, and a program that improve prediction accuracy by appropriately determining weighting coefficients in CIIP.

実施形態に係る画像符号化装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of an image encoding device according to an embodiment. 実施形態に係るイントラ予測モードの候補を示す図である。FIG. 3 is a diagram showing intra prediction mode candidates according to the embodiment. イントラ予測のイントラ予測モードとしてのPlanarモードを示す図である。It is a figure showing Planar mode as an intra prediction mode of intra prediction. 実施形態に係る画像符号化装置の合成処理部の構成を示す図である。FIG. 2 is a diagram showing the configuration of a composition processing section of an image encoding device according to an embodiment. 実施形態に係る上ブロック及び左ブロックを示す図である。It is a figure showing an upper block and a left block concerning an embodiment. 実施形態に係る画像復号装置の構成を示す図である。1 is a diagram showing the configuration of an image decoding device according to an embodiment. 実施形態に係る画像復号装置の合成処理部の構成を示す図である。FIG. 2 is a diagram showing the configuration of a composition processing section of an image decoding device according to an embodiment. 実施形態に係る画像復号装置における予測ブロック生成の動作フロー例を示す図である。FIG. 3 is a diagram illustrating an example of the operation flow of predictive block generation in the image decoding device according to the embodiment. その他の実施形態に係る合成処理部の構成を示す図である。FIG. 7 is a diagram showing the configuration of a synthesis processing section according to another embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画像の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又
は類似の符号を付している。
An image encoding device and an image decoding device according to embodiments will be described with reference to the drawings. The image encoding device and the image decoding device according to the embodiment encode and decode moving images represented by MPEG, respectively. In the description of the drawings below, the same or similar parts are designated by the same or similar symbols.

<画像符号化装置の構成>
まず、本実施形態に係る画像符号化装置の構成について説明する。図1は、本実施形態に係る画像符号化装置1の構成を示す図である。
<Configuration of image encoding device>
First, the configuration of the image encoding device according to this embodiment will be explained. FIG. 1 is a diagram showing the configuration of an image encoding device 1 according to this embodiment.

図1に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。本実施形態において、予測部170は、画像符号化装置1に設けられる予測ブロック生成装置に相当する。 As shown in FIG. 1, the image encoding device 1 includes a block division section 100, a subtraction section 110, a transformation/quantization section 120, an entropy encoding section 130, an inverse quantization/inverse transformation section 140, It has a synthesis section 150, a memory 160, and a prediction section 170. In this embodiment, the prediction unit 170 corresponds to a prediction block generation device provided in the image encoding device 1.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像である原画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部110に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず長方形(非正方形)であってもよい。画像ブロックは、画像符号化装置1が符号化を行う単位(すなわち、符号化対象ブロック)であり、且つ画像復号装置が復号を行う単位(すなわち、復号対象ブロック)である。このような画像ブロックはCU(Coding Unit)と呼ばれることがある。 The block division unit 100 divides an original image, which is an input image in units of frames (or pictures) constituting a moving image, into a plurality of image blocks, and outputs the image blocks obtained by the division to the subtraction unit 110. The size of the image block is, for example, 32×32 pixels, 16×16 pixels, 8×8 pixels, or 4×4 pixels. The shape of the image block is not limited to a square, but may be rectangular (non-square). The image block is a unit that is encoded by the image encoding device 1 (that is, a block to be encoded), and is a unit that is decoded by the image decoding device (that is, a block to be decoded). Such an image block is sometimes called a CU (Coding Unit).

減算部110は、ブロック分割部100から出力される符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測ブロックとの差分(誤差)を表す予測残差を算出する。具体的には、減算部110は、ブロックの各画素値から予測ブロックの各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual representing the difference (error) between the current block to be encoded output from the block division unit 100 and the prediction block obtained by predicting the current block to be encoded by the prediction unit 170. Specifically, the subtraction unit 110 calculates a prediction residual by subtracting each pixel value of the prediction block from each pixel value of the block, and outputs the calculated prediction residual to the conversion/quantization unit 120.

変換・量子化部120は、ブロック単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。 The transformation/quantization unit 120 performs orthogonal transformation processing and quantization processing on a block-by-block basis. The conversion/quantization unit 120 includes a conversion unit 121 and a quantization unit 122.

変換部121は、減算部110から出力される予測残差に対して直交変換処理を行って直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen-Loeve Transform)等をいう。 The transform unit 121 performs orthogonal transform processing on the prediction residual output from the subtractor 110 to calculate orthogonal transform coefficients, and outputs the calculated orthogonal transform coefficients to the quantizer 122 . The orthogonal transformation refers to, for example, a discrete cosine transform (DCT), a discrete sine transform (DST), a Karhunen-Loeve transform (KLT), or the like.

量子化部122は、変換部121から出力される直交変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the orthogonal transform coefficients output from the transform unit 121 using a quantization parameter (Qp) and a quantization matrix, and sends the quantized orthogonal transform coefficients to an entropy encoder 130 and inverse quantization/dequantization. It is output to the inverse transformer 140. Note that the quantization parameter (Qp) is a parameter commonly applied to each orthogonal transform coefficient within a block, and is a parameter that determines the roughness of quantization. The quantization matrix is a matrix having as elements quantization values when quantizing each orthogonal transform coefficient.

エントロピー符号化部130は、量子化部122から出力される直交変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化データ(ビットストリーム)を生成し、符号化データを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関する情報が入力され、入力された情報のエントロピー符号化も行う。 The entropy encoding unit 130 performs entropy encoding on the orthogonal transform coefficients output from the quantization unit 122, performs data compression to generate encoded data (bitstream), and performs image encoding on the encoded data. Output to the outside of the device 1. For entropy encoding, a Huffman code, CABAC (Context-based Adaptive Binary Arithmetic Coding), or the like can be used. Note that the entropy encoding unit 130 receives information regarding prediction from the prediction unit 170, and also performs entropy encoding of the input information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。 The inverse quantization/inverse transform unit 140 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization/inverse transformation section 140 includes an inverse quantization section 141 and an inverse transformation section 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から出力される直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を復元し、復元した直交変換係数を逆変換部142に出力する。 The dequantization unit 141 performs dequantization processing corresponding to the quantization processing performed by the quantization unit 122. Specifically, the dequantization unit 141 restores orthogonal transformation coefficients by dequantizing the orthogonal transformation coefficients output from the quantization unit 122 using a quantization parameter (Qp) and a quantization matrix. , the restored orthogonal transform coefficients are output to the inverse transform unit 142.

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から出力される直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121. For example, if the transform unit 121 performs a discrete cosine transform, the inverse transform unit 142 performs an inverse discrete cosine transform. The inverse transform unit 142 performs inverse orthogonal transform processing on the orthogonal transform coefficients output from the inverse quantization unit 141 to restore the prediction residual, and combines the restored prediction residual, which is the restored prediction residual, with the synthesis unit 150 Output to.

合成部150は、逆変換部142から出力される復元予測残差を、予測部170から出力される予測ブロックと画素単位で合成する。合成部150は、復元予測残差の各画素値と予測ブロックの各画素値を加算して符号化対象ブロックを復号(再構成)し、復号済みブロックをメモリ160に出力する。なお、復号済みブロックは、再構成ブロックと呼ばれることもある。 The combining unit 150 combines the restored prediction residual output from the inverse transform unit 142 with the prediction block output from the prediction unit 170 on a pixel-by-pixel basis. The combining unit 150 decodes (reconfigures) the current block by adding each pixel value of the restored prediction residual and each pixel value of the prediction block, and outputs the decoded block to the memory 160. Note that the decoded block is sometimes called a reconstructed block.

メモリ160は、合成部150から出力される復号済みブロックを記憶し、復号済みブロックをフレーム単位で復号済み画像として蓄積する。メモリ160は、記憶している復号済みブロック若しくは復号済み画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが設けられてもよい。本実施形態において、メモリ160は、各復号済みブロックに適用された予測に関する情報(以下、「ブロック予測情報」と呼ぶ)をさらに記憶する。 The memory 160 stores the decoded blocks output from the combining unit 150, and accumulates the decoded blocks as decoded images in frame units. The memory 160 outputs the stored decoded blocks or decoded images to the prediction unit 170. Note that a loop filter may be provided between the synthesis section 150 and the memory 160. In this embodiment, the memory 160 further stores information regarding predictions applied to each decoded block (hereinafter referred to as "block prediction information").

予測部170は、ブロック単位で予測を行う。予測部170が取り扱う符号化対象ブロックを「予測対象ブロック」と呼ぶ。予測部170は、イントラ予測部171と、インター予測部172と、合成処理部173と、切替部174とを有する。 The prediction unit 170 performs prediction on a block-by-block basis. The encoding target block handled by the prediction unit 170 is called a "prediction target block." The prediction unit 170 includes an intra prediction unit 171 , an inter prediction unit 172 , a combination processing unit 173 , and a switching unit 174 .

イントラ予測部171は、フレーム内の空間的な相関を利用したイントラ予測を行う。具体的には、イントラ予測部171は、メモリ160に記憶された復号済み画像のうち、イントラ予測の予測対象ブロックの周辺にある復号済み画素を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部174に出力する。一般的に、イントラ予測部171は、複数のイントラ予測モードの中から、イントラ予測の予測対象ブロックに適用するイントラ予測モードを選択し、選択したイントラ予測モードを用いて対象ブロックを予測する。イントラ予測部171は、選択したイントラ予測モードに関する情報をエントロピー符号化部130に出力する。 The intra prediction unit 171 performs intra prediction using spatial correlation within a frame. Specifically, the intra prediction unit 171 generates an intra prediction block by referring to decoded pixels around the prediction target block of the intra prediction among the decoded images stored in the memory 160, and generates an intra prediction block. The predicted block is output to the switching unit 174. Generally, the intra prediction unit 171 selects an intra prediction mode to be applied to a prediction target block of intra prediction from among a plurality of intra prediction modes, and predicts the target block using the selected intra prediction mode. Intra prediction section 171 outputs information regarding the selected intra prediction mode to entropy encoding section 130.

図2は、本実施形態に係るイントラ予測モードの候補を示す図である。図2に示すように、イントラ予測モードの候補は、0から66までの67通りのイントラ予測モードがある。イントラ予測モードのモード「0」はPlanar予測であり、イントラ予測モードのモード「1」はDC予測であり、イントラ予測モードのモード「2」乃至「66」は方向性予測である。方向性予測において、矢印の方向は参照方向を示し、矢印の起点は予測対象の画素の位置を示し、矢印の終点はこの予測対象画素の予測に用いる参照画素の位置を示す。ブロックの右上頂点及び左下頂点を通る対角線に平行な参照方向として、左下方向を参照するイントラ予測モードであるモード「2」と、右上方向を参照するイントラ予測モードであるモード「66」とがあり、モード「2」からモード「66」まで時計回りに所定角度ごとにモード番号が割り振られている。 FIG. 2 is a diagram showing intra prediction mode candidates according to this embodiment. As shown in FIG. 2, there are 67 intra prediction modes from 0 to 66 as intra prediction mode candidates. Mode "0" of the intra prediction mode is planar prediction, mode "1" of the intra prediction mode is DC prediction, and modes "2" to "66" of the intra prediction mode are directional prediction. In directional prediction, the direction of the arrow indicates the reference direction, the starting point of the arrow indicates the position of the pixel to be predicted, and the end point of the arrow indicates the position of the reference pixel used to predict the pixel to be predicted. There are two modes: mode "2", which is an intra prediction mode that refers to the lower left direction, and mode "66", which is an intra prediction mode that refers to the upper right direction, as the reference direction parallel to the diagonal line passing through the upper right and lower left vertices of the block. , mode numbers are assigned clockwise from mode "2" to mode "66" for each predetermined angle.

インター予測部172は、フレーム間の相関を利用したインター予測を行う。具体的には、インター予測部172は、メモリ160に記憶された復号済み画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、インター予測の予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部174に出力する。ここで、インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する情報(動きベクトル等)をエントロピー符号化部130に出力する。 The inter prediction unit 172 performs inter prediction using correlation between frames. Specifically, the inter prediction unit 172 uses the decoded image stored in the memory 160 as a reference image, calculates a motion vector by a method such as block matching, predicts the prediction target block for inter prediction, and uses the inter prediction block as a reference image. A prediction block is generated, and the generated inter prediction block is output to the switching unit 174. Here, the inter prediction unit 172 selects the optimal inter prediction method from among inter prediction using multiple reference images (typically, bi-prediction) and inter prediction using one reference image (unidirectional prediction). Inter prediction is performed using the selected inter prediction method. The inter prediction unit 172 outputs information related to inter prediction (motion vectors, etc.) to the entropy encoding unit 130.

本実施形態において、予測部170は、CIIPの機能を有する。以下において、CIIPは、インター予測に属する機能であるものとする。予測部170は、予測対象ブロックにCIIPを適用する場合、CIIPの予測対象ブロックをインター予測及びイントラ予測によりそれぞれ予測してインター予測ブロック及びイントラ予測ブロックを生成し、インター予測ブロック及びイントラ予測ブロックを重み付け合成により合成することで予測ブロックを出力する。予測部170は、予測対象ブロックにCIIPを適用する場合、このブロックにCIIPを適用することを示す情報をエントロピー符号化部130に出力する。 In this embodiment, the prediction unit 170 has a CIIP function. In the following, CIIP is assumed to be a function belonging to inter prediction. When applying CIIP to a prediction target block, the prediction unit 170 generates an inter prediction block and an intra prediction block by respectively predicting the CIIP prediction target block by inter prediction and intra prediction, and generates an inter prediction block and an intra prediction block. A predicted block is output by combining using weighted combining. When applying CIIP to a block to be predicted, the prediction unit 170 outputs information indicating that CIIP is applied to this block to the entropy encoding unit 130.

具体的には、予測対象ブロックにCIIPを適用する場合、イントラ予測部171及びインター予測部172は、同一の予測対象ブロックに対してイントラ予測及びインター予測をそれぞれ行う。そして、イントラ予測部171がイントラ予測ブロックを合成処理部173に出力するとともに、インター予測部172がインター予測ブロックを合成処理部173に出力する。 Specifically, when applying CIIP to a prediction target block, the intra prediction unit 171 and the inter prediction unit 172 respectively perform intra prediction and inter prediction on the same prediction target block. Then, the intra prediction unit 171 outputs the intra prediction block to the synthesis processing unit 173, and the inter prediction unit 172 outputs the inter prediction block to the synthesis processing unit 173.

CIIPにおいて、イントラ予測部171は、イントラ予測のイントラ予測モードとしてPlanarモードを適用する。図3に示すように、Planar予測は、4つの矢印の始点にある上下左右の4つの参照画素を用いて内挿予測により予測画素値を生成するイントラ予測モードである。或いは、CIIPにおいて、イントラ予測部171は、Planarモード以外のイントラ予測モードを適用してもよい。 In CIIP, the intra prediction unit 171 applies Planar mode as an intra prediction mode for intra prediction. As shown in FIG. 3, Planar prediction is an intra prediction mode in which a predicted pixel value is generated by interpolation prediction using four reference pixels located on the upper, lower, left and right sides of the starting points of four arrows. Alternatively, in CIIP, the intra prediction unit 171 may apply an intra prediction mode other than Planar mode.

合成処理部173は、イントラ予測部171から出力されるイントラ予測ブロック及びインター予測部172から出力されるインター予測ブロックを重み付け合成により合成することで予測ブロックを生成し、生成した予測ブロックを切替部174に出力する。本実施形態において、合成処理部173が出力する予測ブロックは、インター予測ブロックの一種であるものとする。合成処理部173の詳細については後述する。 The combination processing unit 173 generates a prediction block by combining the intra prediction block output from the intra prediction unit 171 and the inter prediction block output from the inter prediction unit 172 by weighted combination, and sends the generated prediction block to the switching unit. 174. In this embodiment, it is assumed that the prediction block output by the synthesis processing unit 173 is a type of inter prediction block. Details of the composition processing section 173 will be described later.

切替部174は、インター予測部172又は合成処理部173から出力されるインター予測ブロックとイントラ予測部171から出力されるイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを減算部110及び合成部150に出力する。 The switching unit 174 switches between the inter prediction block output from the inter prediction unit 172 or the synthesis processing unit 173 and the intra prediction block output from the intra prediction unit 171, and selects one of the prediction blocks from the subtraction unit 110 and the synthesis unit. Output to 150.

図4は、本実施形態に係る画像符号化装置1の合成処理部173の構成を示す図である。 FIG. 4 is a diagram showing the configuration of the composition processing section 173 of the image encoding device 1 according to the present embodiment.

図4に示すように、合成処理部173は、モード特定部173aと、重み係数決定部173bと、重み付け合成部173cとを有する。 As shown in FIG. 4, the synthesis processing section 173 includes a mode identification section 173a, a weighting factor determination section 173b, and a weighting synthesis section 173c.

モード特定部173aは、メモリ160に記憶された各復号済みブロックのブロック予
測情報に基づいて、予測対象ブロックの周辺にイントラ予測が適用された周辺ブロック(復号済みブロック)がある場合、当該周辺ブロックに適用されたイントラ予測のイントラ予測モードを特定する。また、モード特定部173aは、予測対象ブロックの周辺にイントラ予測が適用された複数の周辺ブロックがある場合、当該複数の周辺ブロックのそれぞれに適用されたイントラ予測のイントラ予測モードを特定する。
Based on the block prediction information of each decoded block stored in the memory 160, the mode specifying unit 173a determines whether or not the prediction target block has a peripheral block to which intra prediction has been applied (decoded block) around the prediction target block. Identify the intra-prediction mode of the intra-prediction applied to. Furthermore, when there are a plurality of peripheral blocks to which intra prediction is applied around the prediction target block, the mode identifying unit 173a identifies the intra prediction mode of the intra prediction applied to each of the plurality of peripheral blocks.

本実施形態において、予測対象ブロックの上にある隣接ブロックである上ブロック及び予測対象ブロックの左にある隣接ブロックである左ブロックを周辺ブロックとして用いる。予測対象ブロック及び周辺ブロックは、ブロック形状やブロックサイズが互いに異なっている場合ある。このため、図5に示すように、上ブロックは、予測対象ブロックの最も右上にある画素の上側に隣接する画素を含む隣接ブロックとする。また、左ブロックは、予測対象ブロックの最も左下にある画素の左側に隣接する画素を含む隣接ブロックとする。 In this embodiment, an upper block that is an adjacent block above the prediction target block and a left block that is an adjacent block to the left of the prediction target block are used as peripheral blocks. The prediction target block and the surrounding blocks may have different block shapes and block sizes. Therefore, as shown in FIG. 5, the upper block is an adjacent block that includes a pixel adjacent to the upper right pixel of the prediction target block. Further, the left block is an adjacent block including a pixel adjacent to the left side of the lower left pixel of the prediction target block.

モード特定部173aは、予測対象ブロックのイントラ予測に適用されたイントラ予測モードと、複数の周辺ブロック(上ブロック及び左ブロック)のそれぞれのイントラ予測モードとを比較する。具体的には、モード特定部173aは、複数の周辺ブロックのそれぞれのイントラ予測モードのうち予測対象ブロックのイントラ予測に適用されたイントラ予測モードと一致する数であるモード一致数を特定し、特定したモード一致数を重み係数決定部173bに出力する。 The mode specifying unit 173a compares the intra prediction mode applied to the intra prediction of the prediction target block and the intra prediction modes of each of the plurality of peripheral blocks (upper block and left block). Specifically, the mode identifying unit 173a identifies the number of mode matches, which is the number that matches the intra prediction mode applied to the intra prediction of the prediction target block, among the intra prediction modes of each of the plurality of peripheral blocks, and The mode matching number is output to the weighting coefficient determination unit 173b.

CIIPにおいて予測対象ブロックに適用されるイントラ予測モードがPlanarモードで固定である場合、モード特定部173aは、周辺ブロックのイントラ予測モードの情報をメモリ160から読み出し、周辺ブロックのイントラ予測モードのうちPlanarモードの個数をモード一致数として特定する。本実施形態においては周辺ブロックを上ブロック及び左ブロックとしているため、モード一致数は、0、1、又は2となる。 When the intra prediction mode applied to the prediction target block in CIIP is fixed at Planar mode, the mode specifying unit 173a reads information on the intra prediction modes of the surrounding blocks from the memory 160, and selects the Planar mode among the intra prediction modes of the surrounding blocks. Specify the number of modes as the number of mode matches. In this embodiment, since the peripheral blocks are the upper block and the left block, the number of mode matches is 0, 1, or 2.

一方、CIIPにおいて予測対象ブロックに適用されるイントラ予測モードが可変である場合、モード特定部173aは、周辺ブロックのイントラ予測モードの情報をメモリ160から読み出すとともに、予測対象ブロックに適用されるイントラ予測モードの情報をイントラ予測部171から取得する。そして、モード特定部173aは、周辺ブロックのイントラ予測モードのうち、予測対象ブロックに適用されるイントラ予測モードの個数をモード一致数として特定する。本実施形態においては周辺ブロックを上ブロック及び左ブロックとしているため、モード一致数は、0、1、又は2となる。 On the other hand, when the intra prediction mode applied to the prediction target block in CIIP is variable, the mode specifying unit 173a reads information on the intra prediction mode of the surrounding blocks from the memory 160, and also reads the intra prediction mode information applied to the prediction target block from the memory 160. Mode information is acquired from the intra prediction unit 171. Then, the mode specifying unit 173a specifies the number of intra prediction modes applied to the prediction target block among the intra prediction modes of the surrounding blocks as the number of mode matches. In this embodiment, since the peripheral blocks are the upper block and the left block, the number of mode matches is 0, 1, or 2.

重み係数決定部173bは、モード特定部173aが特定した周辺ブロックのイントラ予測モードに基づいて、CIIPにおける重み付け合成に用いる重み係数を決定し、決定した重み係数を重み付け合成部173cに出力する。本実施形態において、重み係数決定部173bは、モード特定部173aが出力するモード一致数に基づいて重み係数を決定する。 The weighting coefficient determination unit 173b determines a weighting coefficient to be used for weighted combination in CIIP based on the intra prediction mode of the peripheral block identified by the mode identification unit 173a, and outputs the determined weighting coefficient to the weighted combination unit 173c. In the present embodiment, the weighting factor determination unit 173b determines the weighting coefficient based on the number of mode matches output by the mode identifying unit 173a.

例えば、重み係数決定部173bは、表1に示すように、モード一致数の増加につれて、インター予測ブロックに対するイントラ予測ブロックの重みの比が大きくなるように、重み係数を決定する。 For example, as shown in Table 1, the weighting coefficient determining unit 173b determines the weighting coefficients so that as the number of mode matches increases, the weight ratio of the intra-predicted block to the inter-predicted block increases.

Figure 2023168518000002
Figure 2023168518000002

ここでは、イントラ予測ブロックの重み及びインター予測ブロックの重みの合計が4になるようにしている。例えば、重み係数決定部173bは、イントラ予測ブロックの重みを重み係数wtとして重み付け合成部173cに出力する。 Here, the total weight of the intra prediction block and the inter prediction block is set to 4. For example, the weighting coefficient determination unit 173b outputs the weight of the intra prediction block to the weighting synthesis unit 173c as a weighting coefficient wt.

重み付け合成部173cは、重み係数決定部173bから出力される重み係数wtに基づいて、イントラ予測部171から出力されるイントラ予測ブロック及びインター予測部172から出力されるインター予測ブロックを重み付け合成により合成することで予測ブロックを生成し、生成した予測ブロックを切替部174に出力する。 The weighted synthesis unit 173c combines the intra prediction block outputted from the intra prediction unit 171 and the inter prediction block outputted from the inter prediction unit 172 by weighted synthesis based on the weighting coefficient wt outputted from the weighting coefficient determination unit 173b. By doing so, a prediction block is generated, and the generated prediction block is output to the switching unit 174.

具体的には、重み付け合成部173cは、イントラ予測ブロック及びインター予測ブロックを画素単位で重み付け合成により合成する。例えば、イントラ予測ブロックの画素値をPintra、インター予測ブロックの画素値をPinterとした場合、重み付け合成部173cは、予測ブロックの画素値PCIIPを次の式(1)により算出する。 Specifically, the weighted synthesis unit 173c synthesizes the intra prediction block and the inter prediction block by weighted synthesis on a pixel basis. For example, when the pixel value of the intra-prediction block is P intra and the pixel value of the inter-prediction block is P inter , the weighted synthesis unit 173c calculates the pixel value P CIIP of the prediction block using the following equation (1).

Figure 2023168518000003
Figure 2023168518000003

<画像復号装置の構成>
次に、本実施形態に係る画像復号装置の構成について説明する。図6は、本実施形態に係る画像復号装置2の構成を示す図である。
<Configuration of image decoding device>
Next, the configuration of the image decoding device according to this embodiment will be described. FIG. 6 is a diagram showing the configuration of the image decoding device 2 according to this embodiment.

図6に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。本実施形態において、予測部240は、画像復号装置2に設けられる予測ブロック生成装置に相当する。 As shown in FIG. 6, the image decoding device 2 includes an entropy decoding section 200, an inverse quantization/inverse transformation section 210, a combining section 220, a memory 230, and a prediction section 240. In this embodiment, the prediction unit 240 corresponds to a prediction block generation device provided in the image decoding device 2.

エントロピー復号部200は、画像符号化装置1により生成された符号化データを復号し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロピー復号部200は、予測(イントラ予測及びインター予測)に関する情報を取得し、取得した情報を予測部240に出力する。本実施形態において、エントロピー復号部200は、復号対象ブロックにCIIPが適用されている場合、復号対象ブロックにCIIPが適用されていることを示す情報を取得し、取得した情報を予測部240に出力する。 The entropy decoding unit 200 decodes the encoded data generated by the image encoding device 1 and outputs quantized orthogonal transform coefficients to the inverse quantization/inverse transform unit 210. Further, the entropy decoding unit 200 acquires information regarding prediction (intra prediction and inter prediction), and outputs the acquired information to the prediction unit 240. In this embodiment, when CIIP is applied to the block to be decoded, the entropy decoding unit 200 acquires information indicating that CIIP is applied to the block to be decoded, and outputs the acquired information to the prediction unit 240. do.

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。 The inverse quantization/inverse transform unit 210 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization/inverse transformation section 210 includes an inverse quantization section 211 and an inverse transformation section 212.

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から出力される量子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象ブロックの直交変換係数を復元し、復元した直交変換係数を逆変換部212に出力する。 The dequantization unit 211 performs dequantization processing corresponding to the quantization processing performed by the quantization unit 122 of the image encoding device 1. The dequantization unit 211 dequantizes the quantized orthogonal transform coefficients output from the entropy decoding unit 200 using the quantization parameter (Qp) and the quantization matrix, thereby dequantizing the orthogonal transform coefficients of the block to be decoded. The restored orthogonal transform coefficients are output to the inverse transform unit 212.

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から出力される直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121 of the image encoding device 1. The inverse transform unit 212 performs inverse orthogonal transform processing on the orthogonal transform coefficients output from the inverse quantization unit 211 to restore the prediction residual, and combines the restored prediction residual (restored prediction residual) with the synthesis unit 220 Output to.

合成部220は、逆変換部212から出力される予測残差と、予測部240から出力される予測ブロックとを画素単位で合成することにより、元のブロックを復号(再構成)し、復号済みブロックをメモリ230に出力する。 The combining unit 220 decodes (reconfigures) the original block by combining the prediction residual output from the inverse transform unit 212 and the prediction block output from the prediction unit 240 pixel by pixel. Output the block to memory 230.

メモリ230は、合成部220から出力される復号済みブロックを記憶し、復号済みブロックをフレーム単位で復号済み画像として蓄積する。メモリ230は、復号済みブロック若しくは復号済み画像を予測部240に出力する。また、メモリ230は、フレーム単位の復号済み画像を画像復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが設けられてもよい。本実施形態において、メモリ230は、各復号済みブロックに適用された予測に関するブロック予測情報をさらに記憶する。 The memory 230 stores the decoded blocks output from the combining unit 220, and accumulates the decoded blocks as decoded images in units of frames. The memory 230 outputs the decoded block or decoded image to the prediction unit 240. Furthermore, the memory 230 outputs the decoded image in units of frames to the outside of the image decoding device 2 . Note that a loop filter may be provided between the synthesis section 220 and the memory 230. In this embodiment, memory 230 further stores block prediction information regarding predictions applied to each decoded block.

予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、合成処理部243と、切替部244とを有する。 The prediction unit 240 performs prediction on a block-by-block basis. The prediction unit 240 includes an intra prediction unit 241 , an inter prediction unit 242 , a combination processing unit 243 , and a switching unit 244 .

イントラ予測部241は、フレーム内の空間的な相関を利用したイントラ予測を行う。具体的には、イントラ予測部241は、エントロピー復号部200から出力されるイントラ予測に関する情報(例えば、イントラ予測モードの情報)に基づいて、メモリ230に記憶された復号済み画像のうちイントラ予測の予測対象ブロックの周辺にある復号済み画素を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部244に出力する。 The intra prediction unit 241 performs intra prediction using spatial correlation within a frame. Specifically, the intra prediction unit 241 determines whether the intra prediction is correct among the decoded images stored in the memory 230 based on information regarding intra prediction output from the entropy decoding unit 200 (for example, information on the intra prediction mode). An intra prediction block is generated by referring to decoded pixels around the prediction target block, and the generated intra prediction block is output to the switching unit 244.

インター予測部242は、フレーム間の相関を利用したインター予測を行う。具体的には、インター予測部242は、エントロピー復号部200から出力されるインター予測に関する情報(例えば、動きベクトル情報)に基づいて、メモリ230に記憶された復号済み画像を参照画像として用いてインター予測の予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部244に出力する。 The inter prediction unit 242 performs inter prediction using correlation between frames. Specifically, the inter prediction unit 242 performs inter prediction using the decoded image stored in the memory 230 as a reference image based on information regarding inter prediction (for example, motion vector information) output from the entropy decoding unit 200. The prediction target block is predicted to generate an inter prediction block, and the generated inter prediction block is output to the switching unit 244.

本実施形態において、予測部240は、CIIPの機能を有する。予測部240は、エントロピー復号部200から出力される情報が予測対象ブロックにCIIPを適用することを示す情報を含む場合、CIIPの予測対象ブロックをインター予測及びイントラ予測によりそれぞれ予測してインター予測ブロック及びイントラ予測ブロックを生成し、インター予測ブロック及びイントラ予測ブロックを重み付け合成により合成することで予測ブロックを出力する。 In this embodiment, the prediction unit 240 has a CIIP function. When the information output from the entropy decoding unit 200 includes information indicating that CIIP is applied to the prediction target block, the prediction unit 240 predicts the CIIP prediction target block by inter prediction and intra prediction, respectively, and generates an inter prediction block. and an intra prediction block, and outputs the prediction block by combining the inter prediction block and the intra prediction block by weighted combination.

具体的には、予測対象ブロックにCIIPを適用する場合、イントラ予測部241及びインター予測部242は、同一の予測対象ブロックに対してイントラ予測及びインター予測をそれぞれ行う。そして、イントラ予測部241がイントラ予測ブロックを合成処理部243に出力するとともに、インター予測部242がインター予測ブロックを合成処理部243に出力する。CIIPにおいて、イントラ予測部241は、イントラ予測のイントラ予測モードとしてPlanarモードを適用する。或いは、CIIPにおいて、イントラ予測部241は、Planarモード以外のイントラ予測モードを適用してもよい。 Specifically, when applying CIIP to a prediction target block, the intra prediction unit 241 and the inter prediction unit 242 respectively perform intra prediction and inter prediction on the same prediction target block. Then, the intra prediction unit 241 outputs the intra prediction block to the synthesis processing unit 243, and the inter prediction unit 242 outputs the inter prediction block to the synthesis processing unit 243. In CIIP, the intra prediction unit 241 applies Planar mode as an intra prediction mode for intra prediction. Alternatively, in CIIP, the intra prediction unit 241 may apply an intra prediction mode other than Planar mode.

合成処理部243は、イントラ予測部241から出力されるイントラ予測ブロック及びインター予測部242から出力されるインター予測ブロックを重み付け合成により合成することで予測ブロックを生成し、生成した予測ブロックを切替部244に出力する。 The combination processing unit 243 generates a prediction block by combining the intra prediction block output from the intra prediction unit 241 and the inter prediction block output from the inter prediction unit 242 by weighted combination, and sends the generated prediction block to the switching unit. 244.

切替部244は、インター予測部242又は合成処理部243から出力されるインター予測ブロックとイントラ予測部241から出力されるイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを合成部220に出力する。 The switching unit 244 switches between the inter prediction block output from the inter prediction unit 242 or the synthesis processing unit 243 and the intra prediction block output from the intra prediction unit 241, and outputs either prediction block to the synthesis unit 220. .

図7は、本実施形態に係る画像復号装置2の合成処理部243の構成を示す図である。 FIG. 7 is a diagram showing the configuration of the composition processing section 243 of the image decoding device 2 according to this embodiment.

図7に示すように、合成処理部243は、モード特定部243aと、重み係数決定部243bと、重み付け合成部243cとを有する。モード特定部243a、重み係数決定部243b、及び重み付け合成部243cは、図4に示すモード特定部173a、重み係数決定部173b、及び重み付け合成部173cとそれぞれ同様な動作を行う。 As shown in FIG. 7, the synthesis processing section 243 includes a mode specifying section 243a, a weighting coefficient determining section 243b, and a weighting synthesis section 243c. The mode specifying section 243a, the weighting factor determining section 243b, and the weighting combining section 243c perform the same operations as the mode specifying section 173a, the weighting factor determining section 173b, and the weighting combining section 173c shown in FIG. 4, respectively.

<予測ブロック生成の動作例>
次に、本実施形態に係る予測ブロック生成の動作フロー例について説明する。画像符号化装置1及び画像復号装置2で予測ブロック生成の動作は同じであるが、ここでは画像復号装置2における予測ブロック生成(予測部240)の動作を説明する。
<Operation example of predictive block generation>
Next, an example of the operation flow of predictive block generation according to this embodiment will be described. Although the operation of generating a predictive block is the same in the image encoding device 1 and the image decoding device 2, the operation of generating a predictive block (prediction unit 240) in the image decoding device 2 will be described here.

図8は、本実施形態に係る画像復号装置2における予測ブロック生成(予測部240)の動作フロー例を示す図である。 FIG. 8 is a diagram showing an example of the operation flow of predictive block generation (prediction unit 240) in the image decoding device 2 according to the present embodiment.

図8に示すように、ステップS1において、予測部240は、エントロピー復号部200から出力される情報に基づいて、予測対象ブロックにCIIPを適用するか否かを判定する。 As shown in FIG. 8, in step S1, the prediction unit 240 determines whether to apply CIIP to the prediction target block based on the information output from the entropy decoding unit 200.

予測対象ブロックにCIIPを適用する場合(ステップS1:YES)、ステップS2において、イントラ予測部241及びインター予測部242は、予測対象ブロックをインター予測及びイントラ予測によりそれぞれ予測してインター予測ブロック及びイントラ予測ブロックを生成する。 When applying CIIP to the prediction target block (step S1: YES), in step S2, the intra prediction unit 241 and the inter prediction unit 242 predict the prediction target block by inter prediction and intra prediction, respectively, and generate an inter prediction block and an intra prediction block. Generate a prediction block.

ステップS3において、モード特定部243aは、予測対象ブロックの周辺にある周辺ブロックに適用されたイントラ予測のイントラ予測モードの情報をメモリ230から取得する。本実施形態において、予測対象ブロックの上にある隣接ブロックである上ブロック及び予測対象ブロックの左にある隣接ブロックである左ブロックを周辺ブロックとして用いる。 In step S3, the mode specifying unit 243a acquires from the memory 230 information on the intra prediction mode of intra prediction applied to peripheral blocks around the prediction target block. In this embodiment, an upper block that is an adjacent block above the prediction target block and a left block that is an adjacent block to the left of the prediction target block are used as peripheral blocks.

ステップS4において、モード特定部243aは、複数の周辺ブロックのそれぞれのイントラ予測モードのうち予測対象ブロックのイントラ予測に適用されたイントラ予測モードと一致する数であるモード一致数を特定する。 In step S4, the mode specifying unit 243a specifies the number of mode matches, which is the number that matches the intra prediction mode applied to the intra prediction of the prediction target block, among the intra prediction modes of each of the plurality of peripheral blocks.

上述したように、CIIPにおいて予測対象ブロックに適用されるイントラ予測モードがPlanarモードで固定である場合、モード特定部243aは、周辺ブロックのイントラ予測モードの情報をメモリ230から読み出し、周辺ブロックのイントラ予測モードのうちPlanarモードの個数をモード一致数として特定する。 As described above, when the intra prediction mode applied to the prediction target block in CIIP is fixed at Planar mode, the mode specifying unit 243a reads information on the intra prediction mode of the surrounding block from the memory 230, and uses the intra prediction mode of the surrounding block. The number of Planar modes among the prediction modes is specified as the number of mode matches.

一方、CIIPにおいて予測対象ブロックに適用されるイントラ予測モードが可変である場合、モード特定部243aは、周辺ブロックのイントラ予測モードの情報をメモリ230から読み出すとともに、予測対象ブロックに適用されるイントラ予測モードの情報をイントラ予測部241から取得する。そして、モード特定部243aは、周辺ブロックのイントラ予測モードのうち、予測対象ブロックに適用されるイントラ予測モードの個数をモード一致数として特定する。 On the other hand, when the intra prediction mode applied to the prediction target block in CIIP is variable, the mode specifying unit 243a reads information on the intra prediction mode of the surrounding blocks from the memory 230, and also reads the intra prediction mode information applied to the prediction target block from the memory 230. Mode information is acquired from the intra prediction unit 241. Then, the mode specifying unit 243a specifies the number of intra prediction modes applied to the prediction target block among the intra prediction modes of the surrounding blocks as the number of mode matches.

ステップS5において、重み係数決定部243bは、モード特定部243aが出力するモード一致数に基づいて、CIIPにおける重み付け合成に用いる重み係数を表1により決定し、決定した重み係数を重み付け合成部243cに出力する。 In step S5, the weighting coefficient determination unit 243b determines the weighting coefficient to be used for weighted synthesis in CIIP based on Table 1 based on the number of mode matches output by the mode identification unit 243a, and sends the determined weighting coefficient to the weighted synthesis unit 243c. Output.

ステップS6において、重み付け合成部243cは、重み係数決定部243bから出力される重み係数に基づいて、イントラ予測部241から出力されるイントラ予測ブロック及びインター予測部242から出力されるインター予測ブロックを重み付け合成により合成することで予測ブロックを生成し、生成した予測ブロックを出力する。 In step S6, the weighting synthesis unit 243c weights the intra prediction block output from the intra prediction unit 241 and the inter prediction block output from the inter prediction unit 242 based on the weight coefficient output from the weight coefficient determination unit 243b. A prediction block is generated by combining, and the generated prediction block is output.

<実施形態のまとめ>
上述したように、本実施形態に係る合成処理部173及び合成処理部243は、予測対象ブロックにCIIPを適用する場合、周辺ブロックのイントラ予測モードに基づいてCIIPにおける重み付け合成に用いる重み係数を決定する。
<Summary of embodiments>
As described above, when applying CIIP to a prediction target block, the synthesis processing unit 173 and the synthesis processing unit 243 according to the present embodiment determine weighting coefficients to be used for weighted synthesis in CIIP based on the intra prediction modes of surrounding blocks. do.

これにより、周辺ブロックでイントラ予測が適用されていても、予測対象ブロックと周辺ブロックとでイントラ予測モードが一致しない場合には、イントラ予測ブロックの重みを大きくしないことで、CIIPにおける予測精度の低下を抑制できる。 As a result, even if intra prediction is applied to the surrounding blocks, if the intra prediction modes do not match between the prediction target block and the surrounding blocks, the weight of the intra prediction block is not increased, which reduces the prediction accuracy in CIIP. can be suppressed.

また、予測対象ブロックと周辺ブロックとでイントラ予測モードが一致する場合は、予測対象ブロックと周辺ブロックとで相関性が高いといえるため、イントラ予測ブロックの重みを大きくすることで、CIIPにおける予測精度を向上させることができる。 In addition, if the intra prediction modes of the prediction target block and the surrounding blocks match, it can be said that the correlation between the prediction target block and the surrounding blocks is high, so by increasing the weight of the intra prediction block, the prediction accuracy in CIIP can be improved.

<その他の実施形態>
上述した実施形態において、合成処理部173及び合成処理部243は、予測対象ブロックにCIIPを適用する場合、周辺ブロックのイントラ予測モードに基づいてCIIPにおける重み付け合成に用いる重み係数を決定していた。しかしながら、重み係数の決定にあたり、周辺ブロックのイントラ予測モードだけではなく、周辺ブロックに適用された予測方式がイントラ予測であるか又はインター予測であるかを考慮してもよい。
<Other embodiments>
In the embodiments described above, when applying CIIP to a prediction target block, the combination processing unit 173 and the combination processing unit 243 determine weighting coefficients to be used for weighted combination in CIIP based on the intra prediction modes of neighboring blocks. However, in determining the weighting coefficient, not only the intra prediction mode of the surrounding blocks but also whether the prediction method applied to the surrounding blocks is intra prediction or inter prediction may be considered.

図9は、その他の実施形態に係る合成処理部173の構成を示す図である。ここでは合成処理部173の構成を例に挙げて説明するが、合成処理部243も同様に構成されるものとする。 FIG. 9 is a diagram showing the configuration of the synthesis processing section 173 according to another embodiment. Here, the configuration of the composition processing section 173 will be explained as an example, but it is assumed that the composition processing section 243 is also constructed in the same manner.

図9に示すように、合成処理部173は、周辺ブロックに適用された予測方式がイントラ予測であるか又はインター予測であるかを特定する予測方式特定部173dをさらに有する。例えば、予測方式特定部173dは、上ブロック及び左ブロック(図5参照)のそれぞれについて、適用された予測方式がイントラ予測であるか又はインター予測であるかを示す予測方式情報を取得し、取得した予測方式情報を重み係数決定部173bに出力する。 As shown in FIG. 9, the synthesis processing section 173 further includes a prediction method specifying section 173d that specifies whether the prediction method applied to the peripheral block is intra prediction or inter prediction. For example, the prediction method identifying unit 173d acquires prediction method information indicating whether the applied prediction method is intra prediction or inter prediction for each of the upper block and the left block (see FIG. 5), and acquires the prediction method information indicating whether the applied prediction method is intra prediction or inter prediction. The predicted prediction method information is output to the weighting coefficient determination unit 173b.

重み係数決定部173bは、予測方式特定部173dが特定した周辺ブロックの予測方式と、モード特定部173aが特定した周辺ブロックのイントラ予測モードとに基づいて、CIIPにおける重み付け合成に用いる重み係数を決定する。例えば、重み係数決定部173bは、表2に示すように重み係数を決定する。 The weighting coefficient determination unit 173b determines a weighting coefficient to be used for weighted synthesis in CIIP based on the prediction method of the peripheral block identified by the prediction method identification unit 173d and the intra prediction mode of the peripheral block identified by the mode identification unit 173a. do. For example, the weighting coefficient determination unit 173b determines the weighting coefficients as shown in Table 2.

Figure 2023168518000004
Figure 2023168518000004

ここでは、イントラ予測ブロックの重み及びインター予測ブロックの重みの合計が8になるようにしている。例えば、重み係数決定部173bは、イントラ予測ブロックの重みを重み係数wtとして重み付け合成部173cに出力する。 Here, the total weight of the intra prediction block and the inter prediction block is set to eight. For example, the weighting coefficient determination unit 173b outputs the weight of the intra prediction block to the weighting synthesis unit 173c as a weighting coefficient wt.

なお、画像符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。画像復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 Note that a program that causes a computer to execute each process performed by the image encoding device 1 may be provided. A program that causes a computer to execute each process performed by the image decoding device 2 may be provided. The program may be recorded on a computer readable medium. Computer-readable media allow programs to be installed on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, and may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。 The image encoding device 1 may be configured by a semiconductor integrated circuit (chip set, SoC) by integrating circuits that execute each process performed by the image encoding device 1. The image decoding device 2 may be configured by a semiconductor integrated circuit (chip set, SoC) by integrating circuits that execute each process performed by the image decoding device 2.

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes can be made without departing from the scope of the invention.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
173 :合成処理部
173a :モード特定部
173b :重み係数決定部
173c :重み付け合成部
173d :予測方式特定部
174 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
243 :合成処理部
243a :モード特定部
243b :重み係数決定部
243c :重み付け合成部
243d :予測方式特定部
244 :切替部
1: Image encoding device 2: Image decoding device 100: Block division unit 110: Subtraction unit 120: Transformation/quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization/inverse transformation Unit 141: Inverse quantization unit 142: Inverse transformation unit 150: Combination unit 160: Memory 170: Prediction unit 171: Intra prediction unit 172: Inter prediction unit 173: Combination processing unit 173a: Mode identification unit 173b: Weighting coefficient determination unit 173c : Weighted synthesis unit 173d : Prediction method identification unit 174 : Switching unit 200 : Entropy decoding unit 210 : Inverse quantization/inverse transformation unit 211 : Inverse quantization unit 212 : Inverse transformation unit 220 : Combining unit 230 : Memory 240 : Prediction unit 241: Intra prediction section 242: Inter prediction section 243: Combination processing section 243a: Mode specification section 243b: Weighting coefficient determination section 243c: Weighting synthesis section 243d: Prediction method specification section 244: Switching section

Claims (4)

画像を分割して得た予測対象ブロックをイントラ予測及び前記イントラ予測と異なる所定予測によりそれぞれ予測してイントラ予測信号及び所定予測信号を生成し、前記イントラ予測信号及び前記所定予測信号を重み付け合成により合成することで前記予測対象ブロック内の予測信号を出力する予測ブロック生成装置であって、
前記予測対象ブロックの周辺にイントラ予測が適用された周辺ブロックがある場合、前記周辺ブロックに適用されたイントラ予測のイントラ予測モードを特定するモード特定部と、
前記モード特定部が特定した前記イントラ予測モードに基づいて、前記重み付け合成に用いる重み係数を決定する重み係数決定部と、を備えることを特徴とする予測ブロック生成装置。
A prediction target block obtained by dividing the image is predicted by intra prediction and a predetermined prediction different from the intra prediction to generate an intra prediction signal and a predetermined prediction signal, and the intra prediction signal and the predetermined prediction signal are weighted and combined. A prediction block generation device that outputs a prediction signal in the prediction target block by combining,
If there is a peripheral block to which intra prediction is applied around the prediction target block, a mode identifying unit that identifies an intra prediction mode of intra prediction applied to the peripheral block;
A predictive block generation device comprising: a weighting coefficient determining unit that determines a weighting coefficient to be used in the weighted combination based on the intra prediction mode identified by the mode identifying unit.
請求項1に記載の予測ブロック生成装置を備えることを特徴とする画像符号化装置。 An image encoding device comprising the predictive block generation device according to claim 1. 請求項1に記載の予測ブロック生成装置を備えることを特徴とする画像復号装置。 An image decoding device comprising the predictive block generation device according to claim 1. コンピュータを請求項1に記載の予測ブロック生成装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the predictive block generation device according to claim 1.
JP2023172326A 2019-08-05 2023-10-03 Prediction block generation device, image encoder, image decoder, and program Pending JP2023168518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023172326A JP2023168518A (en) 2019-08-05 2023-10-03 Prediction block generation device, image encoder, image decoder, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019143892A JP7361522B2 (en) 2019-08-05 2019-08-05 Predictive block generation device, image encoding device, image decoding device, and program
JP2023172326A JP2023168518A (en) 2019-08-05 2023-10-03 Prediction block generation device, image encoder, image decoder, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019143892A Division JP7361522B2 (en) 2019-08-05 2019-08-05 Predictive block generation device, image encoding device, image decoding device, and program

Publications (1)

Publication Number Publication Date
JP2023168518A true JP2023168518A (en) 2023-11-24

Family

ID=74662541

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019143892A Active JP7361522B2 (en) 2019-08-05 2019-08-05 Predictive block generation device, image encoding device, image decoding device, and program
JP2023172326A Pending JP2023168518A (en) 2019-08-05 2023-10-03 Prediction block generation device, image encoder, image decoder, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019143892A Active JP7361522B2 (en) 2019-08-05 2019-08-05 Predictive block generation device, image encoding device, image decoding device, and program

Country Status (1)

Country Link
JP (2) JP7361522B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887732B (en) * 2021-04-30 2021-10-01 浙江智慧视频安防创新中心有限公司 Method and device for inter-frame and intra-frame joint prediction coding and decoding with configurable weight
JP2023005868A (en) * 2021-06-29 2023-01-18 Kddi株式会社 Image decoding device, image decoding method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116347069A (en) 2018-11-08 2023-06-27 Oppo广东移动通信有限公司 Video signal encoding/decoding method and apparatus therefor
EP3891978A4 (en) 2019-02-01 2022-08-31 Beijing Bytedance Network Technology Co., Ltd. Extended application of combined intra-inter prediction

Also Published As

Publication number Publication date
JP2021027464A (en) 2021-02-22
JP7361522B2 (en) 2023-10-16

Similar Documents

Publication Publication Date Title
JP7424982B2 (en) Image encoding device, image decoding device, and program
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
US20210014489A1 (en) Intra prediction device, image encoding device, image decoding device and program
JP7357736B2 (en) Encoding device, decoding device, and program
JP2007013298A (en) Image coding apparatus
JP2024053019A (en) Encoding device, decoding device, and program
JP2023138826A (en) Intra prediction device, image coding device, image decoding device, and program
JP7415067B2 (en) Intra prediction device, image decoding device, and program
CN113056918B (en) Image encoding device, image decoding device, and program
JP7219030B2 (en) Chroma intra prediction candidate generation device, image coding device, image decoding device, and program
JP2020137119A (en) Intra prediction device, image coding device, image decoding device, and program
JP7396883B2 (en) Encoding device, decoding device, and program
JP2007266861A (en) Image encoding device
JP7361498B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP2006237765A (en) Image coding apparatus
JP2020053725A (en) Predictive image correction device, image encoding device, image decoding device, and program
JP7441638B2 (en) Encoding device, decoding device, and program
JP7229413B2 (en) Image encoding device, image decoding device, and program
WO2021100450A1 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
KR20110067648A (en) Method for encoding/decoding image and apparatus for performing the same
JP2020156087A (en) Intra prediction device, image encoding device, image decoding device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231003