JP2023177425A - Moving image decoding device, moving image encoding device, and angle mode derivation device - Google Patents

Moving image decoding device, moving image encoding device, and angle mode derivation device Download PDF

Info

Publication number
JP2023177425A
JP2023177425A JP2022090076A JP2022090076A JP2023177425A JP 2023177425 A JP2023177425 A JP 2023177425A JP 2022090076 A JP2022090076 A JP 2022090076A JP 2022090076 A JP2022090076 A JP 2022090076A JP 2023177425 A JP2023177425 A JP 2023177425A
Authority
JP
Japan
Prior art keywords
prediction
unit
mode
gradient
predicted image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022090076A
Other languages
Japanese (ja)
Inventor
将伸 八杉
Masanobu Yasugi
知宏 猪飼
Tomohiro Igai
友子 青野
Tomoko Aono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022090076A priority Critical patent/JP2023177425A/en
Priority to PCT/JP2023/019656 priority patent/WO2023234200A1/en
Publication of JP2023177425A publication Critical patent/JP2023177425A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

To dispense with a search for converting the gradient of a pixel value to an intra direction prediction mode, the search having interfered with concurrent processing in conventional decoder-side intra-mode derivation (DIMD) prediction.SOLUTION: A moving image decoding device comprises: a gradient derivation unit which derives the gradient of a pixel value in a block adjacent to the top and the left of an object block; an angle mode derivation unit which derives an angle mode for deriving an angle mode corresponding to the gradient; an angle mode selection unit which selects the derived angle mode, and a temporal prediction image derivation unit which derives a temporal prediction image based on the angle mode. The device refers to a table including the angle mode corresponding to the gradient and thereby derives the angle mode.SELECTED DRAWING: Figure 6

Description

本発明の実施形態は、動画像復号装置および動画像符号化装置および角度モード導出装置に関する。 Embodiments of the present invention relate to a moving image decoding device, a moving image encoding device, and an angular mode deriving device.

動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置が用いられている。 In order to efficiently transmit or record moving images, a moving image encoding device generates encoded data by encoding a moving image, and a moving image generates a decoded image by decoding the encoded data. An image decoding device is used.

具体的な動画像符号化方式としては、例えば、H.264/AVCやHEVC(High-Efficiency Video Coding)にて提案されている方式などが挙げられる。 Specific video encoding methods include, for example, methods proposed in H.264/AVC and HEVC (High-Efficiency Video Coding).

このような動画像符号化方式においては、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化ツリーユニット(CTU:Coding Tree Unit)、符号化ツリーユニットを分割することで得
られる符号化単位(符号化ユニット(Coding Unit:CU)と呼ばれることもある)、及び
、符号化単位を分割することより得られる変換ユニット(TU:Transform Unit)からなる階層構造により管理され、CU毎に符号化/復号される。
In such a video encoding method, the images (pictures) that make up a video are divided into slices obtained by dividing the image and coding tree units (CTUs) obtained by dividing the slices. ), a coding unit obtained by dividing a coding tree unit (sometimes called a coding unit (CU)), and a transform unit (TU: obtained by partitioning a coding unit). It is managed by a hierarchical structure consisting of CUs (Transform Units), and is encoded/decoded for each CU.

また、このような動画像符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測誤差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。 In addition, in such a video encoding method, a predicted image is usually generated based on a locally decoded image obtained by encoding/decoding the input image, and the predicted image is generated from the input image (original image). The prediction error obtained by subtraction (sometimes referred to as a "difference image" or "residual image") is encoded. Methods for generating predicted images include inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction).

また、近年の動画像符号化及び復号の技術として非特許文献1が挙げられる。非特許文献1には、デコーダが隣接領域の画素を用いてイントラ方向予測モード番号を導出することにより予測画像を導出するデコーダ側イントラモード導出(Decoder-side Intra Mode Derivation, DIMD)予測が開示されている。 Furthermore, non-patent document 1 can be cited as a recent technique for video encoding and decoding. Non-Patent Document 1 discloses decoder-side intra mode derivation (DIMD) prediction in which a decoder derives a predicted image by deriving an intra direction prediction mode number using pixels in an adjacent region. ing.

M. Abdoli, T. Guionnet, E. Mora, et. al, “Non-CE3: Decoder-side Intra Mode Derivation with Prediction Fusion Using Planar”, JVET-O0449, Gothenburg, July 2019.M. Abdoli, T. Guionnet, E. Mora, et. al, “Non-CE3: Decoder-side Intra Mode Derivation with Prediction Fusion Using Planar”, JVET-O0449, Gothenburg, July 2019.

非特許文献1のようなデコーダ側イントラモード導出では、参照領域の画素値の勾配を用いて対象ブロックにおけるイントラ方向予測モードを推定する。このとき、勾配の方向をイントラ方向予測モードに変換するために配列の探索が行われ、処理量が増加するという課題がある。 In decoder-side intra mode derivation as in Non-Patent Document 1, the intra direction prediction mode in the target block is estimated using the gradient of pixel values in the reference area. At this time, an array search is performed to convert the direction of the gradient to the intra direction prediction mode, resulting in an increase in the amount of processing.

本発明は、デコーダ側イントラモード導出において、勾配からイントラモードを導出するための処理量を増やすことなく好適なデコーダ側イントラモード導出を行うことを目的とする。 An object of the present invention is to perform suitable intra-mode derivation on the decoder side without increasing the amount of processing for deriving the intra-mode from the gradient.

上記の課題を解決するために、本発明の一態様に係る動画像復号装置は、
対象ブロックの上と左に隣接するブロックにおける画素値の勾配を導出する勾配導出部と、勾配に対応する角度モードを導出する角度モード導出部と、導出された角度モードを選択する角度モード選択部と、角度モードに基づいて仮予測画像を導出する仮予測画像導出部と、
を備える動画像復号装置および角度モード導出装置であって、勾配に対応する角度モードをテーブル参照に基づいて導出する
ことを特徴とする。
In order to solve the above problems, a moving image decoding device according to one aspect of the present invention includes:
A gradient derivation unit that derives the gradient of pixel values in blocks adjacent to the top and left of the target block, an angular mode derivation unit that derives an angular mode corresponding to the gradient, and an angular mode selection unit that selects the derived angular mode. and a temporary predicted image derivation unit that derives a temporary predicted image based on the angle mode.
A moving image decoding device and an angular mode deriving device comprising: a moving image decoding device and an angular mode deriving device, each of which is characterized by deriving an angular mode corresponding to a gradient based on table reference.

本発明の一態様によれば、デコーダ側イントラモード導出の計算量を増大させることなく好適なイントラ予測を行うことができる。 According to one aspect of the present invention, suitable intra prediction can be performed without increasing the amount of calculation for intra mode derivation on the decoder side.

本実施形態に係る画像伝送システムの構成を示す概略図である。1 is a schematic diagram showing the configuration of an image transmission system according to the present embodiment. 符号化ストリームのデータの階層構造を示す図である。FIG. 3 is a diagram showing a hierarchical structure of data of an encoded stream. イントラ予測モードの種類(モード番号)を示す概略図である。It is a schematic diagram showing the types (mode numbers) of intra prediction modes. 動画像復号装置の構成を示す概略図である。1 is a schematic diagram showing the configuration of a moving image decoding device. イントラ予測画像生成部の構成を示す図である。FIG. 2 is a diagram showing the configuration of an intra predicted image generation section. DIMD予測部の詳細を示す図である。FIG. 3 is a diagram showing details of a DIMD prediction unit. DIMDのシンタックス例である。This is an example of DIMD syntax. 空間フィルタの一例である。This is an example of a spatial filter. 勾配導出対象画素の例を示す図である。FIG. 3 is a diagram illustrating an example of gradient derivation target pixels. 勾配と領域の関係を示す図である。FIG. 3 is a diagram showing the relationship between a gradient and a region. 動画像符号化装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a video encoding device.

(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
(First embodiment)
Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施形態に係る画像伝送システム1の構成を示す概略図である。 FIG. 1 is a schematic diagram showing the configuration of an image transmission system 1 according to this embodiment.

画像伝送システム1は、符号化対象画像を符号化した符号化ストリームを伝送し、伝送された符号化ストリームを復号し画像を表示するシステムである。画像伝送システム1は、動画像符号化装置(画像符号化装置)11、ネットワーク21、動画像復号装置(画像復号装置)31、及び動画像表示装置(画像表示装置)41を含んで構成される。 The image transmission system 1 is a system that transmits an encoded stream obtained by encoding an image to be encoded, decodes the transmitted encoded stream, and displays the image. The image transmission system 1 includes a video encoding device (image encoding device) 11, a network 21, a video decoding device (image decoding device) 31, and a video display device (image display device) 41. .

動画像符号化装置11には画像Tが入力される。 An image T is input to the moving image encoding device 11.

ネットワーク21は、動画像符号化装置11が生成した符号化ストリームTeを動画像復号装置31に伝送する。ネットワーク21は、インターネット(Internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)またはこれらの組み合わせである。ネットワーク21は、必ずしも双方向の通信網に限らず、地上デジタル放送、衛星放送等の放送波を伝送する一方向の通信網であってもよい。また、ネットワーク21は、DVD(Digital Versatile Disc:登録商標)、BD(Blu-ray Disc:登録商標)等の符号化ストリームTeを記録した記憶媒体で代替されてもよい。 The network 21 transmits the encoded stream Te generated by the video encoding device 11 to the video decoding device 31. The network 21 is the Internet, a wide area network (WAN), a local area network (LAN), or a combination thereof. The network 21 is not necessarily a bidirectional communication network, but may be a unidirectional communication network that transmits broadcast waves such as terrestrial digital broadcasting and satellite broadcasting. Further, the network 21 may be replaced by a storage medium on which the encoded stream Te is recorded, such as a DVD (Digital Versatile Disc: registered trademark) or a BD (Blu-ray Disc: registered trademark).

動画像復号装置31は、ネットワーク21が伝送した符号化ストリームTeのそれぞれを復号し、復号した1または複数の復号画像Tdを生成する。 The video decoding device 31 decodes each encoded stream Te transmitted by the network 21, and generates one or more decoded images Td.

動画像表示装置41は、動画像復号装置31が生成した1または複数の復号画像Tdの全部または一部を表示する。動画像表示装置41は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。ディスプレイの形態としては、据え置き、モバイル、HMD等が挙げられる。また、動画像復号装置31が高い処理能力を有する場合には、画質の高い画像を表示し、より低い処理能力しか有しない場合には、高い処理能力、表示能力を必要としない画像を表示する。 The moving image display device 41 displays all or part of one or more decoded images Td generated by the moving image decoding device 31. The moving image display device 41 includes a display device such as a liquid crystal display or an organic EL (Electro-luminescence) display. Display formats include stationary, mobile, HMD, etc. Further, when the video decoding device 31 has high processing capacity, it displays a high quality image, and when it has only a lower processing capacity, it displays an image that does not require high processing capacity or display capacity. .

<演算子>
本明細書で用いる演算子を以下に記載する。
<Operator>
The operators used in this specification are described below.

>>は右ビットシフト、<<は左ビットシフト、&はビットワイズAND、|はビットワイズOR
、^はビットワイズXOR、|=はOR代入演算子であり、!は論理否定(NOT)、&&は論理積(AND)
、||は論理和(OR)を示す。
>> is a right bit shift, << is a left bit shift, & is a bitwise AND, | is a bitwise OR
, ^ is bitwise XOR, |= is OR assignment operator, ! is logical negation (NOT), && is logical product (AND)
, || indicates logical sum (OR).

x?y:zは、xが真(0以外)の場合にy、xが偽(0)の場合にzをとる3項演算子である。 x?y:z is a ternary operator that takes y if x is true (other than 0) and z if x is false (0).

Clip3(a,b,c) は、cをa以上b以下の値にクリップする関数であり、c<aの場合にはaを返し、c>bの場合にはbを返し、その他の場合にはcを返す関数である(ただし、a<=b)。 Clip3(a,b,c) is a function that clips c to a value greater than or equal to a and less than or equal to b, and returns a if c<a, returns b if c>b, and otherwise is a function that returns c (where a<=b).

Clip1Y(c)は、Clip3(a,b,c)において a=0、b=(1<<BitDepthY)-1に設定した演算子であ
る。BitDepthYは輝度のビット深度である。
Clip1Y(c) is an operator set to a=0 and b=(1<<BitDepthY)-1 in Clip3(a,b,c). BitDepthY is the brightness bit depth.

abs(a)はaの絶対値を返す関数である。 abs(a) is a function that returns the absolute value of a.

Int(a)はaの整数値を返す関数である。 Int(a) is a function that returns the integer value of a.

Floor(a)はa以下の最大の整数を返す関数である。 Floor(a) is a function that returns the largest integer less than or equal to a.

Ceil(a)はa以上の最小の整数を返す関数である。 Ceil(a) is a function that returns the smallest integer greater than or equal to a.

a/dはdによるaの除算(小数点以下切り捨て)を表す。 a/d represents the division of a by d (rounding down to the nearest whole number).

Min(a,b)はaとbのうち小さい値を返す関数である。 Min(a,b) is a function that returns the smaller value of a and b.

<符号化ストリームTeの構造>
本実施形態に係る動画像符号化装置11および動画像復号装置31の詳細な説明に先立って、動画像符号化装置11によって生成され、動画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
<Structure of encoded stream Te>
Prior to a detailed explanation of the video encoding device 11 and the video decoding device 31 according to the present embodiment, data of the encoded stream Te generated by the video encoding device 11 and decoded by the video decoding device 31 will be described. Explain the structure.

図2は、符号化ストリームTeにおけるデータの階層構造を示す図である。符号化ストリームTeは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。図2には、それぞれ、シーケンスSEQを既定する符号化ビデオシーケンス、ピクチャPICTを規定する符号化ピクチャ、スライスSを規定する符号化スライス、スライスデータを規定する符号化スライスデータ、符号化スライスデータに含まれる符号化ツリーユニット、符号化ツリーユニットに含まれる符号化ユニットを示す図が示されている。 FIG. 2 is a diagram showing the hierarchical structure of data in the encoded stream Te. The encoded stream Te exemplarily includes a sequence and a plurality of pictures that constitute the sequence. FIG. 2 shows an encoded video sequence that defines the sequence SEQ, an encoded picture that defines the picture PICT, an encoded slice that defines the slice S, encoded slice data that defines the slice data, and encoded slice data. A diagram illustrating included encoding tree units and encoding units included in the encoding tree units is shown.

(符号化ビデオシーケンス)
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために動画像復号
装置31が参照するデータの集合が規定されている。シーケンスSEQは、図2の符号化ビデ
オシーケンスに示すように、ビデオパラメータセットVPS(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
(encoded video sequence)
In the encoded video sequence, a set of data that the moving image decoding device 31 refers to in order to decode the sequence SEQ to be processed is defined. As shown in the encoded video sequence of FIG. 2, the sequence SEQ includes a video parameter set VPS (Video Parameter Set), a sequence parameter set SPS (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, and , Supplemental Enhancement Information (SEI) is included.

ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複
数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。
Video parameter set VPS is a set of encoding parameters common to multiple video images and encoding parameters related to multiple layers and individual layers included in the video image. A set is defined.

シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装
置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。なお、SPSは複数存在してもよい。その場合、PPSから複数のSPSの何れか
を選択する。
The sequence parameter set SPS defines a set of encoding parameters that the video decoding device 31 refers to in order to decode the target sequence. For example, the width and height of the picture are defined. Note that a plurality of SPSs may exist. In that case, select one of the multiple SPSs from the PPSs.

ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために
動画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)や重み付き予測の適用を示すフラグ(weighted_pred_flag)が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。
The picture parameter set PPS defines a set of encoding parameters that the video decoding device 31 refers to in order to decode each picture in the target sequence. For example, it includes a reference value for the quantization width used in picture decoding (pic_init_qp_minus26) and a flag indicating application of weighted prediction (weighted_pred_flag). Note that multiple PPSs may exist. In that case, one of the plurality of PPSs is selected from each picture in the target sequence.

(符号化ピクチャ)
符号化ピクチャでは、処理対象のピクチャPICTを復号するために動画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図2の符号化ピクチャに示すように、スライス0~スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)
(encoded picture)
In the encoded picture, a set of data that the video decoding device 31 refers to in order to decode the picture PICT to be processed is defined. Picture PICT includes slice 0 to slice NS-1 (NS is the total number of slices included in picture PICT), as shown in the encoded picture in Figure 2.
.

なお、以下、スライス0~スライスNS-1のそれぞれを区別する必要が無い場合、符号の
添え字を省略して記述することがある。また、以下に説明する符号化ストリームTeに含まれるデータであって、添え字を付している他のデータについても同様である。
Note that hereinafter, if there is no need to distinguish each of slices 0 to NS-1, the subscripts of the symbols may be omitted in the description. Further, the same applies to other data included in the encoded stream Te described below and having subscripts attached thereto.

(符号化スライス)
符号化スライスでは、処理対象のスライスSを復号するために動画像復号装置31が参照
するデータの集合が規定されている。スライスは、図2の符号化スライスに示すように、スライスヘッダ、および、スライスデータを含んでいる。
(encoded slice)
In the encoded slice, a set of data that the video decoding device 31 refers to in order to decode the slice S to be processed is defined. The slice includes a slice header and slice data, as shown in the encoded slice of FIG. 2.

スライスヘッダには、対象スライスの復号方法を決定するために動画像復号装置31が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダに含まれる符号化パラメータの一例である。 The slice header includes a group of encoding parameters that the video decoding device 31 refers to in order to determine the decoding method for the target slice. Slice type designation information (slice_type) that designates the slice type is an example of an encoding parameter included in the slice header.

スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イントラ予測を用いるBスライスなどが挙げられる。なお、インター予測は、単予測、双予測に限定されず、より多くの参照ピクチャを用いて予測画像を生成してもよい。以下、P
、Bスライスと呼ぶ場合には、インター予測を用いることができるブロックを含むスライ
スを指す。
Slice types that can be specified by the slice type designation information include (1) an I slice that uses only intra prediction during encoding, (2) a P slice that uses unidirectional prediction or intra prediction during encoding, (3) Examples include B slices that use unidirectional prediction, bidirectional prediction, or intra prediction during encoding. Note that inter prediction is not limited to uni-prediction or bi-prediction, and a predicted image may be generated using more reference pictures. Below, P
, B slice refers to a slice that includes blocks for which inter prediction can be used.

なお、スライスヘッダは、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含んでいてもよい。 Note that the slice header may include a reference (pic_parameter_set_id) to the picture parameter set PPS.

(符号化スライスデータ)
符号化スライスデータでは、処理対象のスライスデータを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図2の符号化スライスヘッダに示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
(encoded slice data)
The encoded slice data defines a set of data that the video decoding device 31 refers to in order to decode the slice data to be processed. The slice data includes a CTU, as shown in the encoded slice header of FIG. 2. A CTU is a block of fixed size (for example, 64x64) that constitutes a slice, and is also called a largest coding unit (LCU).

(符号化ツリーユニット)
図2の符号化ツリーユニットには、処理対象のCTUを復号するために動画像復号装置31
が参照するデータの集合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により符号化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規定される。
(encoding tree unit)
The encoding tree unit in FIG. 2 includes a video decoding device 31 for decoding the CTU to be processed.
The set of data referenced by is defined. CTU is the basic encoding process using recursive quad tree partitioning (QT (Quad Tree) partitioning), binary tree partitioning (BT (Binary Tree) partitioning), or ternary tree partitioning (TT (Ternary Tree) partitioning). It is divided into encoding units CU, which are standard units. The combination of BT partitioning and TT partitioning is called multi-tree partitioning (MT (Multi Tree) partitioning). A tree-structured node obtained by recursive quadtree partitioning is called a coding node. An intermediate node of a quadtree, a binary tree, and a tertiary tree is a coding node, and the CTU itself is defined as the topmost coding node.

(符号化ユニット)
図2の符号化ユニットに示すように、処理対象の符号化ユニットを復号するために動画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
(encoding unit)
As shown in the encoding unit of FIG. 2, a set of data that the video decoding device 31 refers to in order to decode the encoding unit to be processed is defined. Specifically, the CU includes a CU header CUH, prediction parameters, transformation parameters, quantized transformation coefficients, and the like. The prediction mode etc. are defined in the CU header.

予測処理は、CU単位で行われる場合と、CUをさらに分割したサブCU単位で行われる場合がある。CUとサブCUのサイズが等しい場合には、CU中のサブCUは1つである。CUがサブCUのサイズよりも大きい場合、CUは、サブCUに分割される。例えばCUが8x8、サブCUが4x4の場合、CUは水平2分割、垂直2分割からなる、4つのサブCUに分割される。 The prediction process may be performed on a CU basis or on a sub-CU basis, which is obtained by further dividing a CU. If the sizes of the CU and sub-CU are equal, there is one sub-CU in the CU. If the CU is larger than the sub-CU size, the CU is divided into sub-CUs. For example, if the CU is 8x8 and the sub-CU is 4x4, the CU is divided into four sub-CUs, consisting of two horizontal divisions and two vertical divisions.

予測の種類(予測モード)は、イントラ予測と、インター予測の2つがある。イントラ予測は、同一ピクチャ内の予測であり、インター予測は、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。 There are two types of prediction (prediction modes): intra prediction and inter prediction. Intra prediction is prediction within the same picture, and inter prediction refers to prediction processing performed between mutually different pictures (for example, between display times, between layer images).

変換・量子化処理はCU単位で行われるが、量子化変換係数は4x4等のサブブロック単位
でエントロピー符号化してもよい。
Although the transform/quantization process is performed in units of CUs, the quantized transform coefficients may be entropy encoded in units of subblocks such as 4x4.

(予測パラメータ)
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
(prediction parameter)
A predicted image is derived by prediction parameters associated with a block. The prediction parameters include intra prediction and inter prediction parameters.

以下、イントラ予測の予測パラメータについて説明する。イントラ予測パラメータは、輝度予測モードIntraPredModeY、色差予測モードIntraPredModeCから構成される。図3は、イントラ予測モードの種類(モード番号)を示す概略図である。図に示すように、イントラ予測モードは、例えば67種類(0~66)存在する。例えば、プレーナ予測(0)、DC予測(1)、Angular予測(2~66)である。この他、色成分間線形モデル(CCLM: Cross Component Linear Model)予測や、マルチモード線形モデル(MMLM: Multi Mode Linear Model)予測といったリニアモデル(LM: Linear Model)予測を用いてもよい。さらに、色差ではLMモードを追加してもよい。 The prediction parameters for intra prediction will be explained below. The intra prediction parameters are composed of a luminance prediction mode IntraPredModeY and a color difference prediction mode IntraPredModeC. FIG. 3 is a schematic diagram showing types (mode numbers) of intra prediction modes. As shown in the figure, there are, for example, 67 types (0 to 66) of intra prediction modes. For example, planar prediction (0), DC prediction (1), and Angular prediction (2 to 66). In addition, linear model (LM) prediction such as color component linear model (CCLM) prediction or multimode linear model (MMLM) prediction may be used. Furthermore, an LM mode may be added for color difference.

(動画像復号装置の構成)
本実施形態に係る動画像復号装置31(図4)の構成について説明する。
(Configuration of moving image decoding device)
The configuration of the moving image decoding device 31 (FIG. 4) according to this embodiment will be explained.

動画像復号装置31は、エントロピー復号部301、パラメータ復号部(予測画像復号装置
)302、ループフィルタ305、参照ピクチャメモリ306、予測パラメータメモリ307、予測画像生成部(予測画像生成装置)308、逆量子化・逆変換部311、及び加算部312を含んで構
成される。なお、後述の動画像符号化装置11に合わせ、動画像復号装置31にループフィルタ305が含まれない構成もある。
The video decoding device 31 includes an entropy decoding section 301, a parameter decoding section (predicted image decoding device) 302, a loop filter 305, a reference picture memory 306, a prediction parameter memory 307, a predicted image generation section (predicted image generation device) 308, and an inverse It is configured to include a quantization/inverse transformation section 311 and an addition section 312. Note that there is also a configuration in which the loop filter 305 is not included in the video decoding device 31 in accordance with the video encoding device 11 described later.

また、パラメータ復号部302は、図示しないインター予測パラメータ復号部303及びイントラ予測パラメータ復号部304を含んで構成される。予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。 Further, the parameter decoding unit 302 is configured to include an inter prediction parameter decoding unit 303 and an intra prediction parameter decoding unit 304 (not shown). The predicted image generation section 308 includes an inter predicted image generation section 309 and an intra predicted image generation section 310.

また、以降では処理の単位としてCTU、CUを使用した例を記載するが、この例に限らず
、サブCU単位で処理をしてもよい。あるいはCTU、CU、をブロック、サブCUをサブブロッ
クと読み替え、ブロックあるいはサブブロック単位の処理としてもよい。
Furthermore, although an example will be described below in which CTUs and CUs are used as processing units, the processing is not limited to this example, and processing may be performed in sub-CU units. Alternatively, CTU and CU may be read as blocks and sub-CUs as sub-blocks, and processing may be performed in units of blocks or sub-blocks.

エントロピー復号部301は、外部から入力された符号化ストリームTeに対してエントロ
ピー復号を行って、個々の符号(シンタックス要素)を分離し復号する。エントロピー符号化には、シンタックス要素の種類や周囲の状況に応じて適応的に選択したコンテキスト(確率モデル)を用いてシンタックス要素を可変長符号化する方式と、あらかじめ定められた表、あるいは計算式を用いてシンタックス要素を可変長符号化する方式がある。前者のCABAC(Context Adaptive Binary Arithmetic Coding)は、符号化あるいは復号したピクチャ(スライス)毎に更新した確率モデルをメモリに格納する。そして、Pピクチャ、
あるいはBピクチャのコンテキストの初期状態として、メモリに格納された確率モデルの
中から、同じスライスタイプ、同じスライスレベルの量子化パラメータを使用したピクチャの確率モデルを設定する。この初期状態を符号化、復号処理に使用する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための予測誤差などがある。
The entropy decoding unit 301 performs entropy decoding on the encoded stream Te input from the outside, and separates and decodes individual codes (syntax elements). Entropy encoding has two methods: variable-length encoding of syntax elements using a context (probabilistic model) adaptively selected according to the type of syntax element and surrounding situation, and a method of encoding syntax elements with variable length using a predetermined table or There is a method of variable length encoding of syntax elements using calculation formulas. The former, CABAC (Context Adaptive Binary Arithmetic Coding), stores in memory an updated probability model for each encoded or decoded picture (slice). And P picture,
Alternatively, as the initial state of the B-picture context, a picture probability model using quantization parameters of the same slice type and slice level is set from among the probability models stored in the memory. This initial state is used for encoding and decoding processing. The separated codes include prediction information for generating a predicted image, prediction errors for generating a difference image, and the like.

エントロピー復号部301は、分離した符号をパラメータ復号部302に出力する。どの符号を復号するかの制御は、パラメータ復号部302の指示に基づいて行われる。 Entropy decoding section 301 outputs the separated codes to parameter decoding section 302. Control of which code to decode is performed based on instructions from parameter decoding section 302.

(イントラ予測パラメータ復号部304の構成)
イントラ予測パラメータ復号部304は、エントロピー復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してイントラ予測
パラメータ、例えば、イントラ予測モードIntraPredModeを復号する。イントラ予測パラ
メータ復号部304は、復号したイントラ予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。イントラ予測パラメータ復号部304は、輝度と色差で異なるイントラ予測モードを導出してもよい。
(Configuration of intra prediction parameter decoding unit 304)
The intra prediction parameter decoding unit 304 decodes the intra prediction parameter, for example, the intra prediction mode IntraPredMode, based on the code input from the entropy decoding unit 301, with reference to the prediction parameters stored in the prediction parameter memory 307. The intra prediction parameter decoding unit 304 outputs the decoded intra prediction parameters to the predicted image generation unit 308 and stores them in the prediction parameter memory 307. The intra prediction parameter decoding unit 304 may derive different intra prediction modes for luminance and color difference.

イントラ予測パラメータ復号部304は、図7に示すようなイントラ予測に関するシンタックス要素を復号する。 Intra prediction parameter decoding section 304 decodes syntax elements related to intra prediction as shown in FIG.

ループフィルタ305は、符号化ループ内に設けたフィルタで、ブロック歪やリンギング
歪を除去し、画質を改善するフィルタである。ループフィルタ305は、加算部312が生成したCUの復号画像に対し、デブロッキングフィルタ、サンプル適応オフセット(SAO)、適
応ループフィルタ(ALF)等のフィルタを施す。
The loop filter 305 is a filter provided in the encoding loop, and is a filter that removes block distortion and ringing distortion and improves image quality. The loop filter 305 applies filters such as a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the decoded image of the CU generated by the addition unit 312.

参照ピクチャメモリ306は、加算部312が生成したCUの復号画像を、対象ピクチャ及び対象CU毎に予め定めた位置に記憶する。 The reference picture memory 306 stores the decoded image of the CU generated by the addition unit 312 at a predetermined position for each target picture and target CU.

予測パラメータメモリ307は、復号対象のCTUあるいはCU毎に予め定めた位置に予測パラメータを記憶する。具体的には、予測パラメータメモリ307は、パラメータ復号部302が復号したパラメータ及びエントロピー復号部301が分離した予測モードpredMode等を記憶す
る。
The prediction parameter memory 307 stores prediction parameters in a predetermined position for each CTU or CU to be decoded. Specifically, the prediction parameter memory 307 stores the parameters decoded by the parameter decoding unit 302 and the prediction mode predMode separated by the entropy decoding unit 301.

予測画像生成部308には、予測モードpredMode、予測パラメータ等が入力される。また
、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードpredModeが示す予測モードで、予測パラメータと読み出した参
照ピクチャ(参照ピクチャブロック)を用いてブロックもしくはサブブロックの予測画像を生成する。ここで、参照ピクチャブロックとは、参照ピクチャ上の画素の集合(通常矩形であるのでブロックと呼ぶ)であり、予測画像を生成するために参照する領域である。
A prediction mode predMode, prediction parameters, etc. are input to the predicted image generation unit 308. The predicted image generation unit 308 also reads a reference picture from the reference picture memory 306. The predicted image generation unit 308 generates a predicted image of a block or subblock using the prediction parameter and the read reference picture (reference picture block) in the prediction mode indicated by the prediction mode predMode. Here, the reference picture block is a set of pixels on a reference picture (usually called a block because it is rectangular), and is an area to be referenced to generate a predicted image.

(イントラ予測画像生成部310)
予測モードpredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は
、イントラ予測パラメータ復号部304から入力されたイントラ予測パラメータと参照ピク
チャメモリ306から読み出した参照画素を用いてイントラ予測を行う。
(Intra predicted image generation unit 310)
When the prediction mode predMode indicates an intra prediction mode, the intra prediction image generation unit 310 performs intra prediction using the intra prediction parameters input from the intra prediction parameter decoding unit 304 and the reference pixels read from the reference picture memory 306.

具体的には、イントラ予測画像生成部310は、対象ピクチャ上の、対象ブロックから予
め定めた範囲にある隣接ブロックを参照ピクチャメモリ306から読み出す。予め定めた範
囲とは、対象ブロックの左、左上、上、右上の隣接ブロックであり、イントラ予測モードによって参照する領域は異なる。
Specifically, the intra predicted image generation unit 310 reads adjacent blocks on the target picture within a predetermined range from the target block from the reference picture memory 306. The predetermined range is adjacent blocks to the left, upper left, upper, and upper right of the target block, and the reference area differs depending on the intra prediction mode.

イントラ予測画像生成部310は、読み出した復号画素値とIntraPredModeが示す予測モードを参照して、対象ブロックの予測画像を生成する。イントラ予測画像生成部310は生成
したブロックの予測画像を加算部312に出力する。
The intra predicted image generation unit 310 generates a predicted image of the target block by referring to the read decoded pixel value and the prediction mode indicated by IntraPredMode. The intra predicted image generation unit 310 outputs the generated predicted image of the block to the addition unit 312.

イントラ予測モードに基づく予測画像の生成について以下で説明する。Planar予測、DC予測、Angular予測では、予測対象ブロックに隣接(近接)する復号済みの周辺領域を参
照領域Rとして設定する。そして、参照領域R上の画素を特定の方向に外挿することで予測画像を生成する。例えば、参照領域Rは、予測対象ブロックの左と上(あるいは、さらに、左上、右上、左下)を含むL字型の領域として設定してもよい。
Generation of predicted images based on intra prediction mode will be described below. In planar prediction, DC prediction, and Angular prediction, a decoded peripheral area adjacent to (close to) the prediction target block is set as the reference area R. Then, a predicted image is generated by extrapolating pixels on the reference area R in a specific direction. For example, the reference region R may be set as an L-shaped region including the left and above (or further upper left, upper right, and lower left) of the prediction target block.

(予測画像生成部の詳細)
次に、図5を用いてイントラ予測画像生成部310の構成の詳細を説明する。イントラ予測画像生成部310は、参照サンプルフィルタ部3103(第2の参照画像設定部)、予測部3104
、および、予測画像補正部3105(予測画像補正部、フィルタ切替部、重み係数変更部)を備える。
(Details of predicted image generation unit)
Next, details of the configuration of the intra predicted image generation unit 310 will be described using FIG. 5. The intra predicted image generation unit 310 includes a reference sample filter unit 3103 (second reference image setting unit), a prediction unit 3104
, and a predicted image correction unit 3105 (predicted image correction unit, filter switching unit, weighting coefficient changing unit).

参照領域R上の各参照画素(参照画像)、参照画素フィルタ(第1のフィルタ)を適用して生成したフィルタ済参照画像、イントラ予測モードに基づいて、予測部3104は予測対象ブロックの仮予測画像(補正前予測画像)を生成し、予測画像補正部3105に出力する。予測画像補正部3105は、イントラ予測モードに応じて仮予測画像を修正し、予測画像(補正済予測画像)を生成し、出力する。 Based on each reference pixel (reference image) on the reference area R, the filtered reference image generated by applying the reference pixel filter (first filter), and the intra prediction mode, the prediction unit 3104 makes a tentative prediction of the prediction target block. An image (pre-correction predicted image) is generated and output to the predicted image correction unit 3105. The predicted image correction unit 3105 corrects the temporary predicted image according to the intra prediction mode, generates a predicted image (corrected predicted image), and outputs it.

以下、イントラ予測画像生成部310が備える各部について説明する。 Each unit included in the intra predicted image generation unit 310 will be described below.

(参照サンプルフィルタ部3103)
参照サンプルフィルタ部3103は、参照画像を参照して参照領域R上の各位置(x,y)の参
照サンプルs[x][y]を導出する。また、参照サンプルフィルタ部3103は、イントラ予測モ
ードに応じて、参照サンプルs[x][y]に参照画素フィルタ(第1のフィルタ)を適用して
、参照領域R上の各位置(x,y)の参照サンプルs[x][y]を更新する(フィルタ済参照画像s[x][y]を導出する)。具体的には、位置(x,y)とその周辺の参照画像にローパスフィルタを適用し、フィルタ済参照画像を導出する。なお、必ずしも全イントラ予測モードにローパスフィルタを適用する必要はなく、一部のイントラ予測モードに対してローパスフィルタを適用してもよい。なお、参照サンプルフィルタ部3103において参照領域R上の参照画像に適用するフィルタを「参照画素フィルタ(第1のフィルタ)」と呼称するのに対し、後述の予測画像補正部3105において仮予測画像を補正するフィルタを「ポジション依存フィルタ(第2のフィルタ)」と呼称する。
(Reference sample filter section 3103)
The reference sample filter unit 3103 derives a reference sample s[x][y] at each position (x, y) on the reference area R by referring to the reference image. Further, the reference sample filter unit 3103 applies a reference pixel filter (first filter) to the reference sample s[x][y] according to the intra prediction mode, and applies a reference pixel filter (first filter) to each position (x, Update the reference sample s[x][y] of y) (derive the filtered reference image s[x][y]). Specifically, a low-pass filter is applied to the reference image at position (x, y) and its surroundings, and a filtered reference image is derived. Note that it is not necessary to apply a low-pass filter to all intra prediction modes, and a low-pass filter may be applied to some intra prediction modes. Note that the filter applied to the reference image on the reference area R in the reference sample filter unit 3103 is referred to as a "reference pixel filter (first filter)," whereas the filter applied to the reference image on the reference area R is referred to as a "reference pixel filter (first filter)," whereas the filter applied to the reference image on the reference area R is referred to as a "reference pixel filter (first filter)." The filter to be corrected is called a "position-dependent filter (second filter)."

(イントラ予測部3104の構成)
イントラ予測部3104は、イントラ予測モードと、参照画像、フィルタ済参照画素値に基づいて予測対象ブロックの仮予測画像(仮予測画素値、補正前予測画像)を生成し、予測画像補正部3105に出力する。予測部3104は、内部にPlanar予測部31041、DC予測部31042、Angular予測部31043、LM予測部31044、MIP(Matrix-based Intra Prediction)部31045、DIMD予測部31046を備えている。予測部3104は、イントラ予測モードに応じて特定の予測
部を選択して、参照画像、フィルタ済参照画像を入力する。イントラ予測モードと対応する予測部との関係は次の通りである。
・Planar予測 ・・・・Planar予測部31041
・DC予測 ・・・・DC予測部31042
・Angular予測 ・・・・Angular予測部31043
・LM予測 ・・・・LM予測部31044
・行列イントラ予測・・MIP部31045
・DIMD予測・・・・・・DIMD予測部31046
(Planar予測)
Planar予測部31041は、予測対象画素位置と参照画素位置との距離に応じて参照サンプ
ルs[x][y]を線形加算して仮予測画像を生成し、予測画像補正部3105に出力する。
(Configuration of intra prediction unit 3104)
The intra prediction unit 3104 generates a temporary predicted image (tentative predicted pixel value, pre-correction predicted image) of the prediction target block based on the intra prediction mode, reference image, and filtered reference pixel value, and sends it to the predicted image correction unit 3105. Output. The prediction unit 3104 internally includes a planar prediction unit 31041, a DC prediction unit 31042, an Angular prediction unit 31043, a LM prediction unit 31044, an MIP (Matrix-based Intra Prediction) unit 31045, and a DIMD prediction unit 31046. The prediction unit 3104 selects a specific prediction unit according to the intra prediction mode, and inputs the reference image and the filtered reference image. The relationship between the intra prediction mode and the corresponding prediction unit is as follows.
・Planar prediction ・・・・Planar prediction part 31041
・DC prediction ...DC prediction section 31042
・Angular prediction ・・・Angular prediction section 31043
・LM prediction...LM prediction section 31044
・Matrix intra prediction・・MIP part 31045
・DIMD prediction・・・DIMD prediction section 31046
(Planar prediction)
The planar prediction unit 31041 generates a temporary predicted image by linearly adding reference samples s[x][y] according to the distance between the prediction target pixel position and the reference pixel position, and outputs it to the predicted image correction unit 3105.

(DC予測)
DC予測部31042は、参照サンプルs[x][y]の平均値に相当するDC予測値を導出し、DC予測値を画素値とする仮予測画像q[x][y]を出力する。
(DC prediction)
The DC prediction unit 31042 derives a DC predicted value corresponding to the average value of the reference samples s[x][y], and outputs a temporary predicted image q[x][y] whose pixel value is the DC predicted value.

(Angular予測)
Angular予測部31043は、イントラ予測モードの示す予測方向(参照方向)の参照サンプルs[x][y]を用いて仮予測画像q[x][y]を生成し、予測画像補正部3105に出力する。
(Angular prediction)
The Angular prediction unit 31043 generates a temporary predicted image q[x][y] using the reference sample s[x][y] in the prediction direction (reference direction) indicated by the intra prediction mode, and sends it to the predicted image correction unit 3105. Output.

(LM予測)
LM予測部31044は、輝度の画素値に基づいて色差の画素値を予測する。具体的には、復
号した輝度画像をもとに、線形モデルを用いて、色差画像(Cb、Cr)の予測画像を生成する方式である。LM予測の1つとして、CCLM(Cross-Component Linear Model prediction
)予測がある。CCLM予測は、1つのブロックに対し、輝度から色差を予測するための線形モデルを使用する予測方式である。
(LM prediction)
The LM prediction unit 31044 predicts the chrominance pixel value based on the luminance pixel value. Specifically, this method uses a linear model to generate a predicted image of a color difference image (Cb, Cr) based on a decoded luminance image. CCLM (Cross-Component Linear Model prediction) is one of the LM predictions.
) There is a prediction. CCLM prediction is a prediction method that uses a linear model to predict color difference from luminance for one block.

(行列イントラ予測)
MIP部31045は、隣接領域から導出した参照サンプルs[x][y]と重み行列の積和演算によ
り仮予測画像q[x][y]を生成し、予測画像補正部3105に出力する。
(matrix intra prediction)
The MIP unit 31045 generates a tentative predicted image q[x][y] by a product-sum operation of the reference sample s[x][y] derived from the adjacent region and the weight matrix, and outputs it to the predicted image correction unit 3105.

(DIMD予測)
DIMD予測部31046は、明示的にシグナルされないイントラ予測モードを用いて予測画像
を生成する予測方式である。イントラ予測パラメータ復号部304は、隣接領域の情報を用
いて対象ブロックに適したイントラ予測モードを導出し、DIMD予測部31046はこのイント
ラ予測モードを用いて予測画像を生成する。詳細については後述する。
(DIMD prediction)
The DIMD prediction unit 31046 is a prediction method that generates a predicted image using an intra prediction mode that is not explicitly signaled. The intra prediction parameter decoding unit 304 derives an intra prediction mode suitable for the target block using the information of the adjacent region, and the DIMD prediction unit 31046 generates a predicted image using this intra prediction mode. Details will be described later.

(予測画像補正部3105の構成)
予測画像補正部3105は、イントラ予測モードに応じて、予測部3104から出力された仮予測画像を修正する。具体的には、予測画像補正部3105は、仮予測画像の各画素に対し、参照領域Rと対象予測画素の位置に応じて、ポジションに依存した重み係数を導出する。そして、参照サンプルs[][]と仮予測画像q[x][y]を重み付け加算(加重平均)することで、仮予測画像を修正した予測画像(補正済予測画像)Pred[][]を導出する。なお、一部のイントラ予測モードでは、予測画像補正部3105で仮予測画像q[x][y]を補正せずに予測画像と
してセットしてもよい。
(Configuration of predicted image correction unit 3105)
The predicted image correction unit 3105 corrects the tentative predicted image output from the prediction unit 3104 according to the intra prediction mode. Specifically, the predicted image correction unit 3105 derives a position-dependent weighting coefficient for each pixel of the tentative predicted image, according to the reference region R and the position of the target predicted pixel. Then, by performing weighted addition (weighted average) of the reference sample s[][] and the provisional prediction image q[x][y], the prediction image (corrected prediction image) Pred[][] is obtained by correcting the provisional prediction image. Derive. Note that in some intra prediction modes, the predicted image correction unit 3105 may set the tentative predicted image q[x][y] as a predicted image without correcting it.

(実施例1)
図6は、本実施形態におけるDIMD予測部31046の構成を示している。DIMD予測部31046は
、勾配導出部310461、角度モード導出部310462、角度モード選択部310463、仮予測画像生成部310464から構成される。
(Example 1)
FIG. 6 shows the configuration of the DIMD prediction unit 31046 in this embodiment. The DIMD prediction unit 31046 includes a gradient derivation unit 310461, an angular mode derivation unit 310462, an angular mode selection unit 310463, and a tentative predicted image generation unit 310464.

図7は、DIMDに関する符号化データのシンタックス例を示している。イントラ予測パラ
メータ復号部304は、符号化データからブロック毎にDIMDを用いるかどうかを示すフラグdimd_flagを復号する。dimd_flagが1の場合、後続の輝度イントラ予測モードおよびMPMに
関するシンタックス要素を復号しなくてもよい。
FIG. 7 shows an example of the syntax of encoded data regarding DIMD. The intra prediction parameter decoding unit 304 decodes a flag dimd_flag indicating whether to use DIMD for each block from the encoded data. When dimd_flag is 1, it is not necessary to decode the subsequent luminance intra prediction mode and syntax elements regarding MPM.

dimd_flagが1の場合、DIMD予測部31046は、隣接領域におけるテクスチャ方向を示す角
度を、画素値を用いて導出する。そして、その角度に対応するイントラ予測モードを用いて仮予測画像を生成する。例えば、(1)隣接領域内の所定の位置の画素について画素値の
勾配方向を導出する。(2)導出された勾配方向を、対応する方向予測モード(Angular予測
モード)に変換する。(3)隣接領域内の所定の画素毎に、それぞれ得られた予測方向のヒストグラムを作成する。(4)前記ヒストグラムから最頻値の予測モードまたは最頻値を含む
複数の予測モードを選択し、当該予測モードを用いて仮予測画像を生成する。以下では図6に示したDIMD予測部31046の各部における処理について、より詳細に説明する。
When dimd_flag is 1, the DIMD prediction unit 31046 derives an angle indicating the texture direction in the adjacent area using the pixel value. Then, a tentative predicted image is generated using the intra prediction mode corresponding to that angle. For example, (1) the gradient direction of the pixel value is derived for a pixel at a predetermined position in the adjacent region. (2) Convert the derived gradient direction to the corresponding direction prediction mode (Angular prediction mode). (3) Create a histogram of the obtained prediction direction for each predetermined pixel in the adjacent region. (4) Select a mode of prediction of the mode or a plurality of prediction modes including the mode of the mode from the histogram, and generate a tentative predicted image using the prediction mode. Below, the processing in each part of the DIMD prediction unit 31046 shown in FIG. 6 will be explained in more detail.

(1)勾配導出部(画像ベース角度導出部)
勾配導出部310461は、対象ブロックの)隣接領域の画像データに基づいてテクスチャ方
向を示す角度(角度情報)を導出する。角度情報は、1/36精度の角度を表す値であってもよいし、他の値でもよい。勾配導出部310461は、2つ以上の特定方向の勾配(例えばDx,Dy)を導出し、勾配Dx,Dyの関係から勾配の方向(角度情報)を導出する。
(1) Gradient derivation unit (image-based angle derivation unit)
The gradient deriving unit 310461 derives an angle (angle information) indicating the texture direction based on the image data of the adjacent area (of the target block). The angle information may be a value representing an angle with 1/36 precision, or may be any other value. The gradient deriving unit 310461 derives gradients (for example, Dx, Dy) in two or more specific directions, and derives the direction of the gradient (angle information) from the relationship between the gradients Dx, Dy.

勾配の導出には、空間フィルタを用いてもよい。空間フィルタには、例えば図8(a)および(b)に示すような、水平方向および垂直方向に対応する3x3画素Sobelフィルタを用いて
もよい。隣接領域におけるN個の勾配導出対象位置の点Pn[0][0](n=0..N-1)について勾配
を導出する。図9(a)は、8x8画素の対象ブロックにおいて、勾配導出対象画素の位置の例
を示している。また、図9(b)は、4x4画素の対象ブロックにおいて、勾配導出対象画素の
位置の例を示す。対象ブロックの隣接領域にある網掛けの画素が勾配導出対象画素である。このように、対象ブロックのサイズや隣接領域に含まれるブロックの予測モード等の情報によって、勾配導出対象画素の個数、位置のパターン、空間フィルタの参照範囲を変更してもよい。
A spatial filter may be used to derive the gradient. As the spatial filter, a 3x3 pixel Sobel filter corresponding to the horizontal and vertical directions may be used, for example, as shown in FIGS. 8(a) and (b). Gradients are derived for points Pn[0][0] (n=0..N-1) at N gradient derivation target positions in the adjacent region. FIG. 9(a) shows an example of the position of a gradient derivation target pixel in an 8x8 pixel target block. Further, FIG. 9(b) shows an example of the position of the gradient derivation target pixel in the target block of 4x4 pixels. The shaded pixels in the area adjacent to the target block are the gradient derivation target pixels. In this way, the number of gradient derivation target pixels, the position pattern, and the reference range of the spatial filter may be changed depending on information such as the size of the target block and the prediction mode of blocks included in the adjacent region.

具体的には、勾配導出部310461は、各点Pnについて次式のように水平方向と垂直方向の勾配Dx,Dyを導出する。
Dx = Pn[-1][-1] + 2*Pn[-1][0] + Pn[-1][1] - Pn[1][-1] - 2*Pn[1][0] - Pn[1][1]
Dy = - Pn[-1][-1] - 2*Pn[0][-1] - Pn[1][-1] + Pn[-1][1] + 2*Pn[0][1] + Pn[1][1]
ここでPn[x][y]は、勾配導出対象位置の点Pn([0][0])からの相対座標で表した画素における画素値である。図8(a)および(b)のフィルタを左右または上下に反転した、図8(c)お
よび(d)のフィルタを用いてもよい。その場合は次式を用いてDxおよびDyを導出する。
Dx = - Pn[-1][-1] - 2*Pn[-1][0] - Pn[-1][1] + Pn[1][-1] + 2*Pn[1][0] + Pn[1][1]
Dy = Pn[-1][-1] + 2*Pn[0][-1] + Pn[1][-1] - Pn[-1][1] - 2*Pn[0][1] - Pn[1][1]
勾配の導出方法はこれに限らず、他の方法(フィルタ、計算式、テーブル等)を用いてもよい。例えば、Sobelフィルタの代わりにPrewittフィルタやScharrフィルタなどを用いてもよいし、フィルタサイズを2x2や5x5にしてもよい。勾配導出部310461はPrewittフィ
ルタを用いてDx,Dyを次のように導出する。
Dx = Pn[-1][-1] + Pn[-1][0] + Pn[-1][1] - Pn[1][-1] - Pn[1][0] - Pn[1][1]
Dy = - Pn[-1][-1] - Pn[0][-1] - Pn[1][-1] + Pn[-1][1] + Pn[0][1] + Pn[1][1]
次式は、Scharrフィルタを用いてDx,Dyを導出する例である。
Dx = 3*Pn[-1][-1]+10*Pn[-1][0]+3*Pn[-1][1] -3*Pn[1][-1]-10*Pn[1][0]-3*Pn[1][1]
Dy = -3*Pn[-1][-1]-10*Pn[0][-1]-3*Pn[1][-1] +3*Pn[-1][1]+10*Pn[0][1]+3*Pn[1][1]
勾配の導出方法は、ブロック毎に変更してもよい。例えば、4x4画素の対象ブロックに
対してはSobelフィルタを用い、4x4より大きなブロックに対してはScharrフィルタを使う。このように小ブロックでは演算のより簡単なフィルタを用いることで、小ブロックにおける計算量の増加を抑制することができる。
Specifically, the gradient deriving unit 310461 derives the horizontal and vertical gradients Dx and Dy for each point Pn using the following equations.
Dx = Pn[-1][-1] + 2*Pn[-1][0] + Pn[-1][1] - Pn[1][-1] - 2*Pn[1][0] - Pn[1][1]
Dy = - Pn[-1][-1] - 2*Pn[0][-1] - Pn[1][-1] + Pn[-1][1] + 2*Pn[0][1 ] + Pn[1][1]
Here, Pn[x][y] is a pixel value at a pixel expressed in relative coordinates from point Pn ([0][0]) at the gradient derivation target position. The filters shown in FIGS. 8(c) and (d), which are obtained by inverting the filters shown in FIGS. 8(a) and (b) horizontally or vertically, may also be used. In that case, derive Dx and Dy using the following equations.
Dx = - Pn[-1][-1] - 2*Pn[-1][0] - Pn[-1][1] + Pn[1][-1] + 2*Pn[1][0 ] + Pn[1][1]
Dy = Pn[-1][-1] + 2*Pn[0][-1] + Pn[1][-1] - Pn[-1][1] - 2*Pn[0][1] - Pn[1][1]
The method for deriving the gradient is not limited to this, and other methods (filter, calculation formula, table, etc.) may be used. For example, a Prewitt filter or a Scharr filter may be used instead of the Sobel filter, or the filter size may be set to 2x2 or 5x5. The gradient deriving unit 310461 derives Dx and Dy as follows using a Prewitt filter.
Dx = Pn[-1][-1] + Pn[-1][0] + Pn[-1][1] - Pn[1][-1] - Pn[1][0] - Pn[1 ][1]
Dy = - Pn[-1][-1] - Pn[0][-1] - Pn[1][-1] + Pn[-1][1] + Pn[0][1] + Pn[ 1][1]
The following equation is an example of deriving Dx and Dy using a Scharr filter.
Dx = 3*Pn[-1][-1]+10*Pn[-1][0]+3*Pn[-1][1] -3*Pn[1][-1]-10*Pn [1][0]-3*Pn[1][1]
Dy = -3*Pn[-1][-1]-10*Pn[0][-1]-3*Pn[1][-1] +3*Pn[-1][1]+10* Pn[0][1]+3*Pn[1][1]
The method for deriving the gradient may be changed for each block. For example, a Sobel filter is used for a target block of 4x4 pixels, and a Scharr filter is used for a block larger than 4x4. In this way, by using a filter that is easier to calculate in small blocks, it is possible to suppress an increase in the amount of calculation in small blocks.

勾配の導出方法は、勾配導出対称画素の位置毎に変更してもよい。例えば、上または左の隣接領域内にある勾配導出対象画素についてはSobelフィルタを用い、左上の隣接領域
内にある勾配導出対称画素についてはScharrフィルタを使う。
The gradient derivation method may be changed for each position of the gradient derivation symmetric pixel. For example, a Sobel filter is used for the gradient derivation target pixel in the upper or left adjacent region, and a Scharr filter is used for the gradient derivation target pixel in the upper left adjacent region.

勾配導出部310461は、Dx,Dyの符号と大小関係に基づいて、対象ブロックのテクスチャ
の角度の象限(quadrant、以下領域(region)と記す)と象限内の角度(angle)からなる角
度情報を導出する。領域により回転対称や線対称の関係にある方向の処理を共通化することが可能になる。ただし角度情報は領域と象限内の角度に限らない。例えば角度のみの情報とし、領域は必要に応じて導出してもよい。また、本実施形態では、以下で導出されるイントラ方向予測モードは左下から右上までの方向(図3の2~66)に限定し、180度回転対称の方向のイントラ方向予測モードはこれと同一に扱う。
The gradient deriving unit 310461 derives angle information consisting of a quadrant (hereinafter referred to as region) of the angle of the texture of the target block and an angle within the quadrant, based on the sign and magnitude relationship of Dx and Dy. Derive. The regions make it possible to share processing in directions with rotational symmetry or line symmetry. However, the angle information is not limited to the angle within the area and quadrant. For example, only the angle may be used as information, and the area may be derived as necessary. Additionally, in this embodiment, the intra direction prediction mode derived below is limited to the direction from the bottom left to the top right (2 to 66 in FIG. 3), and the intra direction prediction mode for directions with 180 degree rotational symmetry is the same. to be treated.

図10(a)は、Dx,Dyの符号(signx, signy)、大小関係(xgty)、および、領域region(Ra~Rdは領域の番号を表す定数)の関係を示すテーブルである。図10(b)は、領域Ra~Rdの示す象限を示している。勾配導出部310461はsignx, signy, xgtyを次のように導出する。
absx = abs(Dx)
absy = abs(Dy)
signx = Dx < 0 ? 1 : 0
signy = Dy < 0 ? 1 : 0
xgty = absx > absy ? 1 : 0
ここで、不等号(>、<)は等号つき(>=、<=)であっても構わない。領域は大まかな角度を示し、Dx,Dyの符号signx, signyと大小関係xgtyだけから導出できる。
FIG. 10(a) is a table showing the signs (signx, signy) of Dx and Dy, the magnitude relationship (xgty), and the relationship between regions (Ra to Rd are constants representing region numbers). FIG. 10(b) shows quadrants indicated by regions Ra to Rd. The gradient deriving unit 310461 derives signx, signy, and xgty as follows.
absx = abs(Dx)
absy = abs(Dy)
signx = Dx < 0 ? 1 : 0
signy = Dy < 0 ? 1 : 0
xgty = absx > absy ? 1 : 0
Here, the inequality signs (>, <) may be replaced with equal signs (>=, <=). The area indicates a rough angle and can be derived only from the signs signx and signy of Dx and Dy and the magnitude relationship xgty.

勾配導出部は310461、符号signx, signyと大小関係xgtyから、演算やテーブル参照を用いてregionを導出する。勾配導出部は、図10(a)のテーブルを参照し、対応するregionを
導出してもよい。
The gradient derivation unit derives a region from 310461, the signs signx, signy, and the magnitude relationship xgty using calculations and table references. The gradient deriving unit may refer to the table in FIG. 10(a) and derive the corresponding region.

勾配導出部310461は、以下のように論理式を用いてregionを導出してもよい。
region = xgty ? ( (signx^signy) ? 1 : 0 ) : ( (signx^signy) ? 2 : 3)
ここで^はXOR(排他的論理和)を示す。regionを0から3の値で示す。{Ra,Rb,Rc,Rd} = {0,1,2,3}。なお、regionの値の割り当て方は上記に限定されない。
The gradient deriving unit 310461 may derive the region using a logical formula as follows.
region = xgty ? ( (signx^signy) ? 1 : 0 ) : ( (signx^signy) ? 2 : 3)
Here, ^ indicates XOR (exclusive OR). Indicates region as a value from 0 to 3. {Ra,Rb,Rc,Rd} = {0,1,2,3}. Note that the method of assigning region values is not limited to the above.

勾配導出部310461は、以下のように別の論理式と加算乗算を用いてregionを導出してもよい。
region = 2*(!xgty) + (signx^signy^!xgty)
ここで記号!は論理否定を意味する。
The gradient deriving unit 310461 may derive the region using another logical formula and addition/multiplication as follows.
region = 2*(!xgty) + (signx^signy^!xgty)
Here, the symbol ! means logical negation.

(2)角度モード導出部
角度モード導出部310462は、点Pnの勾配情報に基づき、角度モード(勾配に対応する予測モード、例えば、イントラ予測モード)を導出する。
(2) Angle mode derivation section
The angular mode deriving unit 310462 derives an angular mode (a prediction mode corresponding to the slope, for example, an intra prediction mode) based on the slope information of the point Pn.

角度モード導出部310462は、勾配の絶対値absx,absyに基づいて傾きiRatio(=absy÷absx)を導出する。ここで、iRatioとしてratioを1/R_UNIT刻みで表現した整数を用いる。
iRatio = int(R_UNIT*absy/absx) ≒ ratio*R_UNIT
R_UNITは、2の指数乗(1<<shiftR)、例えば65536(shiftR=16)などを用いる。
The angle mode derivation unit 310462 derives the slope iRatio (=absy÷absx) based on the absolute values absx, absy of the slope. Here, an integer representing the ratio in 1/R_UNIT increments is used as iRatio.
iRatio = int(R_UNIT*absy/absx) ≒ ratio*R_UNIT
R_UNIT uses an exponential power of 2 (1<<shiftR), for example, 65536 (shiftR=16).

角度モード導出部310462は、iRatioからidxを導出し、当該idxを用いてルックアップテーブル(LUT)を参照し、基準方向からの差分情報である角度モード差分値mode_deltaを導出する。
idx = iRatio >> 10
mode_delta = LUT[idx]
ここでLUT[N_LUT] = {0,1,1,2,2,3,3,4, 4,4,5,5,5,5,6,6, 6,6,7,7,7,7,8,8, 8,8,9,9,9,9,10,10, 10,10,11,11,11,11,12,12, 12,12,12,13,13,13,13,13, 13,14,14,14,14,14,14,15, 15,15,15,15,15,16,16,16, 16};
ここでN_LUTはLUTの要素数を示す。
N_LUT = (1 << (shiftR - shiftI)) + 1
なお、iRatioがほぼ0すなわちidx==0であるときは、勾配は水平方向または垂直方向で
あり、基準方向からの差分が0となることが容易に判別できる。したがって、LUTの最初の要素0を省き、N_LUT’= (1 << (shiftR - shiftI))の2のべき乗個の要素でLUTを構成し
てもよい。この場合のルックアップテーブルLUT’は、次のようになる。
LUT’[N_LUT’] = {1,1,2,2,3,3,4,4, 4,5,5,5,5,6,6,6, 6,7,7,7,7,8,8,8, 8,9,9,9,9,10,10,10, 10,11,11,11,11,12,12,12, 12,12,13,13,13,13,13,13, 14,14,14,14,14,14,15,15, 15,15,15,15,16,16,16,16};
このとき角度モード導出部は次式を用いてmode_deltaを導出する。
mode_delta = idx ? LUT’[idx-1] : 0
このようにすれば、要素数N_LUT’が2のべき乗であることから、メモリ利用効率を向上できる。
The angular mode deriving unit 310462 derives idx from iRatio, refers to a lookup table (LUT) using the idx, and derives an angular mode difference value mode_delta that is difference information from the reference direction.
idx = iRatio >> 10
mode_delta = LUT[idx]
where LUT[N_LUT] = {0,1,1,2,2,3,3,4, 4,4,5,5,5,5,6,6, 6,6,7,7,7, 7,8,8, 8,8,9,9,9,9,10,10, 10,10,11,11,11,11,12,12, 12,12,12,13,13,13, 13,13, 13,14,14,14,14,14,14,15, 15,15,15,15,15,16,16,16, 16};
Here, N_LUT indicates the number of elements of LUT.
N_LUT = (1 << (shiftR - shiftI)) + 1
Note that when iRatio is approximately 0, that is, idx==0, it can be easily determined that the gradient is horizontal or vertical, and the difference from the reference direction is 0. Therefore, the first element 0 of the LUT may be omitted, and the LUT may be configured with a power of 2 elements of N_LUT'= (1 << (shiftR - shiftI)). The lookup table LUT' in this case is as follows.
LUT'[N_LUT'] = {1,1,2,2,3,3,4,4, 4,5,5,5,5,6,6,6, 6,7,7,7,7, 8,8,8, 8,9,9,9,9,10,10,10, 10,11,11,11,11,12,12,12, 12,12,13,13,13,13, 13,13, 14,14,14,14,14,14,15,15, 15,15,15,15,16,16,16,16};
At this time, the angular mode derivation unit derives mode_delta using the following equation.
mode_delta = idx ? LUT'[idx-1] : 0
In this way, since the number of elements N_LUT' is a power of 2, memory usage efficiency can be improved.

角度モード導出部310462は、基準方向base_mode[region]に対してmode_deltaを加算ま
たは減算することで、角度モードmodeValを導出する。
base_mode[4] = {18, 18, 50, 50}
direction[4] = {-1, 1, -1, 1}
modeVal = base_mode[region] + direction[region] * mode_delta
base_modeの値の18は水平のイントラ方向予測(HOR)、50は垂直のイントラ方向予測(VER)
を意味する。
The angle mode derivation unit 310462 derives the angle mode modeVal by adding or subtracting mode_delta from the reference direction base_mode[region].
base_mode[4] = {18, 18, 50, 50}
direction[4] = {-1, 1, -1, 1}
modeVal = base_mode[region] + direction[region] * mode_delta
base_mode value of 18 is horizontal intra-directional prediction (HOR), 50 is vertical intra-directional prediction (VER)
means.

なお、modeValの導出方法はこれに限らない
角度モード導出部310462は、idxの導出にあたり、以下のように丸め演算を用いてもよ
い。
idx = (iRatio + roundI) >> shiftI
ここで、roundI=1<<(shiftI-1)、shiftIは所定の定数10など。
Note that the method for deriving modeVal is not limited to this. The angular mode deriving unit 310462 may use a rounding operation as follows when deriving idx.
idx = (iRatio + roundI) >> shiftI
Here, roundI=1<<(shiftI-1), shiftI is a predetermined constant 10, etc.

角度モード導出部310462において、LUTの要素数N_LUTは上記例での65(shiftR-shiftI=6)以外にも17(shiftR-shiftI=4), 33(shiftR-shiftI=5), 129(shiftR-shiftI=7),
257(shiftR-shiftI=8)など他の数でもよい。
In the angle mode derivation unit 310462, the number of LUT elements N_LUT is 17 (shiftR-shiftI=4), 33 (shiftR-shiftI=5), 129 (shiftR- shiftI=7),
Other numbers such as 257 (shiftR-shiftI=8) may also be used.

(3)勾配モード選択部
角度モード選択部310463は、対象ブロックに対応する参照領域に含まれる複数の点PnにおけるmodeVal(modeValPn)を用いて、一つの以上の角度モードの代表値dimdModeVal(dimdModeVal0、dimdModeVal1、…)を導出する。本実施形態における角度モードの代表値は対象ブロックのテクスチャパターンの方向性の推定値である。ここではヒストグラムを用いて導出した最頻値から代表値dimdModeValを導出する。各点Pnに対して得られた角度モードの値modeValPnをヒストグラム化し、第1のモードdimdModeVal0および第2のモードdimdModeVal1を、それぞれ当該ヒストグラムにおいて最も頻度の高いモードと次に頻度の高いモードを選択することにより導出する。
(3) Gradient mode selection unit The angle mode selection unit 310463 selects a representative value dimdModeVal (dimdModeVal0, dimdModeVal0, dimdModeVal1,…). The representative value of the angle mode in this embodiment is the estimated value of the directionality of the texture pattern of the target block. Here, the representative value dimdModeVal is derived from the mode derived using a histogram. Convert the angular mode value modeValPn obtained for each point Pn into a histogram, and select the first mode dimdModeVal0 and the second mode dimdModeVal1, which are the most frequent mode and the next most frequent mode in the histogram, respectively. It is derived by

なお、dimdModeVal0またはdimdModeVal1の導出方法は、ヒストグラムに限らない。例えば、角度モード選択部310463は、modeValPnの平均値をdimdModeVal0またはdimdModelVal1としてもよい。 Note that the method for deriving dimdModeVal0 or dimdModeVal1 is not limited to the histogram. For example, the angle mode selection unit 310463 may set the average value of modeValPn to dimdModeVal0 or dimdModelVal1.

角度モード選択部310463は第3のモードとして、dimdModeVal2に所定のイントラ予測モードを設定する。ここではdimdModeVal2=0(Planar)とするが、これに限らない。適応的に他のモードを設定してもよいし、第3のモードを用いなくてもよい。 The angle mode selection unit 310463 sets a predetermined intra prediction mode to dimdModeVal2 as the third mode. Here, dimdModeVal2=0 (Planar), but the present invention is not limited to this. Other modes may be adaptively set, or the third mode may not be used.

角度モード選択部310463はまた、各角度モードの代表値に対応する重みを導出する。例えば、第3のモードの重みw2=21とし、残りをヒストグラムにおける第1と第2のモード
の頻度の比率に応じて、それぞれ重みw0とw1に配分する。なお、重みの合計は64とする。重みの導出はこれに限らず、第1、第2、第3のモードの重みw0,w1,w2を適応的に変化させてもよい。例えば第1のモードまたは第2のモードの番号、あるいは頻度やその比率に応じてw2を増減させてもよい。なお、角度モード選択部は、第1から第3のいずれのモードについても、当該モードを用いない場合は対応する重みの値を0と設定する。
The angular mode selection unit 310463 also derives weights corresponding to the representative values of each angular mode. For example, the weight w2 of the third mode is set to 21, and the remainder is distributed to weights w0 and w1, respectively, according to the ratio of the frequencies of the first and second modes in the histogram. Note that the total weight is 64. The derivation of the weights is not limited to this, and the weights w0, w1, and w2 of the first, second, and third modes may be adaptively changed. For example, w2 may be increased or decreased depending on the number of the first mode or the second mode, or the frequency or ratio thereof. Note that the angle mode selection unit sets the corresponding weight value to 0 for any of the first to third modes when the mode is not used.

以上のようにして角度モード選択部310463は、勾配から推定されるイントラ予測モード(角度モードの代表値)を選択し、各イントラ予測モードに対応する重みとともに出力する。 As described above, the angle mode selection unit 310463 selects the intra prediction mode (representative value of the angle mode) estimated from the gradient, and outputs it together with the weight corresponding to each intra prediction mode.

なお、勾配導出部、角度モード導出部、および角度モード選択部の構成を用い、イントラ予測モード以外の情報の導出に用いることもできる。例えば、勾配導出部および角度モード導出部により導出される、テクスチャパターンの方向性を用いて、角度モード選択部が残差の変換行列を選択するようにすれば、当該方向性を持つ領域における残差の変換に適した行列を選択でき、符号化効率の向上が期待できる。 Note that the configurations of the gradient deriving section, the angular mode deriving section, and the angular mode selecting section can also be used to derive information other than the intra prediction mode. For example, if the angular mode selection section selects the transformation matrix of the residual using the directionality of the texture pattern derived by the gradient derivation section and the angular mode derivation section, the residual in the region having the directionality can be A matrix suitable for difference conversion can be selected, and an improvement in coding efficiency can be expected.

(4)仮予測画像生成部
仮予測画像生成部310464は、入力された1つ以上のイントラ予測モードを用いて仮予測画像を生成する。イントラ予測モードが1つの場合は、当該予測モードによるイントラ予測画像を生成し、仮予測画像q[x][y]として出力する。イントラ予測モードが複数の場合
、各予測モードによる予測画像(pred0, pred1, pred2)を生成する。対応する重み(w0,w1,w2)を用いて複数の予測画像を合成し、仮予測画像q[x][y]として出力する。仮予測画像q[x][y]は以下のように導出される。
q[x][y] = (w0 * pred0[x][y] + w1 * pred1[x][y] + w2 * pred2[x][y]) >> 6
ただし、第2のモードの頻度が0である、または、方向予測モードでない(DCモードなど
)場合は、第1の予測モードによる予測画像pred0を仮予測画像とする。
(4) Temporary predicted image generation unit The temporary predicted image generation unit 310464 generates a temporary predicted image using one or more input intra prediction modes. When there is one intra prediction mode, an intra prediction image according to the prediction mode is generated and output as a tentative predicted image q[x][y]. When there are multiple intra prediction modes, a predicted image (pred0, pred1, pred2) according to each prediction mode is generated. A plurality of predicted images are combined using the corresponding weights (w0, w1, w2) and output as a tentative predicted image q[x][y]. The tentative predicted image q[x][y] is derived as follows.
q[x][y] = (w0 * pred0[x][y] + w1 * pred1[x][y] + w2 * pred2[x][y]) >> 6
However, if the frequency of the second mode is 0 or if it is not the direction prediction mode (such as DC mode), the predicted image pred0 in the first prediction mode is set as the temporary predicted image.

逆量子化・逆変換部311は、エントロピー復号部301から入力された量子化変換係数を逆量子化して変換係数を求める。この量子化変換係数は、符号化処理において、予測誤差に対してDCT(Discrete Cosine Transform、離散コサイン変換)、DST(Discrete Sine Transform、離散サイン変換)等の周波数変換を行い量子化して得られる係数である。逆量子化・逆変換部311は変換係数について逆DCT、逆DST等の逆周波数変換を行い、予測誤差を算出する。逆量子化・逆変換部311は予測誤差を加算部312に出力する。 The inverse quantization/inverse transform unit 311 inversely quantizes the quantized transform coefficients input from the entropy decoding unit 301 to obtain transform coefficients. This quantized transform coefficient is a coefficient obtained by performing frequency transform such as DCT (Discrete Cosine Transform) or DST (Discrete Sine Transform) on the prediction error and quantizing it in the encoding process. It is. The inverse quantization/inverse transform unit 311 performs inverse frequency transform such as inverse DCT and inverse DST on the transform coefficients to calculate a prediction error. The inverse quantization/inverse transformation section 311 outputs the prediction error to the addition section 312.

加算部312は、予測画像生成部308から入力されたブロックの予測画像と逆量子化・逆変換部311から入力された予測誤差を画素毎に加算して、ブロックの復号画像を生成する。
加算部312はブロックの復号画像を参照ピクチャメモリ306に記憶し、また、ループフィルタ305に出力する。
The addition unit 312 adds the predicted image of the block input from the predicted image generation unit 308 and the prediction error input from the inverse quantization/inverse transformation unit 311 for each pixel to generate a decoded image of the block.
The adding unit 312 stores the decoded image of the block in the reference picture memory 306 and also outputs it to the loop filter 305.

(動画像符号化装置の構成)
次に、本実施形態に係る動画像符号化装置11の構成について説明する。図11は、本実施形態に係る動画像符号化装置11の構成を示すブロック図である。動画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、パラメータ符号化部111、エントロピー符号化部104を含んで構成される。
(Configuration of video encoding device)
Next, the configuration of the video encoding device 11 according to this embodiment will be explained. FIG. 11 is a block diagram showing the configuration of the video encoding device 11 according to this embodiment. The video encoding device 11 includes a predicted image generation section 101, a subtraction section 102, a transformation/quantization section 103, an inverse quantization/inverse transformation section 105, an addition section 106, a loop filter 107, a prediction parameter memory (prediction parameter storage section , frame memory) 108, reference picture memory (reference image storage unit, frame memory) 109, encoding parameter determination unit 110, parameter encoding unit 111, and entropy encoding unit 104.

予測画像生成部101は画像Tの各ピクチャを分割した領域であるCU毎に予測画像を生成
する。予測画像生成部101は既に説明した予測画像生成部308と同じ動作であり、説明を省略する。
The predicted image generation unit 101 generates a predicted image for each CU, which is a region obtained by dividing each picture of the image T. The predicted image generation unit 101 operates in the same manner as the predicted image generation unit 308 already described, and the explanation will be omitted.

減算部102は、予測画像生成部101から入力されたブロックの予測画像の画素値を、画像Tの画素値から減算して予測誤差を生成する。減算部102は予測誤差を変換・量子化部103に出力する。 The subtraction unit 102 subtracts the pixel value of the predicted image of the block input from the predicted image generation unit 101 from the pixel value of the image T to generate a prediction error. Subtraction section 102 outputs the prediction error to conversion/quantization section 103.

変換・量子化部103は、減算部102から入力された予測誤差に対し、周波数変換によって変換係数を算出し、量子化によって量子化変換係数を導出する。変換・量子化部103は、
量子化変換係数をエントロピー符号化部104及び逆量子化・逆変換部105に出力する。
The conversion/quantization unit 103 calculates a conversion coefficient by frequency conversion for the prediction error input from the subtraction unit 102, and derives a quantized conversion coefficient by quantization. The conversion/quantization unit 103
The quantized transform coefficients are output to entropy encoding section 104 and inverse quantization/inverse transform section 105.

逆量子化・逆変換部105は、動画像復号装置31における逆量子化・逆変換部311(図4)
と同じであり、説明を省略する。算出した予測誤差は加算部106に出力される。
The inverse quantization/inverse transformation unit 105 is the inverse quantization/inverse transformation unit 311 (FIG. 4) in the video decoding device 31.
is the same as , and the explanation will be omitted. The calculated prediction error is output to addition section 106.

エントロピー符号化部104には、変換・量子化部103から量子化変換係数が入力され、パラメータ符号化部111から符号化パラメータが入力される。エントロピー符号化部104は、分割情報、予測パラメータ、量子化変換係数等をエントロピー符号化して符号化ストリームTeを生成し、出力する。 Entropy encoding section 104 receives quantized transform coefficients from transform/quantization section 103 and inputs encoding parameters from parameter encoding section 111. Entropy encoding section 104 performs entropy encoding on division information, prediction parameters, quantization transform coefficients, etc., generates encoded stream Te, and outputs the encoded stream Te.

パラメータ符号化部111は、図示しないヘッダ符号化部1110、CT情報符号化部1111、CU
符号化部1112(予測モード符号化部)、およびインター予測パラメータ符号化部112とイ
ントラ予測パラメータ符号化部113を備えている。CU符号化部1112はさらにTU符号化部1114を備えている。
The parameter encoding unit 111 includes a header encoding unit 1110, a CT information encoding unit 1111, and a CU (not shown).
It includes an encoding section 1112 (prediction mode encoding section), an inter prediction parameter encoding section 112, and an intra prediction parameter encoding section 113. CU encoding section 1112 further includes a TU encoding section 1114.

(イントラ予測パラメータ符号化部113の構成)
イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力されたIntraPredMode等を符号化する。イントラ予測パラメータ符号化部113は、イントラ予測パラメータ復号部304がイントラ予測パラメータを導出する構成と、一部同一の構成を含む。
(Configuration of intra prediction parameter encoding unit 113)
Intra prediction parameter encoding section 113 encodes IntraPredMode etc. input from encoding parameter determining section 110. Intra prediction parameter encoding section 113 includes a configuration that is partially the same as the configuration in which intra prediction parameter decoding section 304 derives intra prediction parameters.

加算部106は、予測画像生成部101から入力されたブロックの予測画像の画素値と逆量子化・逆変換部105から入力された予測誤差を画素毎に加算して復号画像を生成する。加算
部106は生成した復号画像を参照ピクチャメモリ109に記憶する。
Adding section 106 adds the pixel value of the predicted image of the block inputted from predicted image generation section 101 and the prediction error inputted from inverse quantization/inverse transformation section 105 for each pixel to generate a decoded image. Adding unit 106 stores the generated decoded image in reference picture memory 109.

ループフィルタ107は加算部106が生成した復号画像に対し、デブロッキングフィルタ、SAO、ALFを施す。なお、ループフィルタ107は、必ずしも上記3種類のフィルタを含まな
くてもよく、例えばデブロッキングフィルタのみの構成であってもよい。
The loop filter 107 applies a deblocking filter, SAO, and ALF to the decoded image generated by the addition unit 106. Note that the loop filter 107 does not necessarily need to include the above three types of filters, and may have a configuration including only a deblocking filter, for example.

予測パラメータメモリ108は、符号化パラメータ決定部110が生成した予測パラメータを、対象ピクチャ及びCU毎に予め定めた位置に記憶する。 The prediction parameter memory 108 stores the prediction parameters generated by the encoding parameter determination unit 110 at predetermined positions for each target picture and CU.

参照ピクチャメモリ109は、ループフィルタ107が生成した復号画像を対象ピクチャ及びCU毎に予め定めた位置に記憶する。 Reference picture memory 109 stores the decoded image generated by loop filter 107 at a predetermined position for each target picture and CU.

符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセッ
トを選択する。符号化パラメータとは、上述したQT、BTあるいはTT分割情報、予測パラメータ、あるいはこれらに関連して生成される符号化の対象となるパラメータである。予測画像生成部101は、これらの符号化パラメータを用いて予測画像を生成する。
Encoding parameter determining section 110 selects one set from among multiple sets of encoding parameters. The encoding parameter is the above-mentioned QT, BT or TT division information, a prediction parameter, or a parameter to be encoded that is generated in relation to these. Predicted image generation section 101 generates a predicted image using these encoding parameters.

符号化パラメータ決定部110は、複数のセットの各々について情報量の大きさと符号化
誤差を示すRDコスト値を算出する。符号化パラメータ決定部110は、算出したコスト値が
最小となる符号化パラメータのセットを選択する。これにより、エントロピー符号化部104は、選択した符号化パラメータのセットを符号化ストリームTeとして出力する。符号化パラメータ決定部110は決定した符号化パラメータを予測パラメータメモリ108に記憶する。
Encoding parameter determination section 110 calculates an RD cost value indicating the amount of information and encoding error for each of the plurality of sets. Encoding parameter determining section 110 selects a set of encoding parameters that minimizes the calculated cost value. Thereby, entropy encoding section 104 outputs the selected set of encoding parameters as encoded stream Te. Encoding parameter determining section 110 stores the determined encoding parameters in prediction parameter memory 108.

なお、上述した実施形態における動画像符号化装置11、動画像復号装置31の一部、例えば、エントロピー復号部301、パラメータ復号部302、ループフィルタ305、予測画像生成
部308、逆量子化・逆変換部311、加算部312、予測画像生成部101、減算部102、変換・量
子化部103、エントロピー符号化部104、逆量子化・逆変換部105、ループフィルタ107、符号化パラメータ決定部110、パラメータ符号化部111をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、動画像符号化装置11、動画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Note that some of the video encoding device 11 and video decoding device 31 in the embodiment described above, such as the entropy decoding unit 301, the parameter decoding unit 302, the loop filter 305, the predicted image generation unit 308, and the dequantization/inverse Transform unit 311, addition unit 312, predicted image generation unit 101, subtraction unit 102, transformation/quantization unit 103, entropy encoding unit 104, inverse quantization/inverse transformation unit 105, loop filter 107, encoding parameter determination unit 110 , the parameter encoding unit 111 may be realized by a computer. In that case, a program for realizing this control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Note that the "computer system" herein refers to a computer system built into either the video encoding device 11 or the video decoding device 31, and includes hardware such as an OS and peripheral devices. Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. Furthermore, a "computer-readable recording medium" refers to a medium that dynamically stores a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it may also include a device that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client. Further, the above-mentioned program may be one for realizing a part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

また、上述した実施形態における動画像符号化装置11、動画像復号装置31の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。動画像
符号化装置11、動画像復号装置31の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Furthermore, part or all of the video encoding device 11 and the video decoding device 31 in the embodiments described above may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the moving image encoding device 11 and the moving image decoding device 31 may be made into a processor individually, or some or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, but may be implemented using a dedicated circuit or a general-purpose processor. Further, if an integrated circuit technology that replaces LSI emerges due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although one embodiment of the present invention has been described above in detail with reference to the drawings, the specific configuration is not limited to that described above, and various design changes etc. may be made without departing from the gist of the present invention. It is possible to

本発明の実施形態は、画像データが符号化された符号化データを復号する動画像復号装置、および、画像データが符号化された符号化データを生成する動画像符号化装置に好適に適用することができる。また、動画像符号化装置によって生成され、動画像復号装置によって参照される符号化データのデータ構造に好適に適用することができる。 Embodiments of the present invention are suitably applied to a video decoding device that decodes encoded data obtained by encoding image data, and a video encoding device that generates encoded data obtained by encoding image data. be able to. Further, the present invention can be suitably applied to the data structure of encoded data generated by a video encoding device and referenced by a video decoding device.

31 画像復号装置
301 エントロピー復号部
302 パラメータ復号部
303 インター予測パラメータ復号部
304 イントラ予測パラメータ復号部
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
31046 DIMD予測部
311 逆量子化・逆変換部
312 加算部
11 画像符号化装置
101 予測画像生成部
102 減算部
103 変換・量子化部
104 エントロピー符号化部
105 逆量子化・逆変換部
107 ループフィルタ
110 符号化パラメータ決定部
111 パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
1110 ヘッダ符号化部
1111 CT情報符号化部
1112 CU符号化部(予測モード符号化部)
1114 TU符号化部
31 Image decoding device
301 Entropy decoding section
302 Parameter decoding section
303 Inter prediction parameter decoding unit
304 Intra prediction parameter decoding unit
308 Predicted image generation unit
309 Inter predicted image generation unit
310 Intra predicted image generation unit
31046 DIMD prediction section
311 Inverse quantization/inverse transformation section
312 Addition section
11 Image encoding device
101 Predicted image generation unit
102 Subtraction section
103 Conversion/quantization section
104 Entropy encoder
105 Inverse quantization/inverse transformation section
107 Loop filter
110 Encoding parameter determination unit
111 Parameter encoding section
112 Inter prediction parameter encoder
113 Intra prediction parameter encoding unit
1110 Header encoder
1111 CT information encoder
1112 CU encoding unit (prediction mode encoding unit)
1114 TU encoding section

Claims (5)

対象ブロックの上と左に隣接するブロックにおける画素値の勾配を導出する勾配導出部と、勾配に対応する角度モードを導出する角度モード導出部と、導出された角度モードを選択する角度モード選択部と、角度モードに基づいて仮予測画像を導出する仮予測画像導出部と、
を備える動画像復号装置および角度モード導出装置であって、
上記勾配に対応する角度モードを含むテーブルに基づいて導出することを特徴とする動画像復号装置および角度モード導出装置。
A gradient derivation unit that derives the gradient of pixel values in blocks adjacent to the top and left of the target block, an angular mode derivation unit that derives an angular mode corresponding to the gradient, and an angular mode selection unit that selects the derived angular mode. and a temporary predicted image derivation unit that derives a temporary predicted image based on the angle mode.
A moving image decoding device and an angular mode deriving device comprising:
A moving image decoding device and an angular mode deriving device characterized in that decoding is performed based on a table including angular modes corresponding to the gradients.
上記テーブルは、勾配に対応するイントラ方向予測モードの基準方向からの差分情報を含むことを特徴とする請求項1に記載の画像復号装置および角度モード導出装置。 The image decoding device and angular mode deriving device according to claim 1, wherein the table includes difference information from a reference direction of an intra direction prediction mode corresponding to a gradient. 上記差分情報が正の整数であることを特徴とする請求項2に記載の動画像復号装置および角度モード導出装置。 3. The moving image decoding device and angular mode deriving device according to claim 2, wherein the difference information is a positive integer. 上記角度モード選択部は、上記導出された角度モードの平均値を用いて選択することを特徴とする請求項1に記載の動画像復号装置および角度モード導出装置。 The moving image decoding device and the angular mode deriving device according to claim 1, wherein the angular mode selection unit selects the angular mode using an average value of the derived angular modes. 対象ブロックの上と左に隣接するブロックにおける画素値の勾配を導出する勾配導出部と、勾配に対応する角度モードを導出する角度モード導出部と、導出された角度モードを選択する角度モード選択部と、角度モードに基づいて仮予測画像を導出する仮予測画像導出部と、
を備える動画像符号化装置および角度モード導出装置であって、
上記勾配に対応する角度モードを含むテーブルに基づいて導出することを特徴とする動画像符号化装置および角度モード導出装置。
A gradient derivation unit that derives the gradient of pixel values in blocks adjacent to the top and left of the target block, an angular mode derivation unit that derives an angular mode corresponding to the gradient, and an angular mode selection unit that selects the derived angular mode. and a temporary predicted image derivation unit that derives a temporary predicted image based on the angle mode.
A video encoding device and an angular mode deriving device comprising:
A video encoding device and an angular mode deriving device characterized in that the derivation is performed based on a table including angular modes corresponding to the gradients.
JP2022090076A 2022-06-02 2022-06-02 Moving image decoding device, moving image encoding device, and angle mode derivation device Pending JP2023177425A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022090076A JP2023177425A (en) 2022-06-02 2022-06-02 Moving image decoding device, moving image encoding device, and angle mode derivation device
PCT/JP2023/019656 WO2023234200A1 (en) 2022-06-02 2023-05-26 Video decoding device, video encoding device, and angle mode derivation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022090076A JP2023177425A (en) 2022-06-02 2022-06-02 Moving image decoding device, moving image encoding device, and angle mode derivation device

Publications (1)

Publication Number Publication Date
JP2023177425A true JP2023177425A (en) 2023-12-14

Family

ID=89123778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022090076A Pending JP2023177425A (en) 2022-06-02 2022-06-02 Moving image decoding device, moving image encoding device, and angle mode derivation device

Country Status (1)

Country Link
JP (1) JP2023177425A (en)

Similar Documents

Publication Publication Date Title
KR102465720B1 (en) Signaling of filtering information
KR101626734B1 (en) Intra smoothing filter for video coding
KR101771332B1 (en) Intra prediction improvements for scalable video coding
KR20210156826A (en) Method and apparatus for encoding/decoding image and recording medium for storing bitstream
CN110999291A (en) System and method for partitioning video blocks in inter-predicted segments of video data
KR20240035965A (en) Method and apparatus for encoding/decoding image, recording medium for stroing bitstream
KR20190008230A (en) Confusion of Multiple Filters in Adaptive Loop Filtering in Video Coding
CN113395517B (en) Video signal encoding/decoding method and apparatus thereof
KR20150052259A (en) Weighted prediction mode for scalable video coding
JP7293376B2 (en) Intra-prediction-based video signal processing method and apparatus
KR102619997B1 (en) Method for encodign/decodign video signal and apparatus therefor
JP2024513978A (en) Coding extension of cross-component sample adaptive offset
WO2023234200A1 (en) Video decoding device, video encoding device, and angle mode derivation device
JP2023177425A (en) Moving image decoding device, moving image encoding device, and angle mode derivation device
WO2024080216A1 (en) Image decoding device and image encoding device
JP2023183430A (en) Moving image decoding device, moving image encoding device, and angle mode derivation device
JP2024047922A (en) Image decoding device and image encoding device
WO2023048165A1 (en) Video decoding device and video coding device
JP2024047921A (en) Image Decoding Device
WO2023162920A1 (en) Video decoding device and video coding device
RU2781854C2 (en) Position-dependent combination with internal prediction with wide-angle internal prediction
JP2024006995A (en) Video decoding device and video encoding device
KR20220079974A (en) Video encoding/decoding method for performing PDPC, apparatus and method for transmitting a bitstream
JP2024026772A (en) Moving image decoder, moving image encoder, moving image decoding method, and moving image encoding method
KR20240042642A (en) Coding enhancement in cross-component sample adaptive offset

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221207