JP2024069638A - Prediction device, encoding device, decoding device, and program - Google Patents

Prediction device, encoding device, decoding device, and program Download PDF

Info

Publication number
JP2024069638A
JP2024069638A JP2024045101A JP2024045101A JP2024069638A JP 2024069638 A JP2024069638 A JP 2024069638A JP 2024045101 A JP2024045101 A JP 2024045101A JP 2024045101 A JP2024045101 A JP 2024045101A JP 2024069638 A JP2024069638 A JP 2024069638A
Authority
JP
Japan
Prior art keywords
unit
prediction
block
synthesis
outputs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024045101A
Other languages
Japanese (ja)
Inventor
俊輔 岩村
敦郎 市ヶ谷
慎平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2024045101A priority Critical patent/JP2024069638A/en
Publication of JP2024069638A publication Critical patent/JP2024069638A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】複数の合成方式を三角形分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制する。【解決手段】画像を分割したブロック単位で予測を行う予測装置は、予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備える。【選択図】図2[Problem] Even when multiple synthesis methods are introduced into triangular decomposition prediction, an increase in the amount of flags to be signaled is suppressed. [Solution] A prediction device that performs prediction in units of blocks obtained by dividing an image includes a division unit that divides a block to be predicted by lines and outputs multiple prediction regions, a generation unit that generates multiple regional prediction images corresponding to the multiple prediction regions, a determination unit that determines from multiple methods a synthesis method to be used to synthesize the multiple regional prediction images, and a synthesis unit that synthesizes the multiple regional prediction images using the synthesis method determined by the determination unit, and outputs a prediction block corresponding to the block to be predicted. [Selected Figure] Figure 2

Description

本発明は、予測装置、符号化装置、復号装置、及びプログラムに関する。 The present invention relates to a prediction device, an encoding device, a decoding device, and a program.

動画像(映像)の符号化方式においては、符号化装置は、原画像をブロックに分割し、フレーム間の時間的相関を利用したインター予測とフレーム内の空間的相関を利用したイントラ予測とを切り替えながら符号化対象ブロックを予測し、予測されたブロックと符号化対象ブロックとの差を表す予測残差に対して変換処理、量子化処理、及びエントロピー符号化処理を施し、ビットストリームである符号化データを出力する。 In a video (image) coding method, the coding device divides the original image into blocks, predicts the block to be coded by switching between inter prediction, which uses the temporal correlation between frames, and intra prediction, which uses the spatial correlation within a frame, and performs conversion, quantization, and entropy coding on the prediction residual, which represents the difference between the predicted block and the block to be coded, and outputs coded data in the form of a bitstream.

次世代の符号化方式であるVVC(Versatile Video Coding)では、インター予測のモードの1つとして三角形分割予測(TPM:Triangle Partitioning Mode)が採用されている。TPMは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。 Versatile Video Coding (VVC), a next-generation coding method, employs triangular partitioning prediction (TPM: Triangle Partitioning Mode) as one of the inter-prediction modes. TPM divides the coding target block diagonally, assigning motion vectors to each area, and performs motion compensation prediction.

TPMでは、領域境界付近の予測画像については、領域ごとの予測画像の位置に応じた重み付け合成(加重平均)より混合する混合処理(blendingと呼ばれる)を行うことで、領域ごとの動き予測補償による不連続性を抑制している。スクリーンコンテンツなどのようにフラットな領域及びエッジが多く含まれているシーケンスにおいては、blendingによってエッジのぼやけを引き起こす場合がある。このため、非特許文献1においては、TPMによる予測において、blendingを行わずに予測画像を合成するNon-blendingモードを導入している。 In TPM, for predicted images near region boundaries, a mixing process (called blending) is performed in which predicted images for each region are mixed using weighted synthesis (weighted average) according to their position, thereby suppressing discontinuity caused by motion prediction compensation for each region. In sequences that contain many flat regions and edges, such as screen content, blending can cause edge blurring. For this reason, Non-Patent Document 1 introduces a non-blending mode in TPM prediction that synthesizes predicted images without blending.

JVET-O1172,“Non-CE4/8: On disabling blending process in TPM”JVET-O1172, "Non-CE4/8: On disabling blending process in TPM"

非特許文献1のようにTPMにおいて複数のblendingモード(複数の合成方式)を導入する場合、どのモードを用いるかを示すフラグを符号化側から復号側にシグナリングする必要がある。このため、シグナリングするフラグ量が増加し、符号化効率の低下を招くという問題がある。 When multiple blending modes (multiple blending methods) are introduced in a TPM as in Non-Patent Document 1, a flag indicating which mode is to be used must be signaled from the encoding side to the decoding side. This increases the number of flags to be signaled, resulting in a problem of reduced coding efficiency.

そこで、本発明は、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供することを目的とする。 The present invention aims to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags signaled even when multiple synthesis methods are introduced into split prediction.

第1の態様に係る予測装置は、画像を分割したブロック単位で予測を行う予測装置であって、予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備えることを要旨とする。 The prediction device according to the first aspect is a prediction device that performs prediction in units of blocks obtained by dividing an image, and includes a division unit that divides a prediction target block by straight lines and outputs a plurality of prediction regions, a generation unit that generates a plurality of regional prediction images corresponding to the plurality of prediction regions, a determination unit that determines a synthesis method to be used for synthesizing the plurality of regional prediction images from a plurality of methods, and a synthesis unit that synthesizes the plurality of regional prediction images using the synthesis method determined by the determination unit, and outputs a prediction block corresponding to the prediction target block.

第2の態様に係る符号化装置は、第1の態様に係る予測装置を備えることを要旨とする。 The encoding device according to the second aspect is characterized in that it includes the prediction device according to the first aspect.

第3の態様に係る復号装置は、第1の態様に係る予測装置を備えることを要旨とする。 The decoding device according to the third aspect is characterized in that it includes the prediction device according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係る予測装置として機能させることを要旨とする。 The gist of the program according to the fourth aspect is to cause a computer to function as the prediction device according to the first aspect.

本発明によれば、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供できる。 The present invention provides a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags signaled, even when multiple synthesis methods are introduced into split prediction.

実施形態に係る符号化装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an encoding device according to an embodiment. 実施形態に係る符号化装置の三角形分割予測部の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a triangular decomposition prediction unit of an encoding device according to an embodiment. 実施形態に係る分割部の動作を示す図である。11A and 11B are diagrams illustrating an operation of a division unit according to the embodiment. 実施形態に係る算出部及び決定部の動作を示す図である。6A and 6B are diagrams illustrating operations of a calculation unit and a determination unit according to the embodiment. 実施形態に係る合成部の動作を示す図である。6A and 6B are diagrams illustrating an operation of a synthesis unit according to the embodiment. 実施形態に係る復号装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a decoding device according to an embodiment. 実施形態に係る復号装置の三角形分割予測部の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of a triangular decomposition prediction unit of a decoding device according to an embodiment. 実施形態に係る三角形分割予測部の動作フローを示す図である。FIG. 11 is a diagram showing an operation flow of a triangulation prediction unit according to the embodiment.

図面を参照して、実施形態に係る符号化装置及び復号装置について説明する。実施形態に係る符号化装置及び復号装置は、MPEGに代表される動画像の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An encoding device and a decoding device according to an embodiment will be described with reference to the drawings. The encoding device and the decoding device according to an embodiment respectively encode and decode moving images as represented by MPEG. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<符号化装置の構成>
まず、本実施形態に係る符号化装置の構成について説明する。図1は、本実施形態に係る符号化装置1の構成を示す図である。符号化装置1は、画像を分割して得たブロック単位で符号化を行う装置である。
<Structure of the Encoding Device>
First, the configuration of the encoding device according to this embodiment will be described. Fig. 1 is a diagram showing the configuration of an encoding device 1 according to this embodiment. The encoding device 1 is a device that performs encoding in units of blocks obtained by dividing an image.

図1に示すように、符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。 As shown in FIG. 1, the encoding device 1 includes a block division unit 100, a subtraction unit 110, a transformation and quantization unit 120, an entropy encoding unit 130, an inverse quantization and inverse transformation unit 140, a synthesis unit 150, a memory 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部110に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず矩形(非正方形)であってもよい。画像ブロックは、符号化装置1が符号化を行う単位(符号化対象ブロック)であり、且つ復号装置が復号を行う単位(復号対象ブロック)である。このような画像ブロックはCU(Coding Unit)と呼ばれることがある。 The block division unit 100 divides an input image of a frame (or picture) constituting a moving image into a plurality of image blocks, and outputs the image blocks obtained by division to the subtraction unit 110. The size of the image block is, for example, 32 x 32 pixels, 16 x 16 pixels, 8 x 8 pixels, or 4 x 4 pixels. The shape of the image block is not limited to a square, but may be a rectangle (non-square). The image block is the unit (block to be coded) for coding by the coding device 1, and is the unit (block to be coded) for decoding by the decoding device. Such an image block is sometimes called a CU (Coding Unit).

ブロック分割部100は、輝度信号と色差信号とに対してブロック分割を行う。以下において、ブロック分割の形状が輝度信号と色差信号とで同じである場合について主として説明するが、輝度信号と色差信号とで分割を独立に制御可能であってもよい。輝度ブロック及び色差ブロックを特に区別しないときは単に符号化対象ブロックと呼ぶ。 The block division unit 100 performs block division on the luminance signal and the color difference signal. In the following, the case where the shape of the block division is the same for the luminance signal and the color difference signal will be mainly described, but it may be possible to control the division independently for the luminance signal and the color difference signal. When there is no particular distinction between the luminance block and the color difference block, they are simply referred to as the block to be coded.

減算部110は、ブロック分割部100が出力する符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測ブロックとの差分(誤差)を表す予測残差を算出する。減算部110は、ブロックの各画素値から予測ブロックの各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual that represents the difference (error) between the block to be coded output by the block division unit 100 and a predicted block obtained by predicting the block to be coded by the prediction unit 170. The subtraction unit 110 calculates the prediction residual by subtracting each pixel value of the predicted block from each pixel value of the block, and outputs the calculated prediction residual to the transformation/quantization unit 120.

変換・量子化部120は、ブロック単位で変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。 The transform/quantization unit 120 performs transform processing and quantization processing on a block-by-block basis. The transform/quantization unit 120 has a transform unit 121 and a quantization unit 122.

変換部121は、減算部110が出力する予測残差に対して変換処理を行って周波数成分ごとの変換係数を算出し、算出した変換係数を量子化部122に出力する。変換処理(変換)とは、画素領域の信号を周波数領域の信号に変換する処理をいい、例えば、離散コサイン変換(DCT)や離散サイン変換(DST)、カルーネンレーブ変換(KLT)、及びそれらを整数化した変換等をいう。 The transform unit 121 performs a transform process on the prediction residual output by the subtraction unit 110 to calculate a transform coefficient for each frequency component, and outputs the calculated transform coefficient to the quantization unit 122. The transform process (transformation) refers to a process of converting a pixel domain signal into a frequency domain signal, such as discrete cosine transform (DCT), discrete sine transform (DST), Karhunen-Loeb transform (KLT), and transforms that convert these to integers.

量子化部122は、変換部121が出力する変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the transform coefficients output by the transform unit 121 using a quantization parameter (Qp) and a quantization matrix, and outputs the quantized transform coefficients to the entropy coding unit 130 and the inverse quantization and inverse transform unit 140. Note that the quantization parameter (Qp) is a parameter that is commonly applied to each transform coefficient in a block and determines the coarseness of quantization. The quantization matrix is a matrix whose elements are the quantization values used when quantizing each transform coefficient.

エントロピー符号化部130は、量子化部122が出力する変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、ブロック分割部100から各符号化対象ブロックのサイズ・形状等の情報を取得し、予測部170から予測に関する情報(例えば、予測モードや動きベクトルの情報)を取得し、これらの情報の符号化も行う。 The entropy coding unit 130 performs entropy coding on the transform coefficients output by the quantization unit 122, compresses the data, generates a coded stream (bit stream), and outputs the coded stream to the outside of the coding device 1. For entropy coding, Huffman codes and CABAC (Context-based Adaptive Binary Arithmetic Coding) can be used. The entropy coding unit 130 obtains information on the size and shape of each block to be coded from the block division unit 100, obtains prediction information (e.g., prediction mode and motion vector information) from the prediction unit 170, and also codes this information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。 The inverse quantization and inverse transform unit 140 performs inverse quantization and inverse transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 140 includes an inverse quantization unit 141 and an inverse transform unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122が出力する変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより変換係数を復元し、復元した変換係数を逆変換部142に出力する。 The inverse quantization unit 141 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122. Specifically, the inverse quantization unit 141 restores the transform coefficients by inverse quantizing the transform coefficients output by the quantization unit 122 using a quantization parameter (Qp) and a quantization matrix, and outputs the restored transform coefficients to the inverse transform unit 142.

逆変換部142は、変換部121が行う変換処理に対応する逆変換処理を行う。例えば、変換部121がDCTを行った場合には、逆変換部142は逆DCTを行う。逆変換部142は、逆量子化部141が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs an inverse transform process corresponding to the transform process performed by the transform unit 121. For example, if the transform unit 121 performs a DCT, the inverse transform unit 142 performs an inverse DCT. The inverse transform unit 142 performs an inverse transform process on the transform coefficients output by the inverse quantization unit 141 to restore the prediction residual, and outputs the restored prediction residual, which is the restored prediction residual, to the synthesis unit 150.

合成部150は、逆変換部142が出力する復元予測残差を、予測部170が出力する予測ブロックと画素単位で合成する。合成部150は、復元予測残差の各画素値と予測ブロックの各画素値を加算して符号化対象ブロックを復元(復号)し、復元したブロック単位の復号画像(復元ブロック)をメモリ160に出力する。 The synthesis unit 150 synthesizes the reconstructed prediction residual output by the inverse transform unit 142 with the predicted block output by the prediction unit 170 on a pixel-by-pixel basis. The synthesis unit 150 adds each pixel value of the reconstructed prediction residual to each pixel value of the predicted block to reconstruct (decode) the block to be coded, and outputs the reconstructed decoded image (reconstructed block) on a block-by-block basis to the memory 160.

メモリ160は、合成部150が出力する復元ブロックをフレーム単位で復号画像として蓄積する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが介在してもよい。 The memory 160 accumulates the reconstructed blocks output by the synthesis unit 150 as decoded images on a frame-by-frame basis. The memory 160 outputs the stored decoded images to the prediction unit 170. Note that a loop filter may be interposed between the synthesis unit 150 and the memory 160.

予測部170は、ブロック単位で予測処理を行うことにより、符号化対象ブロックに対応する予測ブロックを生成し、生成した予測ブロックを減算部110及び合成部150に出力する。予測処理が行われる符号化対象ブロックを予測対象ブロックと呼ぶ。 The prediction unit 170 performs prediction processing on a block-by-block basis to generate a prediction block corresponding to the block to be coded, and outputs the generated prediction block to the subtraction unit 110 and the synthesis unit 150. The block to be coded on which prediction processing is performed is called the block to be predicted.

予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを有する。本実施形態において、インター予測部172は、ブロック単位で予測処理を行う予測装置に相当する。 The prediction unit 170 has an intra prediction unit 171, an inter prediction unit 172, and a switching unit 173. In this embodiment, the inter prediction unit 172 corresponds to a prediction device that performs prediction processing on a block-by-block basis.

イントラ予測部171は、複数のイントラ予測モードの中から、予測対象ブロックに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いて予測対象ブロックを予測する。イントラ予測部171は、メモリ160に記憶された復号画像のうち、予測対象ブロックに隣接する復号済み画素値を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部173に出力する。また、イントラ予測部171は、選択したイントラ予測モードに関する情報をエントロピー符号化部130に出力する。 The intra prediction unit 171 selects an optimal intra prediction mode to be applied to the prediction target block from among multiple intra prediction modes, and predicts the prediction target block using the selected intra prediction mode. The intra prediction unit 171 generates an intra prediction block by referring to decoded pixel values adjacent to the prediction target block in the decoded image stored in the memory 160, and outputs the generated intra prediction block to the switching unit 173. The intra prediction unit 171 also outputs information related to the selected intra prediction mode to the entropy coding unit 130.

インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチング等の手法により動きベクトルを算出し、予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部173に出力する。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する情報(動きベクトル情報等)をエントロピー符号化部130に出力する。 The inter prediction unit 172 uses the decoded image stored in the memory 160 as a reference image to calculate a motion vector by a method such as block matching, predicts the block to be predicted, generates an inter prediction block, and outputs the generated inter prediction block to the switching unit 173. The inter prediction unit 172 selects an optimal inter prediction method from inter prediction using multiple reference images (typically, bi-prediction) and inter prediction using one reference image (unidirectional prediction), and performs inter prediction using the selected inter prediction method. The inter prediction unit 172 outputs information related to the inter prediction (motion vector information, etc.) to the entropy coding unit 130.

本実施形態において、インター予測部172は、三角形分割予測(TPM)を行う三角形分割予測部172aを有する(図2参照)。三角形分割予測部172aは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。インター予測部172は、予測対象ブロックに三角形分割予測を適用する場合、この予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に三角形分割予測適用フラグを伝送する。三角形分割予測部172aの詳細については後述する。 In this embodiment, the inter prediction unit 172 has a triangular partitioning prediction unit 172a that performs triangular partitioning prediction (TPM) (see FIG. 2). The triangular partitioning prediction unit 172a assigns a motion vector to each of the regions obtained by dividing the encoding target block by diagonals, and performs motion compensation prediction. When applying triangular partitioning prediction to the encoding target block, the inter prediction unit 172 outputs a triangular partitioning prediction application flag indicating that triangular partitioning prediction is applied to this encoding target block to the entropy coding unit 130, and transmits the triangular partitioning prediction application flag from the entropy coding unit 130 to the decoding side. Details of the triangular partitioning prediction unit 172a will be described later.

切替部173は、インター予測部172が出力するインター予測ブロックとイントラ予測部171が出力するイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを減算部110及び合成部150に出力する。 The switching unit 173 switches between the inter prediction block output by the inter prediction unit 172 and the intra prediction block output by the intra prediction unit 171, and outputs one of the prediction blocks to the subtraction unit 110 and the synthesis unit 150.

次に、本実施形態に係る三角形分割予測部172aについて説明する。図2は、本実施形態に係る三角形分割予測部172aの構成を示す図である。 Next, we will explain the triangular decomposition prediction unit 172a according to this embodiment. Figure 2 is a diagram showing the configuration of the triangular decomposition prediction unit 172a according to this embodiment.

図2に示すように、三角形分割予測部172aは、分割部1721と、生成部1722と、算出部1723と、決定部1724と、合成部1725とを有する。 As shown in FIG. 2, the triangulation prediction unit 172a includes a division unit 1721, a generation unit 1722, a calculation unit 1723, a determination unit 1724, and a synthesis unit 1725.

分割部1721は、予測対象ブロックを対角線で分割し、2つの三角形領域を生成部1722に出力する。三角形領域は、予測対象ブロックを直線により分割した予測領域の一例である。分割方法には、図3(a)に示す方法と図3(b)に示す方法との2種類がある。図3(a)に示す方法では、分割部1721は、符号化対象ブロックの左上の頂天位置及び右下の頂天位置を通る分割線で分割する。図3(b)に示す方法では、分割部1721は、符号化対象ブロックの右上の頂天位置及び左下の頂天位置を通る分割線で分割する。分割部1721は、分割の方向が図3(a)に示す対角線方向及び図3(b)に示す対角線方向のいずれであるかを示す分割方向フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に分割方向フラグを伝送する。 The division unit 1721 divides the prediction target block diagonally and outputs two triangular regions to the generation unit 1722. The triangular region is an example of a prediction region in which the prediction target block is divided by straight lines. There are two types of division methods: a method shown in FIG. 3(a) and a method shown in FIG. 3(b). In the method shown in FIG. 3(a), the division unit 1721 divides the prediction target block by a division line passing through the top left nadir position and the bottom right nadir position of the coding target block. In the method shown in FIG. 3(b), the division unit 1721 divides the prediction target block by a division line passing through the top right nadir position and the bottom left nadir position of the coding target block. The division unit 1721 outputs a division direction flag indicating whether the division direction is the diagonal direction shown in FIG. 3(a) or the diagonal direction shown in FIG. 3(b) to the entropy coding unit 130, and transmits the division direction flag from the entropy coding unit 130 to the decoding side.

生成部1722は、2つの三角形領域のそれぞれについて動きベクトルを用いて領域予測画像を生成し、2つの領域予測画像を算出部1723及び合成部1725に出力する。具体的には、生成部1722は、予測対象ブロックを分割した各領域に動きべクトルを割り当て、割り当てた動きべクトルを用いて各領域の予測画像を生成する。ここで、生成部1722は、動きベクトルの参照元とする複数の候補を優先度順に並べて、上位一定数の動きベクトルの中から三角形領域ごとに1つの動きベクトルを選択する。生成部1722は、選択した動きベクトルを示す動きベクトル情報をエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に動きベクトル情報を伝送する。 The generation unit 1722 generates a region prediction image for each of the two triangular regions using a motion vector, and outputs the two region prediction images to the calculation unit 1723 and the synthesis unit 1725. Specifically, the generation unit 1722 assigns a motion vector to each region obtained by dividing the prediction target block, and generates a prediction image for each region using the assigned motion vector. Here, the generation unit 1722 arranges multiple candidates to be used as reference sources for the motion vector in order of priority, and selects one motion vector for each triangular region from a certain number of top motion vectors. The generation unit 1722 outputs motion vector information indicating the selected motion vector to the entropy coding unit 130, and transmits the motion vector information from the entropy coding unit 130 to the decoding side.

算出部1723は、生成部1722が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部1724に出力する。例えば、算出部1723は、図4(a)に示すように、領域予測画像1における領域予測画像2との境界領域R1と、領域予測画像2における領域予測画像1との境界領域R2との類似度を示す類似度情報を算出する。類似度情報は、類似度を示す情報であればどのような情報であってもよいが、例えば、差の絶対値の総和(SAD:Sum of Abusolute Difference)を類似度情報として用いることができる。 The calculation unit 1723 calculates similarity information indicating the similarity between the two region prediction images generated by the generation unit 1722, and outputs the calculated similarity information to the determination unit 1724. For example, as shown in FIG. 4(a), the calculation unit 1723 calculates similarity information indicating the similarity between a boundary region R1 between region prediction image 1 and region prediction image 2, and a boundary region R2 between region prediction image 2 and region prediction image 1. The similarity information may be any information that indicates similarity, and for example, the sum of absolute differences (SAD) may be used as the similarity information.

算出部1723は、境界領域R1内の画素値(複数)と、対応する境界領域R2内の画素値(複数)との間のSADを類似度情報として算出してもよい。SADが小さいほど類似度が高いことを示し、SADが大きいほど類似度が低いことを示す。 The calculation unit 1723 may calculate the SAD between pixel values (multiple) in the boundary region R1 and the corresponding pixel values (multiple) in the boundary region R2 as similarity information. A smaller SAD indicates a higher similarity, and a larger SAD indicates a lower similarity.

類似度情報を算出することは、2つの領域予測画像に対応する2つの参照画像間の類似度を算出することであってもよい。参照画像間の類似度は、一方の参照画像内の画素値(複数)と、対応する他方の参照画像内の画素値(複数)との間のSADとして算出されてもよい。 Calculating the similarity information may be calculating the similarity between two reference images corresponding to the two region prediction images. The similarity between the reference images may be calculated as the SAD between pixel values (multiple) in one reference image and corresponding pixel values (multiple) in the other reference image.

決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部1725に出力する。例えば、複数の方式は、2つの領域予測画像間の境界領域を、画素位置ごとの重み係数を用いた重み付け合成により混合する第1方式(以下、「Blending方式」と呼ぶ)を含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式を用いるか否かを決定する。Blending方式によれば、領域ごとの動き予測補償による不連続性を抑制できる。 The determination unit 1724 determines a synthesis method to be used for synthesizing the two regional prediction images from among a plurality of methods based on the similarity information calculated by the calculation unit 1723, and outputs information indicating the determined synthesis method to the synthesis unit 1725. For example, the plurality of methods includes a first method (hereinafter referred to as the "blending method") in which the boundary area between the two regional prediction images is mixed by weighted synthesis using a weighting coefficient for each pixel position. The determination unit 1724 determines whether or not to use the blending method as the synthesis method to be used for synthesizing the two regional prediction images based on the similarity information calculated by the calculation unit 1723. The blending method makes it possible to suppress discontinuity due to motion prediction compensation for each region.

本実施形態において、複数の方式は、境界領域を重み付け合成により混合しない第2方式(以下、「Non-blending方式」と呼ぶ)をさらに含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。Non-blending方式によれば、フラットな領域及びエッジが多く含まれているシーケンスについて、Blending方式によるエッジのぼやけを回避できる。 In this embodiment, the multiple methods further include a second method (hereinafter referred to as the "non-blending method") that does not mix boundary regions by weighted synthesis. The decision unit 1724 decides whether to use the blending method or the non-blending method as the synthesis method to be used for synthesizing two region prediction images based on the similarity information calculated by the calculation unit 1723. The non-blending method makes it possible to avoid edge blurring caused by the blending method for sequences that include many flat regions and edges.

このようなBlending方式及びNon-blending方式の切り替えを可能とする場合、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送する必要があり得る。しかしながら、画像における背景領域(例えば、空などの滑らかな領域)では、Blending方式であってもNon-blending方式であっても生成される予測画像の特徴は変わることはなく、どちらの方式を選択しても符号化効率に影響は生じない。 When it is possible to switch between such blending and non-blending methods, it may be necessary to transmit a flag indicating whether the blending or non-blending method is to be applied to the decoding side. However, in background areas of an image (e.g., smooth areas such as the sky), the characteristics of the predicted image generated will not change whether the blending method or the non-blending method is used, and the coding efficiency will not be affected regardless of which method is selected.

本実施形態では、決定部1724は、算出部1723が算出した類似度情報に基づいてBlending方式及びNon-blending方式のいずれかを決定する。このような類似度情報は復号側でも算出可能な情報であるため、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、このようなフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this embodiment, the determination unit 1724 determines either the blending method or the non-blending method based on the similarity information calculated by the calculation unit 1723. Such similarity information can also be calculated on the decoding side, so a common method can be implicitly determined on the encoding side and the decoding side without transmitting a flag indicating whether the blending method or the non-blending method is to be applied to the decoding side. This makes it unnecessary to transmit (signal) such a flag to the decoding side, and can suppress an increase in the amount of flags to be signaled.

例えば、決定部1724は、図4(b)及び(c)に示すように、算出部1723が算出した類似度情報に基づいて、類似度情報が示す類似度が閾値よりも低い場合はBlending方式を決定し、類似度情報が示す類似度が閾値よりも高い場合はNon-blending方式を決定する。この閾値は、予め定められた固定値であってもよいし、符号化側から復号側に伝送する可変値であってもよい。 For example, as shown in Figures 4(b) and (c), based on the similarity information calculated by the calculation unit 1723, the determination unit 1724 determines the blending method when the similarity indicated by the similarity information is lower than a threshold, and determines the non-blending method when the similarity indicated by the similarity information is higher than the threshold. This threshold may be a predetermined fixed value, or may be a variable value transmitted from the encoding side to the decoding side.

合成部1725は、決定部1724が決定した合成方式を用いて、生成部1722が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部1725は、決定部1724がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部1724がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。 The synthesis unit 1725 synthesizes the two regional prediction images output by the generation unit 1722 using the synthesis method determined by the determination unit 1724, and outputs a prediction block corresponding to the block to be predicted. In this embodiment, if the determination unit 1724 determines the blending method, the synthesis unit 1725 synthesizes the two regional prediction images using the blending method, and if the determination unit 1724 determines the non-blending method, the synthesis unit 1725 synthesizes the two regional prediction images using the non-blending method.

図5は、2つの領域予測画像P及びPを合成する動作を示す図である。図5(a)に示すように、合成部1725は、2つの領域予測画像P及びPをBlending方式で合成する場合、予測対象ブロックのブロックサイズ及びブロック形状に応じた重み係数マップ(Weight map)を用いて2つの領域予測画像P及びPを加重平均により合成する。これにより、図4(a)に示す境界領域R1及びR2が連続的になるよう調整される。一方、図5(b)に示すように、合成部1725は、2つの領域予測画像P及びPをNon-blending方式で合成する場合、2つの領域予測画像P及びPを加重平均せずに合成する。 FIG. 5 is a diagram showing the operation of synthesizing two area prediction images P 1 and P 2. As shown in FIG. 5(a), when the synthesis unit 1725 synthesizes two area prediction images P 1 and P 2 by the blending method, the synthesis unit 1725 synthesizes the two area prediction images P 1 and P 2 by weighted averaging using a weighting factor map (Weight map) according to the block size and block shape of the prediction target block. As a result, the boundary regions R1 and R2 shown in FIG. 4(a) are adjusted to be continuous. On the other hand, as shown in FIG. 5(b), when the synthesis unit 1725 synthesizes two area prediction images P 1 and P 2 by the non-blending method, the synthesis unit 1725 synthesizes the two area prediction images P 1 and P 2 without weighted averaging.

<復号装置の構成>
次に、本実施形態に係る復号装置の構成について、上述した符号化装置の構成との相違点を主として説明する。図6は、本実施形態に係る復号装置2の構成を示す図である。復号装置2は、符号化ストリームから復号対象ブロックを復号する装置である。
<Configuration of Decoding Device>
Next, the configuration of a decoding device according to this embodiment will be described, focusing mainly on the differences from the configuration of the encoding device described above. Fig. 6 is a diagram showing the configuration of a decoding device 2 according to this embodiment. The decoding device 2 is a device that decodes a current block from an encoded stream.

図6に示すように、復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。 As shown in FIG. 6, the decoding device 2 has an entropy decoding unit 200, an inverse quantization/inverse transform unit 210, a synthesis unit 220, a memory 230, and a prediction unit 240.

エントロピー復号部200は、符号化装置1により生成された符号化ストリームを復号し、量子化された変換係数を取得し、取得した変換係数を逆量子化・逆変換部210(逆量子化部211)に出力する。また、エントロピー復号部200は、各種のシグナリング情報を取得する。例えば、エントロピー復号部200は、復号対象ブロックに適用する予測処理に関する情報を取得し、取得した情報を予測部240に出力する。 The entropy decoding unit 200 decodes the coding stream generated by the coding device 1, obtains quantized transform coefficients, and outputs the obtained transform coefficients to the inverse quantization/inverse transform unit 210 (inverse quantization unit 211). The entropy decoding unit 200 also obtains various types of signaling information. For example, the entropy decoding unit 200 obtains information related to the prediction process to be applied to the block to be decoded, and outputs the obtained information to the prediction unit 240.

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。 The inverse quantization and inverse transform unit 210 performs inverse quantization processing and inverse transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 210 has an inverse quantization unit 211 and an inverse transform unit 212.

逆量子化部211は、符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200が出力する量子化変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復
号対象ブロックの変換係数を復元し、復元した変換係数を逆変換部212に出力する。
The inverse quantization unit 211 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the encoding device 1. The inverse quantization unit 211 restores the transform coefficients of the block to be decoded by inverse quantizing the quantized transform coefficients output by the entropy decoding unit 200 using a quantization parameter (Qp) and a quantization matrix, and outputs the restored transform coefficients to the inverse transform unit 212.

逆変換部212は、符号化装置1の変換部121が行う変換処理に対応する逆変換処理を行う。逆変換部212は、逆量子化部211が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs inverse transform processing corresponding to the transform processing performed by the transform unit 121 of the encoding device 1. The inverse transform unit 212 performs inverse transform processing on the transform coefficients output by the inverse quantization unit 211 to restore the prediction residual, and outputs the restored prediction residual (restored prediction residual) to the synthesis unit 220.

合成部220は、逆変換部212が出力する予測残差と、予測部240が出力する予測ブロックとを画素単位で合成することにより、復号対象ブロックを復元(復号)し、復元ブロックをメモリ230に出力する。 The synthesis unit 220 reconstructs (decodes) the block to be decoded by synthesizing the prediction residual output by the inverse transform unit 212 and the prediction block output by the prediction unit 240 on a pixel-by-pixel basis, and outputs the reconstructed block to the memory 230.

メモリ230は、合成部220が出力する復元ブロックをフレーム単位で復号画像として記憶する。メモリ230は、フレーム単位の復号画像を復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが介在してもよい。 The memory 230 stores the reconstructed blocks output by the synthesis unit 220 as decoded images on a frame-by-frame basis. The memory 230 outputs the decoded images on a frame-by-frame basis to the outside of the decoding device 2. Note that a loop filter may be interposed between the synthesis unit 220 and the memory 230.

予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを有する。 The prediction unit 240 performs prediction on a block-by-block basis. The prediction unit 240 has an intra prediction unit 241, an inter prediction unit 242, and a switching unit 243.

イントラ予測部241は、メモリ230に記憶された復号画像のうち復号対象ブロックに隣接する参照画素を参照し、エントロピー復号部200が出力する情報に基づいて、復号対象ブロックをイントラ予測により予測する。そして、イントラ予測部241は、イントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部243に出力する。 The intra prediction unit 241 refers to reference pixels adjacent to the block to be decoded in the decoded image stored in the memory 230, and predicts the block to be decoded by intra prediction based on the information output by the entropy decoding unit 200. The intra prediction unit 241 then generates an intra prediction block and outputs the generated intra prediction block to the switching unit 243.

インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象ブロックをインター予測により予測する。インター予測部242は、エントロピー復号部200が出力する動きベクトル情報を用いてインター予測を行うことによりインター予測ブロックを生成し、生成したインター予測ブロックを切替部243に出力する。 The inter prediction unit 242 predicts the block to be decoded by inter prediction using the decoded image stored in the memory 230 as a reference image. The inter prediction unit 242 generates an inter prediction block by performing inter prediction using the motion vector information output by the entropy decoding unit 200, and outputs the generated inter prediction block to the switching unit 243.

本実施形態において、インター予測部242は、三角形分割予測(TPM)を行う三角形分割予測部242aを有する(図7参照)。インター予測部242は、予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー復号部200が取得した場合、予測対象ブロックに三角形分割予測を適用する。三角形分割予測部242aの詳細については後述する。 In this embodiment, the inter prediction unit 242 has a triangular partition prediction unit 242a that performs triangular partition prediction (TPM) (see FIG. 7). When the entropy decoding unit 200 acquires a triangular partition prediction application flag indicating that triangular partition prediction is to be applied to the block to be predicted, the inter prediction unit 242 applies triangular partition prediction to the block to be predicted. Details of the triangular partition prediction unit 242a will be described later.

切替部243は、イントラ予測部241が出力するイントラ予測ブロックとインター予測部242が出力するインター予測ブロックとを切り替えて、いずれかの予測ブロックを合成部220に出力する。 The switching unit 243 switches between the intra-predicted block output by the intra-prediction unit 241 and the inter-predicted block output by the inter-prediction unit 242, and outputs one of the predicted blocks to the synthesis unit 220.

次に、本実施形態に係る三角形分割予測部242aについて説明する。図7は、本実施形態に係る三角形分割予測部242aの構成を示す図である。 Next, the triangular decomposition prediction unit 242a according to this embodiment will be described. FIG. 7 is a diagram showing the configuration of the triangular decomposition prediction unit 242a according to this embodiment.

図7に示すように、三角形分割予測部242aは、分割部2421と、生成部2422と、算出部2423と、決定部2424と、合成部2425とを有する。 As shown in FIG. 7, the triangulation prediction unit 242a includes a division unit 2421, a generation unit 2422, a calculation unit 2423, a determination unit 2424, and a synthesis unit 2425.

分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。 The division unit 2421 divides the prediction target block diagonally based on the division direction flag acquired by the entropy decoding unit 200, and outputs two triangular regions to the generation unit 2422.

生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。 The generation unit 2422 generates a region prediction image for each of the two triangular regions based on the motion vector information acquired by the entropy decoding unit 200, and outputs the two region prediction images to the calculation unit 2423 and the synthesis unit 2425.

算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。類似度情報の算出方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則(アルゴリズム)を用いて類似度情報を算出する。 The calculation unit 2423 calculates similarity information indicating the similarity between the two region prediction images generated by the generation unit 2422, and outputs the calculated similarity information to the determination unit 2424. The calculation method of the similarity information is the same as that on the encoding side, and the similarity information is calculated using a rule (algorithm) that is common to the encoding side and the decoding side.

決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部2425に出力する。本実施形態において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。合成方式の決定方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則を用いて合成方式を決定する。すなわち、決定部2424は、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを基づくことなく、類似度情報に基づいて合成方式を決定する。 The determination unit 2424 determines the synthesis method to be used for synthesizing the two area prediction images from among a plurality of methods based on the similarity information calculated by the calculation unit 2423, and outputs information indicating the determined synthesis method to the synthesis unit 2425. In this embodiment, the determination unit 2424 determines whether to use the blending method or the non-blending method as the synthesis method to be used for synthesizing the two area prediction images based on the similarity information calculated by the calculation unit 2423. The method of determining the synthesis method is the same as that on the encoding side, and the synthesis method is determined using a rule common to the encoding side and the decoding side. In other words, the determination unit 2424 determines the synthesis method based on the similarity information, without being based on a flag indicating whether the blending method or the non-blending method is to be applied.

合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部2425は、決定部2424がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部2424がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。 The synthesis unit 2425 synthesizes the two regional prediction images output by the generation unit 2422 using the synthesis method determined by the determination unit 2424, and outputs a prediction block corresponding to the block to be predicted. In this embodiment, if the determination unit 2424 determines the blending method, the synthesis unit 2425 synthesizes the two regional prediction images using the blending method, and if the determination unit 2424 determines the non-blending method, the synthesis unit 2425 synthesizes the two regional prediction images using the non-blending method.

<三角形分割予測部の動作>
次に、本実施形態に係る三角形分割予測部172a及び242aの動作について説明する。三角形分割予測部172a及び242aは同様な動作を行うため、ここでは三角形分割予測部242aを例に挙げて説明する。図8は、本実施形態に係る三角形分割予測部242aの動作フローを示す図である。
<Operation of Triangulation Prediction Unit>
Next, the operation of the triangular decomposition prediction units 172a and 242a according to this embodiment will be described. Since the triangular decomposition prediction units 172a and 242a perform similar operations, the triangular decomposition prediction unit 242a will be taken as an example for description here. Fig. 8 is a diagram showing the operation flow of the triangular decomposition prediction unit 242a according to this embodiment.

図8に示すように、ステップS1において、分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。 As shown in FIG. 8, in step S1, the division unit 2421 divides the prediction target block diagonally based on the division direction flag acquired by the entropy decoding unit 200, and outputs two triangular regions to the generation unit 2422.

ステップS2において、生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。 In step S2, the generation unit 2422 generates a region prediction image for each of the two triangular regions based on the motion vector information acquired by the entropy decoding unit 200, and outputs the two region prediction images to the calculation unit 2423 and the synthesis unit 2425.

ステップS3において、算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。 In step S3, the calculation unit 2423 calculates similarity information indicating the similarity between the two region prediction images generated by the generation unit 2422, and outputs the calculated similarity information to the determination unit 2424.

ステップS4において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。 In step S4, the determination unit 2424 determines whether the blending method or the non-blending method is to be used as the synthesis method for synthesizing the two area prediction images based on the similarity information calculated by the calculation unit 2423.

ステップS5において、合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。 In step S5, the synthesis unit 2425 synthesizes the two area prediction images output by the generation unit 2422 using the synthesis method determined by the determination unit 2424, and outputs a prediction block corresponding to the block to be predicted.

このように、本実施形態によれば、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、複数の合成方式を三角形分割予測に導入する場合であっても、合成方式を示すフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this way, according to this embodiment, a common method can be implicitly determined on the encoding side and the decoding side without transmitting a flag indicating whether the blending method or the non-blending method is to be applied to the decoding side. This makes it unnecessary to transmit (signal) a flag indicating the blending method to the decoding side even when multiple blending methods are introduced into the triangulation prediction, and can suppress an increase in the amount of flags to be signaled.

<その他の実施形態>
上述した実施形態において、類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する一例について説明した。しかしながら、複数のBlending方式を導入する場合、類似度情報に基づいて複数のBlending方式のいずれを用いるかを決定してもよい。
<Other embodiments>
In the above-mentioned embodiment, an example is described in which the blending method or the non-blending method is determined as the synthesis method used for synthesizing two area prediction images based on similarity information.However, when introducing a plurality of blending methods, it is also possible to determine which of the plurality of blending methods is used based on similarity information.

複数のBlending方式は、境界領域を混合するパラメータが互いに異なっていてもよい。ここで、パラメータは、境界領域の範囲及び重み係数のセットのうち少なくとも1つであってもよい。例えば、Blending処理を適用する境界領域の範囲が第1範囲(狭範囲)であり、重み係数の第1セットを用いる第1Blending方式と、Blending処理を適用する境界領域の範囲が第2範囲(広範囲)であり、重み係数の第2セットを用いる第2Blending方式とを導入する。ここで、第2セットを構成する重み係数は、第1セットに比べて多い。 The multiple blending methods may have different parameters for blending the boundary regions. Here, the parameters may be at least one of the range of the boundary region and the set of weighting coefficients. For example, a first blending method is introduced in which the range of the boundary region to which the blending process is applied is a first range (narrow range) and a first set of weighting coefficients is used, and a second blending method is introduced in which the range of the boundary region to which the blending process is applied is a second range (wide range) and a second set of weighting coefficients is used. Here, the weighting coefficients constituting the second set are greater than those of the first set.

このような前提下において、決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が閾値よりも高い場合は第1Blending方式を決定する。 Under such a premise, the determination units 1724 and 2424 determine the second blending method when the similarity indicated by the similarity information calculated by the calculation units 1723 and 2423 is lower than a threshold value, and determine the first blending method when the similarity indicated by this similarity information is higher than the threshold value.

或いは、第1閾値と、この第1閾値よりも大きい第2閾値とを導入してもよい。決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が第2閾値よりも高い場合はNon-blending方式を決定し、この類似度情報が示す類似度が第1閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が第1閾値乃至第2閾値の範囲内にある場合は第1Blending方式を決定する。 Alternatively, a first threshold and a second threshold greater than the first threshold may be introduced. The decision units 1724 and 2424 decide on the non-blending method if the similarity indicated by the similarity information calculated by the calculation units 1723 and 2423 is higher than the second threshold, decide on the second blending method if the similarity indicated by this similarity information is lower than the first threshold, and decide on the first blending method if the similarity indicated by this similarity information is within the range from the first threshold to the second threshold.

上述した実施形態において、予測対象ブロックを対角線により分割して2つの三角形領域を出力する一例について説明したが、直線で分割された分割形状であればよく、分割形状は三角形には限らない。また、予測対象ブロックの分割数を3つ以上とすることもできる。その場合には、3つ以上の予測領域における各領域のペアについての境界付近の類似度をそれぞれ算出し、それらの情報に基づいて当該領域のペアの合成に用いる重み係数を決定することになる。 In the above embodiment, an example was described in which the prediction target block was divided by a diagonal line to output two triangular regions, but the division shape is not limited to triangles and can be any shape divided by straight lines. The prediction target block can also be divided into three or more regions. In that case, the similarity near the boundary for each pair of regions in three or more prediction regions is calculated, and a weighting coefficient to be used for combining the pairs of regions is determined based on that information.

なお、符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 A program may be provided that causes a computer to execute each process performed by the encoding device 1. A program may be provided that causes a computer to execute each process performed by the decoding device 2. The program may be recorded on a computer-readable medium. Using a computer-readable medium, it is possible to install the program on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transient recording medium. The non-transient recording medium is not particularly limited, and may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

符号化装置1が行う各処理を実行する回路を集積化し、符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。復号装置2が行う各処理を実行する回路を集積化し、復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。 The circuits that execute the processes performed by the encoding device 1 may be integrated, and the encoding device 1 may be configured as a semiconductor integrated circuit (chip set, SoC). The circuits that execute the processes performed by the decoding device 2 may be integrated, and the decoding device 2 may be configured as a semiconductor integrated circuit (chip set, SoC).

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 The above describes the embodiment in detail with reference to the drawings, but the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the invention.

1 :符号化装置
2 :復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
172a :三角形分割予測部
173 :切替部
200 :エントロピー復号部
210 :逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
242a :三角形分割予測部
243 :切替部
1721 :分割部
1722 :生成部
1723 :算出部
1724 :決定部
1725 :合成部
2421 :分割部
2422 :生成部
2423 :算出部
2424 :決定部
2425 :合成部
1: Encoding device 2: Decoding device 100: Block division unit 110: Subtraction unit 120: Transformation and quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization and inverse transform unit 141: Inverse quantization unit 142: Inverse transform unit 150: Synthesis unit 160: Memory 170: Prediction unit 171: Intra prediction unit 172: Inter prediction unit 172a: Triangular division prediction unit 173: Switching unit 200: Entropy decoding unit 210: Inverse transformation unit 211: Inverse quantization unit 212: Inverse transformation unit 220: Synthesis unit 230: Memory 240: Prediction unit 241: Intra prediction unit 242: Inter prediction unit 242a: Triangular division prediction unit 243: Switching unit 1721: Division unit 1722 : Generation unit 1723 : Calculation unit 1724 : Determination unit 1725 : Combination unit 2421 : Division unit 2422 : Generation unit 2423 : Calculation unit 2424 : Determination unit 2425 : Combination unit

Claims (4)

画像を分割したブロック単位で予測を行う予測装置であって、
予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、
前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、
前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、
前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備える
予測装置。
A prediction device that performs prediction on a block basis by dividing an image,
a division unit that divides a block to be predicted by straight lines and outputs a plurality of prediction regions;
a generation unit that generates a plurality of regional predicted images corresponding to the plurality of prediction regions;
a determining unit that determines a synthesis method to be used for synthesizing the plurality of regional predicted images from among a plurality of methods;
a synthesis unit that synthesizes the plurality of regional predicted images using the synthesis method determined by the determination unit, and outputs a predicted block corresponding to the block to be predicted.
請求項1に記載の予測装置を備えることを特徴とする符号化装置。 An encoding device comprising the prediction device according to claim 1. 請求項1に記載の予測装置を備えることを特徴とする復号装置。 A decoding device comprising the prediction device according to claim 1. コンピュータを請求項1に記載の予測装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the prediction device according to claim 1.
JP2024045101A 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program Pending JP2024069638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024045101A JP2024069638A (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020020955A JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program
JP2024045101A JP2024069638A (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020020955A Division JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program

Publications (1)

Publication Number Publication Date
JP2024069638A true JP2024069638A (en) 2024-05-21

Family

ID=77489031

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020020955A Active JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program
JP2024045101A Pending JP2024069638A (en) 2020-02-10 2024-03-21 Prediction device, encoding device, decoding device, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020020955A Active JP7460384B2 (en) 2020-02-10 2020-02-10 Prediction device, encoding device, decoding device, and program

Country Status (1)

Country Link
JP (2) JP7460384B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024058006A (en) * 2022-10-13 2024-04-25 Kddi株式会社 Image decoding device, image decoding method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501508A (en) 2007-10-12 2011-01-06 トムソン ライセンシング Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition

Also Published As

Publication number Publication date
JP2021129148A (en) 2021-09-02
JP7460384B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
US11876979B2 (en) Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device
KR102148466B1 (en) Methods of decoding using skip mode and apparatuses for using the same
EP1571850A2 (en) Apparatus and method for encoding and decoding image containing grayscale alpha channel image
US11695955B2 (en) Image encoding device, image decoding device and program
JP2024069638A (en) Prediction device, encoding device, decoding device, and program
US20210014489A1 (en) Intra prediction device, image encoding device, image decoding device and program
CN114450950B (en) Encoding device, decoding device, and storage medium
JP2024024080A (en) Image encoder, image encoding method, image decoder, and image decoding method
CN114830646A (en) Image encoding method and image decoding method
JP2023138826A (en) Intra prediction device, image coding device, image decoding device, and program
WO2022130663A1 (en) Decoding device, program, and decoding method
US11812015B2 (en) Image encoding device, image decoding device and program
KR102585485B1 (en) Image encoding device, image decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
CN114830642A (en) Image encoding method and image decoding method
KR20230098729A (en) Encoding device, decoding device, and program
CN114830647A (en) Image encoding method and image decoding method
JP7483725B2 (en) Encoding device, decoding device, and program
JP7474772B2 (en) Encoding device, decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
WO2024088058A1 (en) Method and apparatus of regression-based intra prediction in video coding system
WO2021251398A1 (en) Deblocking filter device, decoding device, and program
JP2024087085A (en) Encoding device, decoding device, and program
CN114830650A (en) Image encoding method and image decoding method
CN114788270A (en) Image encoding method and image decoding method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240321