JP2024069638A - Prediction device, encoding device, decoding device, and program - Google Patents
Prediction device, encoding device, decoding device, and program Download PDFInfo
- Publication number
- JP2024069638A JP2024069638A JP2024045101A JP2024045101A JP2024069638A JP 2024069638 A JP2024069638 A JP 2024069638A JP 2024045101 A JP2024045101 A JP 2024045101A JP 2024045101 A JP2024045101 A JP 2024045101A JP 2024069638 A JP2024069638 A JP 2024069638A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- prediction
- block
- synthesis
- outputs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 93
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 41
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 41
- 238000001308 synthesis method Methods 0.000 claims abstract description 24
- 230000002194 synthesizing effect Effects 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 abstract description 11
- 238000002156 mixing Methods 0.000 description 63
- 238000013139 quantization Methods 0.000 description 51
- 238000004364 calculation method Methods 0.000 description 24
- 239000013598 vector Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000000638 solvent extraction Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 8
- 238000005192 partition Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】複数の合成方式を三角形分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制する。【解決手段】画像を分割したブロック単位で予測を行う予測装置は、予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備える。【選択図】図2[Problem] Even when multiple synthesis methods are introduced into triangular decomposition prediction, an increase in the amount of flags to be signaled is suppressed. [Solution] A prediction device that performs prediction in units of blocks obtained by dividing an image includes a division unit that divides a block to be predicted by lines and outputs multiple prediction regions, a generation unit that generates multiple regional prediction images corresponding to the multiple prediction regions, a determination unit that determines from multiple methods a synthesis method to be used to synthesize the multiple regional prediction images, and a synthesis unit that synthesizes the multiple regional prediction images using the synthesis method determined by the determination unit, and outputs a prediction block corresponding to the block to be predicted. [Selected Figure] Figure 2
Description
本発明は、予測装置、符号化装置、復号装置、及びプログラムに関する。 The present invention relates to a prediction device, an encoding device, a decoding device, and a program.
動画像(映像)の符号化方式においては、符号化装置は、原画像をブロックに分割し、フレーム間の時間的相関を利用したインター予測とフレーム内の空間的相関を利用したイントラ予測とを切り替えながら符号化対象ブロックを予測し、予測されたブロックと符号化対象ブロックとの差を表す予測残差に対して変換処理、量子化処理、及びエントロピー符号化処理を施し、ビットストリームである符号化データを出力する。 In a video (image) coding method, the coding device divides the original image into blocks, predicts the block to be coded by switching between inter prediction, which uses the temporal correlation between frames, and intra prediction, which uses the spatial correlation within a frame, and performs conversion, quantization, and entropy coding on the prediction residual, which represents the difference between the predicted block and the block to be coded, and outputs coded data in the form of a bitstream.
次世代の符号化方式であるVVC(Versatile Video Coding)では、インター予測のモードの1つとして三角形分割予測(TPM:Triangle Partitioning Mode)が採用されている。TPMは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。 Versatile Video Coding (VVC), a next-generation coding method, employs triangular partitioning prediction (TPM: Triangle Partitioning Mode) as one of the inter-prediction modes. TPM divides the coding target block diagonally, assigning motion vectors to each area, and performs motion compensation prediction.
TPMでは、領域境界付近の予測画像については、領域ごとの予測画像の位置に応じた重み付け合成(加重平均)より混合する混合処理(blendingと呼ばれる)を行うことで、領域ごとの動き予測補償による不連続性を抑制している。スクリーンコンテンツなどのようにフラットな領域及びエッジが多く含まれているシーケンスにおいては、blendingによってエッジのぼやけを引き起こす場合がある。このため、非特許文献1においては、TPMによる予測において、blendingを行わずに予測画像を合成するNon-blendingモードを導入している。
In TPM, for predicted images near region boundaries, a mixing process (called blending) is performed in which predicted images for each region are mixed using weighted synthesis (weighted average) according to their position, thereby suppressing discontinuity caused by motion prediction compensation for each region. In sequences that contain many flat regions and edges, such as screen content, blending can cause edge blurring. For this reason,
非特許文献1のようにTPMにおいて複数のblendingモード(複数の合成方式)を導入する場合、どのモードを用いるかを示すフラグを符号化側から復号側にシグナリングする必要がある。このため、シグナリングするフラグ量が増加し、符号化効率の低下を招くという問題がある。
When multiple blending modes (multiple blending methods) are introduced in a TPM as in
そこで、本発明は、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供することを目的とする。 The present invention aims to provide a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags signaled even when multiple synthesis methods are introduced into split prediction.
第1の態様に係る予測装置は、画像を分割したブロック単位で予測を行う予測装置であって、予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備えることを要旨とする。 The prediction device according to the first aspect is a prediction device that performs prediction in units of blocks obtained by dividing an image, and includes a division unit that divides a prediction target block by straight lines and outputs a plurality of prediction regions, a generation unit that generates a plurality of regional prediction images corresponding to the plurality of prediction regions, a determination unit that determines a synthesis method to be used for synthesizing the plurality of regional prediction images from a plurality of methods, and a synthesis unit that synthesizes the plurality of regional prediction images using the synthesis method determined by the determination unit, and outputs a prediction block corresponding to the prediction target block.
第2の態様に係る符号化装置は、第1の態様に係る予測装置を備えることを要旨とする。 The encoding device according to the second aspect is characterized in that it includes the prediction device according to the first aspect.
第3の態様に係る復号装置は、第1の態様に係る予測装置を備えることを要旨とする。 The decoding device according to the third aspect is characterized in that it includes the prediction device according to the first aspect.
第4の態様に係るプログラムは、コンピュータを第1の態様に係る予測装置として機能させることを要旨とする。 The gist of the program according to the fourth aspect is to cause a computer to function as the prediction device according to the first aspect.
本発明によれば、複数の合成方式を分割予測に導入する場合であっても、シグナリングするフラグ量の増加を抑制できる予測装置、符号化装置、復号装置、及びプログラムを提供できる。 The present invention provides a prediction device, an encoding device, a decoding device, and a program that can suppress an increase in the amount of flags signaled, even when multiple synthesis methods are introduced into split prediction.
図面を参照して、実施形態に係る符号化装置及び復号装置について説明する。実施形態に係る符号化装置及び復号装置は、MPEGに代表される動画像の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An encoding device and a decoding device according to an embodiment will be described with reference to the drawings. The encoding device and the decoding device according to an embodiment respectively encode and decode moving images as represented by MPEG. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
<符号化装置の構成>
まず、本実施形態に係る符号化装置の構成について説明する。図1は、本実施形態に係る符号化装置1の構成を示す図である。符号化装置1は、画像を分割して得たブロック単位で符号化を行う装置である。
<Structure of the Encoding Device>
First, the configuration of the encoding device according to this embodiment will be described. Fig. 1 is a diagram showing the configuration of an
図1に示すように、符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。
As shown in FIG. 1, the
ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部110に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず矩形(非正方形)であってもよい。画像ブロックは、符号化装置1が符号化を行う単位(符号化対象ブロック)であり、且つ復号装置が復号を行う単位(復号対象ブロック)である。このような画像ブロックはCU(Coding Unit)と呼ばれることがある。
The
ブロック分割部100は、輝度信号と色差信号とに対してブロック分割を行う。以下において、ブロック分割の形状が輝度信号と色差信号とで同じである場合について主として説明するが、輝度信号と色差信号とで分割を独立に制御可能であってもよい。輝度ブロック及び色差ブロックを特に区別しないときは単に符号化対象ブロックと呼ぶ。
The
減算部110は、ブロック分割部100が出力する符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測ブロックとの差分(誤差)を表す予測残差を算出する。減算部110は、ブロックの各画素値から予測ブロックの各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。
The
変換・量子化部120は、ブロック単位で変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。
The transform/
変換部121は、減算部110が出力する予測残差に対して変換処理を行って周波数成分ごとの変換係数を算出し、算出した変換係数を量子化部122に出力する。変換処理(変換)とは、画素領域の信号を周波数領域の信号に変換する処理をいい、例えば、離散コサイン変換(DCT)や離散サイン変換(DST)、カルーネンレーブ変換(KLT)、及びそれらを整数化した変換等をいう。
The
量子化部122は、変換部121が出力する変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各変換係数を量子化する際の量子化値を要素として有する行列である。
The
エントロピー符号化部130は、量子化部122が出力する変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、ブロック分割部100から各符号化対象ブロックのサイズ・形状等の情報を取得し、予測部170から予測に関する情報(例えば、予測モードや動きベクトルの情報)を取得し、これらの情報の符号化も行う。
The
逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。
The inverse quantization and
逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122が出力する変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより変換係数を復元し、復元した変換係数を逆変換部142に出力する。
The
逆変換部142は、変換部121が行う変換処理に対応する逆変換処理を行う。例えば、変換部121がDCTを行った場合には、逆変換部142は逆DCTを行う。逆変換部142は、逆量子化部141が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。
The
合成部150は、逆変換部142が出力する復元予測残差を、予測部170が出力する予測ブロックと画素単位で合成する。合成部150は、復元予測残差の各画素値と予測ブロックの各画素値を加算して符号化対象ブロックを復元(復号)し、復元したブロック単位の復号画像(復元ブロック)をメモリ160に出力する。
The synthesis unit 150 synthesizes the reconstructed prediction residual output by the
メモリ160は、合成部150が出力する復元ブロックをフレーム単位で復号画像として蓄積する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが介在してもよい。
The
予測部170は、ブロック単位で予測処理を行うことにより、符号化対象ブロックに対応する予測ブロックを生成し、生成した予測ブロックを減算部110及び合成部150に出力する。予測処理が行われる符号化対象ブロックを予測対象ブロックと呼ぶ。
The
予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを有する。本実施形態において、インター予測部172は、ブロック単位で予測処理を行う予測装置に相当する。
The
イントラ予測部171は、複数のイントラ予測モードの中から、予測対象ブロックに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いて予測対象ブロックを予測する。イントラ予測部171は、メモリ160に記憶された復号画像のうち、予測対象ブロックに隣接する復号済み画素値を参照してイントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部173に出力する。また、イントラ予測部171は、選択したイントラ予測モードに関する情報をエントロピー符号化部130に出力する。
The intra prediction unit 171 selects an optimal intra prediction mode to be applied to the prediction target block from among multiple intra prediction modes, and predicts the prediction target block using the selected intra prediction mode. The intra prediction unit 171 generates an intra prediction block by referring to decoded pixel values adjacent to the prediction target block in the decoded image stored in the
インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチング等の手法により動きベクトルを算出し、予測対象ブロックを予測してインター予測ブロックを生成し、生成したインター予測ブロックを切替部173に出力する。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する情報(動きベクトル情報等)をエントロピー符号化部130に出力する。
The
本実施形態において、インター予測部172は、三角形分割予測(TPM)を行う三角形分割予測部172aを有する(図2参照)。三角形分割予測部172aは、符号化対象ブロックを対角線で分割した領域のそれぞれに動きべクトルを割り当て、動き補償予測を行うものである。インター予測部172は、予測対象ブロックに三角形分割予測を適用する場合、この予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に三角形分割予測適用フラグを伝送する。三角形分割予測部172aの詳細については後述する。
In this embodiment, the
切替部173は、インター予測部172が出力するインター予測ブロックとイントラ予測部171が出力するイントラ予測ブロックとを切り替えて、いずれかの予測ブロックを減算部110及び合成部150に出力する。
The
次に、本実施形態に係る三角形分割予測部172aについて説明する。図2は、本実施形態に係る三角形分割予測部172aの構成を示す図である。
Next, we will explain the triangular
図2に示すように、三角形分割予測部172aは、分割部1721と、生成部1722と、算出部1723と、決定部1724と、合成部1725とを有する。
As shown in FIG. 2, the
分割部1721は、予測対象ブロックを対角線で分割し、2つの三角形領域を生成部1722に出力する。三角形領域は、予測対象ブロックを直線により分割した予測領域の一例である。分割方法には、図3(a)に示す方法と図3(b)に示す方法との2種類がある。図3(a)に示す方法では、分割部1721は、符号化対象ブロックの左上の頂天位置及び右下の頂天位置を通る分割線で分割する。図3(b)に示す方法では、分割部1721は、符号化対象ブロックの右上の頂天位置及び左下の頂天位置を通る分割線で分割する。分割部1721は、分割の方向が図3(a)に示す対角線方向及び図3(b)に示す対角線方向のいずれであるかを示す分割方向フラグをエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に分割方向フラグを伝送する。
The
生成部1722は、2つの三角形領域のそれぞれについて動きベクトルを用いて領域予測画像を生成し、2つの領域予測画像を算出部1723及び合成部1725に出力する。具体的には、生成部1722は、予測対象ブロックを分割した各領域に動きべクトルを割り当て、割り当てた動きべクトルを用いて各領域の予測画像を生成する。ここで、生成部1722は、動きベクトルの参照元とする複数の候補を優先度順に並べて、上位一定数の動きベクトルの中から三角形領域ごとに1つの動きベクトルを選択する。生成部1722は、選択した動きベクトルを示す動きベクトル情報をエントロピー符号化部130に出力し、エントロピー符号化部130から復号側に動きベクトル情報を伝送する。
The
算出部1723は、生成部1722が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部1724に出力する。例えば、算出部1723は、図4(a)に示すように、領域予測画像1における領域予測画像2との境界領域R1と、領域予測画像2における領域予測画像1との境界領域R2との類似度を示す類似度情報を算出する。類似度情報は、類似度を示す情報であればどのような情報であってもよいが、例えば、差の絶対値の総和(SAD:Sum of Abusolute Difference)を類似度情報として用いることができる。
The
算出部1723は、境界領域R1内の画素値(複数)と、対応する境界領域R2内の画素値(複数)との間のSADを類似度情報として算出してもよい。SADが小さいほど類似度が高いことを示し、SADが大きいほど類似度が低いことを示す。
The
類似度情報を算出することは、2つの領域予測画像に対応する2つの参照画像間の類似度を算出することであってもよい。参照画像間の類似度は、一方の参照画像内の画素値(複数)と、対応する他方の参照画像内の画素値(複数)との間のSADとして算出されてもよい。 Calculating the similarity information may be calculating the similarity between two reference images corresponding to the two region prediction images. The similarity between the reference images may be calculated as the SAD between pixel values (multiple) in one reference image and corresponding pixel values (multiple) in the other reference image.
決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部1725に出力する。例えば、複数の方式は、2つの領域予測画像間の境界領域を、画素位置ごとの重み係数を用いた重み付け合成により混合する第1方式(以下、「Blending方式」と呼ぶ)を含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式を用いるか否かを決定する。Blending方式によれば、領域ごとの動き予測補償による不連続性を抑制できる。
The
本実施形態において、複数の方式は、境界領域を重み付け合成により混合しない第2方式(以下、「Non-blending方式」と呼ぶ)をさらに含む。決定部1724は、算出部1723が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。Non-blending方式によれば、フラットな領域及びエッジが多く含まれているシーケンスについて、Blending方式によるエッジのぼやけを回避できる。
In this embodiment, the multiple methods further include a second method (hereinafter referred to as the "non-blending method") that does not mix boundary regions by weighted synthesis. The
このようなBlending方式及びNon-blending方式の切り替えを可能とする場合、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送する必要があり得る。しかしながら、画像における背景領域(例えば、空などの滑らかな領域)では、Blending方式であってもNon-blending方式であっても生成される予測画像の特徴は変わることはなく、どちらの方式を選択しても符号化効率に影響は生じない。 When it is possible to switch between such blending and non-blending methods, it may be necessary to transmit a flag indicating whether the blending or non-blending method is to be applied to the decoding side. However, in background areas of an image (e.g., smooth areas such as the sky), the characteristics of the predicted image generated will not change whether the blending method or the non-blending method is used, and the coding efficiency will not be affected regardless of which method is selected.
本実施形態では、決定部1724は、算出部1723が算出した類似度情報に基づいてBlending方式及びNon-blending方式のいずれかを決定する。このような類似度情報は復号側でも算出可能な情報であるため、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、このようなフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。
In this embodiment, the
例えば、決定部1724は、図4(b)及び(c)に示すように、算出部1723が算出した類似度情報に基づいて、類似度情報が示す類似度が閾値よりも低い場合はBlending方式を決定し、類似度情報が示す類似度が閾値よりも高い場合はNon-blending方式を決定する。この閾値は、予め定められた固定値であってもよいし、符号化側から復号側に伝送する可変値であってもよい。
For example, as shown in Figures 4(b) and (c), based on the similarity information calculated by the
合成部1725は、決定部1724が決定した合成方式を用いて、生成部1722が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部1725は、決定部1724がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部1724がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。
The
図5は、2つの領域予測画像P1及びP2を合成する動作を示す図である。図5(a)に示すように、合成部1725は、2つの領域予測画像P1及びP2をBlending方式で合成する場合、予測対象ブロックのブロックサイズ及びブロック形状に応じた重み係数マップ(Weight map)を用いて2つの領域予測画像P1及びP2を加重平均により合成する。これにより、図4(a)に示す境界領域R1及びR2が連続的になるよう調整される。一方、図5(b)に示すように、合成部1725は、2つの領域予測画像P1及びP2をNon-blending方式で合成する場合、2つの領域予測画像P1及びP2を加重平均せずに合成する。
FIG. 5 is a diagram showing the operation of synthesizing two area prediction images P 1 and P 2. As shown in FIG. 5(a), when the
<復号装置の構成>
次に、本実施形態に係る復号装置の構成について、上述した符号化装置の構成との相違点を主として説明する。図6は、本実施形態に係る復号装置2の構成を示す図である。復号装置2は、符号化ストリームから復号対象ブロックを復号する装置である。
<Configuration of Decoding Device>
Next, the configuration of a decoding device according to this embodiment will be described, focusing mainly on the differences from the configuration of the encoding device described above. Fig. 6 is a diagram showing the configuration of a
図6に示すように、復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。
As shown in FIG. 6, the
エントロピー復号部200は、符号化装置1により生成された符号化ストリームを復号し、量子化された変換係数を取得し、取得した変換係数を逆量子化・逆変換部210(逆量子化部211)に出力する。また、エントロピー復号部200は、各種のシグナリング情報を取得する。例えば、エントロピー復号部200は、復号対象ブロックに適用する予測処理に関する情報を取得し、取得した情報を予測部240に出力する。
The
逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。
The inverse quantization and
逆量子化部211は、符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200が出力する量子化変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復
号対象ブロックの変換係数を復元し、復元した変換係数を逆変換部212に出力する。
The
逆変換部212は、符号化装置1の変換部121が行う変換処理に対応する逆変換処理を行う。逆変換部212は、逆量子化部211が出力する変換係数に対して逆変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。
The
合成部220は、逆変換部212が出力する予測残差と、予測部240が出力する予測ブロックとを画素単位で合成することにより、復号対象ブロックを復元(復号)し、復元ブロックをメモリ230に出力する。
The synthesis unit 220 reconstructs (decodes) the block to be decoded by synthesizing the prediction residual output by the
メモリ230は、合成部220が出力する復元ブロックをフレーム単位で復号画像として記憶する。メモリ230は、フレーム単位の復号画像を復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが介在してもよい。
The
予測部240は、ブロック単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを有する。
The
イントラ予測部241は、メモリ230に記憶された復号画像のうち復号対象ブロックに隣接する参照画素を参照し、エントロピー復号部200が出力する情報に基づいて、復号対象ブロックをイントラ予測により予測する。そして、イントラ予測部241は、イントラ予測ブロックを生成し、生成したイントラ予測ブロックを切替部243に出力する。
The
インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象ブロックをインター予測により予測する。インター予測部242は、エントロピー復号部200が出力する動きベクトル情報を用いてインター予測を行うことによりインター予測ブロックを生成し、生成したインター予測ブロックを切替部243に出力する。
The
本実施形態において、インター予測部242は、三角形分割予測(TPM)を行う三角形分割予測部242aを有する(図7参照)。インター予測部242は、予測対象ブロックに三角形分割予測を適用することを示す三角形分割予測適用フラグをエントロピー復号部200が取得した場合、予測対象ブロックに三角形分割予測を適用する。三角形分割予測部242aの詳細については後述する。
In this embodiment, the
切替部243は、イントラ予測部241が出力するイントラ予測ブロックとインター予測部242が出力するインター予測ブロックとを切り替えて、いずれかの予測ブロックを合成部220に出力する。
The
次に、本実施形態に係る三角形分割予測部242aについて説明する。図7は、本実施形態に係る三角形分割予測部242aの構成を示す図である。
Next, the triangular
図7に示すように、三角形分割予測部242aは、分割部2421と、生成部2422と、算出部2423と、決定部2424と、合成部2425とを有する。
As shown in FIG. 7, the
分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。
The
生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。
The
算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。類似度情報の算出方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則(アルゴリズム)を用いて類似度情報を算出する。
The
決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式を複数の方式の中から決定し、決定した合成方式を示す情報を合成部2425に出力する。本実施形態において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。合成方式の決定方法は符号化側と同じ方法であり、符号化側及び復号側で共通の規則を用いて合成方式を決定する。すなわち、決定部2424は、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを基づくことなく、類似度情報に基づいて合成方式を決定する。
The
合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。本実施形態では、合成部2425は、決定部2424がBlending方式を決定した場合は2つの領域予測画像をBlending方式で合成し、決定部2424がNon-blending方式を決定した場合は2つの領域予測画像をNon-blending方式で合成する。
The
<三角形分割予測部の動作>
次に、本実施形態に係る三角形分割予測部172a及び242aの動作について説明する。三角形分割予測部172a及び242aは同様な動作を行うため、ここでは三角形分割予測部242aを例に挙げて説明する。図8は、本実施形態に係る三角形分割予測部242aの動作フローを示す図である。
<Operation of Triangulation Prediction Unit>
Next, the operation of the triangular
図8に示すように、ステップS1において、分割部2421は、エントロピー復号部200が取得した分割方向フラグに基づいて予測対象ブロックを対角線で分割し、2つの三角形領域を生成部2422に出力する。
As shown in FIG. 8, in step S1, the
ステップS2において、生成部2422は、エントロピー復号部200が取得した動きベクトル情報に基づいて2つの三角形領域のそれぞれについて領域予測画像を生成し、2つの領域予測画像を算出部2423及び合成部2425に出力する。
In step S2, the
ステップS3において、算出部2423は、生成部2422が生成した2つの領域予測画像間の類似度を示す類似度情報を算出し、算出した類似度情報を決定部2424に出力する。
In step S3, the
ステップS4において、決定部2424は、算出部2423が算出した類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する。
In step S4, the
ステップS5において、合成部2425は、決定部2424が決定した合成方式を用いて、生成部2422が出力する2つの領域予測画像を合成し、予測対象ブロックに対応する予測ブロックを出力する。
In step S5, the
このように、本実施形態によれば、Blending方式及びNon-blending方式のいずれを適用するかを示すフラグを復号側に伝送しなくても、符号化側及び復号側で共通の方式を暗黙的に決定できる。これにより、複数の合成方式を三角形分割予測に導入する場合であっても、合成方式を示すフラグの復号側への伝送(シグナリング)を不要とし、シグナリングするフラグ量の増加を抑制できる。 In this way, according to this embodiment, a common method can be implicitly determined on the encoding side and the decoding side without transmitting a flag indicating whether the blending method or the non-blending method is to be applied to the decoding side. This makes it unnecessary to transmit (signal) a flag indicating the blending method to the decoding side even when multiple blending methods are introduced into the triangulation prediction, and can suppress an increase in the amount of flags to be signaled.
<その他の実施形態>
上述した実施形態において、類似度情報に基づいて、2つの領域予測画像の合成に用いる合成方式としてBlending方式及びNon-blending方式のいずれを用いるかを決定する一例について説明した。しかしながら、複数のBlending方式を導入する場合、類似度情報に基づいて複数のBlending方式のいずれを用いるかを決定してもよい。
<Other embodiments>
In the above-mentioned embodiment, an example is described in which the blending method or the non-blending method is determined as the synthesis method used for synthesizing two area prediction images based on similarity information.However, when introducing a plurality of blending methods, it is also possible to determine which of the plurality of blending methods is used based on similarity information.
複数のBlending方式は、境界領域を混合するパラメータが互いに異なっていてもよい。ここで、パラメータは、境界領域の範囲及び重み係数のセットのうち少なくとも1つであってもよい。例えば、Blending処理を適用する境界領域の範囲が第1範囲(狭範囲)であり、重み係数の第1セットを用いる第1Blending方式と、Blending処理を適用する境界領域の範囲が第2範囲(広範囲)であり、重み係数の第2セットを用いる第2Blending方式とを導入する。ここで、第2セットを構成する重み係数は、第1セットに比べて多い。 The multiple blending methods may have different parameters for blending the boundary regions. Here, the parameters may be at least one of the range of the boundary region and the set of weighting coefficients. For example, a first blending method is introduced in which the range of the boundary region to which the blending process is applied is a first range (narrow range) and a first set of weighting coefficients is used, and a second blending method is introduced in which the range of the boundary region to which the blending process is applied is a second range (wide range) and a second set of weighting coefficients is used. Here, the weighting coefficients constituting the second set are greater than those of the first set.
このような前提下において、決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が閾値よりも高い場合は第1Blending方式を決定する。
Under such a premise, the
或いは、第1閾値と、この第1閾値よりも大きい第2閾値とを導入してもよい。決定部1724及び2424は、算出部1723及び2423が算出した類似度情報が示す類似度が第2閾値よりも高い場合はNon-blending方式を決定し、この類似度情報が示す類似度が第1閾値よりも低い場合は第2Blending方式を決定し、この類似度情報が示す類似度が第1閾値乃至第2閾値の範囲内にある場合は第1Blending方式を決定する。
Alternatively, a first threshold and a second threshold greater than the first threshold may be introduced. The
上述した実施形態において、予測対象ブロックを対角線により分割して2つの三角形領域を出力する一例について説明したが、直線で分割された分割形状であればよく、分割形状は三角形には限らない。また、予測対象ブロックの分割数を3つ以上とすることもできる。その場合には、3つ以上の予測領域における各領域のペアについての境界付近の類似度をそれぞれ算出し、それらの情報に基づいて当該領域のペアの合成に用いる重み係数を決定することになる。 In the above embodiment, an example was described in which the prediction target block was divided by a diagonal line to output two triangular regions, but the division shape is not limited to triangles and can be any shape divided by straight lines. The prediction target block can also be divided into three or more regions. In that case, the similarity near the boundary for each pair of regions in three or more prediction regions is calculated, and a weighting coefficient to be used for combining the pairs of regions is determined based on that information.
なお、符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
A program may be provided that causes a computer to execute each process performed by the
符号化装置1が行う各処理を実行する回路を集積化し、符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。復号装置2が行う各処理を実行する回路を集積化し、復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。
The circuits that execute the processes performed by the
以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 The above describes the embodiment in detail with reference to the drawings, but the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the invention.
1 :符号化装置
2 :復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
172a :三角形分割予測部
173 :切替部
200 :エントロピー復号部
210 :逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
242a :三角形分割予測部
243 :切替部
1721 :分割部
1722 :生成部
1723 :算出部
1724 :決定部
1725 :合成部
2421 :分割部
2422 :生成部
2423 :算出部
2424 :決定部
2425 :合成部
1: Encoding device 2: Decoding device 100: Block division unit 110: Subtraction unit 120: Transformation and quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization and inverse transform unit 141: Inverse quantization unit 142: Inverse transform unit 150: Synthesis unit 160: Memory 170: Prediction unit 171: Intra prediction unit 172:
Claims (4)
予測対象ブロックを直線により分割して複数の予測領域を出力する分割部と、
前記複数の予測領域に対応する複数の領域予測画像を生成する生成部と、
前記複数の領域予測画像の合成に用いる合成方式を複数の方式の中から決定する決定部と、
前記決定部が決定した前記合成方式を用いて前記複数の領域予測画像を合成し、前記予測対象ブロックに対応する予測ブロックを出力する合成部と、を備える
予測装置。 A prediction device that performs prediction on a block basis by dividing an image,
a division unit that divides a block to be predicted by straight lines and outputs a plurality of prediction regions;
a generation unit that generates a plurality of regional predicted images corresponding to the plurality of prediction regions;
a determining unit that determines a synthesis method to be used for synthesizing the plurality of regional predicted images from among a plurality of methods;
a synthesis unit that synthesizes the plurality of regional predicted images using the synthesis method determined by the determination unit, and outputs a predicted block corresponding to the block to be predicted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024045101A JP2024069638A (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020020955A JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
JP2024045101A JP2024069638A (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020020955A Division JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024069638A true JP2024069638A (en) | 2024-05-21 |
Family
ID=77489031
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020020955A Active JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
JP2024045101A Pending JP2024069638A (en) | 2020-02-10 | 2024-03-21 | Prediction device, encoding device, decoding device, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020020955A Active JP7460384B2 (en) | 2020-02-10 | 2020-02-10 | Prediction device, encoding device, decoding device, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7460384B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024058006A (en) * | 2022-10-13 | 2024-04-25 | Kddi株式会社 | Image decoding device, image decoding method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011501508A (en) | 2007-10-12 | 2011-01-06 | トムソン ライセンシング | Method and apparatus for video encoding and decoding of geometrically partitioned bi-predictive mode partition |
-
2020
- 2020-02-10 JP JP2020020955A patent/JP7460384B2/en active Active
-
2024
- 2024-03-21 JP JP2024045101A patent/JP2024069638A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021129148A (en) | 2021-09-02 |
JP7460384B2 (en) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11876979B2 (en) | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device | |
KR102148466B1 (en) | Methods of decoding using skip mode and apparatuses for using the same | |
EP1571850A2 (en) | Apparatus and method for encoding and decoding image containing grayscale alpha channel image | |
US11695955B2 (en) | Image encoding device, image decoding device and program | |
JP2024069638A (en) | Prediction device, encoding device, decoding device, and program | |
US20210014489A1 (en) | Intra prediction device, image encoding device, image decoding device and program | |
CN114450950B (en) | Encoding device, decoding device, and storage medium | |
JP2024024080A (en) | Image encoder, image encoding method, image decoder, and image decoding method | |
CN114830646A (en) | Image encoding method and image decoding method | |
JP2023138826A (en) | Intra prediction device, image coding device, image decoding device, and program | |
WO2022130663A1 (en) | Decoding device, program, and decoding method | |
US11812015B2 (en) | Image encoding device, image decoding device and program | |
KR102585485B1 (en) | Image encoding device, image decoding device, and program | |
JP7228980B2 (en) | Predictive image correction device, image coding device, image decoding device, and program | |
CN114830642A (en) | Image encoding method and image decoding method | |
KR20230098729A (en) | Encoding device, decoding device, and program | |
CN114830647A (en) | Image encoding method and image decoding method | |
JP7483725B2 (en) | Encoding device, decoding device, and program | |
JP7474772B2 (en) | Encoding device, decoding device, and program | |
JP7449690B2 (en) | Inter prediction device, image encoding device, image decoding device, and program | |
WO2024088058A1 (en) | Method and apparatus of regression-based intra prediction in video coding system | |
WO2021251398A1 (en) | Deblocking filter device, decoding device, and program | |
JP2024087085A (en) | Encoding device, decoding device, and program | |
CN114830650A (en) | Image encoding method and image decoding method | |
CN114788270A (en) | Image encoding method and image decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240321 |