JP2020109959A - Inter-prediction device, image coding device, image decoding device, and program - Google Patents

Inter-prediction device, image coding device, image decoding device, and program Download PDF

Info

Publication number
JP2020109959A
JP2020109959A JP2019233775A JP2019233775A JP2020109959A JP 2020109959 A JP2020109959 A JP 2020109959A JP 2019233775 A JP2019233775 A JP 2019233775A JP 2019233775 A JP2019233775 A JP 2019233775A JP 2020109959 A JP2020109959 A JP 2020109959A
Authority
JP
Japan
Prior art keywords
motion vector
unit
image
inter prediction
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019233775A
Other languages
Japanese (ja)
Other versions
JP7449690B2 (en
Inventor
俊輔 岩村
Shunsuke Iwamura
俊輔 岩村
市ヶ谷 敦郎
Atsuro Ichigaya
敦郎 市ヶ谷
慎平 根本
Shimpei Nemoto
慎平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Publication of JP2020109959A publication Critical patent/JP2020109959A/en
Priority to JP2024032367A priority Critical patent/JP2024051178A/en
Application granted granted Critical
Publication of JP7449690B2 publication Critical patent/JP7449690B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an inter-prediction device, an image coding device, an image decoding device, and a program that improve coding efficiency when performing inter-prediction.SOLUTION: An inter-prediction device (inter-prediction unit) includes an adjacent vector acquisition unit that acquires one or more first motion vectors applied to an adjacent decoded block group adjacent to an encoding target block obtained by dividing an original image, a motion vector correction unit that generates a corrected motion vector by correcting a second motion vector applied to the encoding target block using a first motion vector, and a prediction image generation unit that generates a prediction image of the encoding target block by performing inter prediction using the corrected motion vector.SELECTED DRAWING: Figure 3

Description

本発明は、インター予測装置、画像符号化装置、画像復号装置、及びプログラムに関する。 The present invention relates to an inter prediction device, an image encoding device, an image decoding device, and a program.

非特許文献1に記載のHEVCに代表される従来の映像符号化方式では、画像符号化装置は、原画像をブロックに分割し、ブロックごとにインター予測とイントラ予測とを切り替えながら予測を行い、予測により得られた予測画像の誤差を表す予測残差に対し直交変換、量子化、エントロピー符号化を施すことにより、ストリーム出力するように構成されている。 In the conventional video coding method represented by HEVC described in Non-Patent Document 1, an image coding apparatus divides an original image into blocks, performs prediction while switching between inter prediction and intra prediction for each block, It is configured to output a stream by performing orthogonal transformation, quantization, and entropy coding on a prediction residual representing an error of a predicted image obtained by prediction.

かかる映像符号化方式におけるインター予測では、符号化対象のブロック(Coding Unit:CU)に適用する動きベクトルが、当該符号化対象CUに隣接する隣接CUに適用する動きベクトルと異なる場合には、符号化対象CUの予測画像及び隣接CUの予測画像は特徴が大きく異なる。 In inter prediction in such a video encoding method, when a motion vector applied to a block to be coded (Coding Unit: CU) is different from a motion vector applied to an adjacent CU adjacent to the target CU to be coded, The features of the prediction image of the target CU and the prediction image of the adjacent CU are significantly different.

図1に示す従来の映像符号化方式の例では、オブジェクト#1は左上に動いており、オブジェクト#2は右上に動いているものとする。オブジェクト#1のみが含まれる符号化対象CUの左側に位置する隣接CU#1に対するインター予測では、オブジェクト#1の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。符号化対象CUは、オブジェクト#1及びオブジェクト#2の両方を含むオブジェクト境界に位置するが、多くの領域をオブジェクト#1が占めることから、左側に隣接する隣接CU#1の動きベクトル(MV#2)と同様の動きベクトル(MV#1)が符号化対象CUに適用される可能性が高い。 In the example of the conventional video encoding method shown in FIG. 1, it is assumed that the object #1 is moving to the upper left and the object #2 is moving to the upper right. It is highly possible that the same motion vector (MV#3) as the motion of the object #1 is applied in the inter prediction for the adjacent CU#1 located on the left side of the encoding target CU that includes only the object #1. The encoding target CU is located at the object boundary including both the object #1 and the object #2, but since the object #1 occupies a large area, the motion vector (MV# of the adjacent CU#1 adjacent on the left side is It is highly possible that the same motion vector (MV#1) as 2) is applied to the coding target CU.

隣り合うCU同士の動きベクトルが同様である場合には、CUの境界領域の動きの連続性は高く、予測精度は高くなる可能性が高い。一方、図1の符号化対象CUの上側に隣接するCU#2はオブジェクト#2を多く含むことから、オブジェクト#2の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。すなわち、符号化対象CUに適用する動きベクトル(MV#1)と隣接CU#1に適用する動きベクトル(MV#3)とは大きく異なる可能性が高い。このような隣り合うCU同士の動きベクトルが大きく異なる場合には、これらのCUのどちらか少なくとも一方にオブジェクト境界が含まれる可能性が高い。 When the motion vectors of adjacent CUs are the same, the continuity of the motion of the boundary region of the CUs is high and the prediction accuracy is likely to be high. On the other hand, since the CU #2 adjacent to the upper side of the CU to be encoded in FIG. 1 includes many objects #2, there is a high possibility that a motion vector (MV#3) similar to the motion of the object #2 is applied. .. That is, there is a high possibility that the motion vector (MV#1) applied to the encoding target CU and the motion vector (MV#3) applied to the adjacent CU#1 are significantly different. When the motion vectors of such adjacent CUs greatly differ from each other, it is highly possible that at least one of these CUs includes an object boundary.

Recommendation ITU−T H.265,(12/2016), "High efficiency video coding", International Telecommunication UnionRecommendation ITU-TH. 265, (12/2016), "High efficiency video coding", International Telecommunication Union

オブジェクト境界における動きベクトルの不連続性は予測精度の低下を招き、符号化効率が低下してしまう問題がある。HEVCでは、この問題を解決するため、ループフィルタにおいて、符号化対象CUに適用した動きベクトルと隣接ブロックに適用した動きベクトルとの差が予め規定した値より大きいか否かに応じて、ブロック歪を除去するデブロッキングフィルタを適用するか否かを制御する手法が導入されている。 The discontinuity of the motion vector at the object boundary causes a decrease in prediction accuracy, which causes a problem of a decrease in coding efficiency. In HEVC, in order to solve this problem, in a loop filter, block distortion is determined according to whether a difference between a motion vector applied to a coding target CU and a motion vector applied to an adjacent block is larger than a predetermined value. A method of controlling whether or not to apply a deblocking filter that removes is introduced.

しかしながら、予測(インター予測)においては、上記の動きベクトルの不連続性にかかわらず同一の処理が適用されているため、直交変換係数の伝送に必要な情報量がオブジェクト境界付近のブロックで増大し、符号化効率が低下してしまう問題がある。 However, in prediction (inter prediction), the same processing is applied regardless of the above discontinuity of motion vectors, so the amount of information required to transmit orthogonal transform coefficients increases in blocks near the object boundary. However, there is a problem that the coding efficiency is reduced.

そこで、本発明は、インター予測を行う場合において符号化効率を向上させることが可能なインター予測装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide an inter prediction device, an image coding device, an image decoding device, and a program capable of improving coding efficiency when performing inter prediction.

第1の態様に係るインター予測装置は、原画像を分割して得た符号化対象ブロックのインター予測を行う。前記インター予測装置は、前記符号化対象ブロックに隣接する隣接復号済みブロック群に適用した1つ以上の第1動きベクトルを取得する隣接ベクトル取得部と、前記符号化対象ブロックに適用する第2動きベクトルを、前記第1動きベクトルを用いて補正することにより補正動きベクトルを生成する動きベクトル補正部と、前記補正動きベクトルを用いて前記インター予測を行うことにより、前記符号化対象ブロックの予測画像を生成する予測画像生成部とを備える。 The inter prediction apparatus according to the first aspect performs inter prediction of an encoding target block obtained by dividing an original image. The inter prediction device includes an adjacent vector acquisition unit that acquires at least one first motion vector applied to an adjacent decoded block group that is adjacent to the current block, and a second motion that is applied to the current block. A motion vector correction unit that generates a corrected motion vector by correcting the vector using the first motion vector, and a predicted image of the encoding target block by performing the inter prediction using the corrected motion vector And a predicted image generation unit that generates

第2の態様に係る画像符号化装置は、第1の態様に係るインター予測装置を備えることを要旨とする。 The gist of the image coding apparatus according to the second aspect is to include the inter prediction apparatus according to the first aspect.

第3の態様に係る画像復号装置は、第1の態様に係るインター予測装置を備えることを要旨とする。 The gist of the image decoding apparatus according to the third aspect is to include the inter prediction apparatus according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係るインター予測装置として機能させることを要旨とする。 The gist of the program according to the fourth aspect is to cause a computer to function as the inter prediction apparatus according to the first aspect.

本発明によれば、インター予測を行う場合において符号化効率を向上させることが可能なインター予測装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。 According to the present invention, it is possible to provide an inter prediction device, an image coding device, an image decoding device, and a program capable of improving coding efficiency when performing inter prediction.

背景技術を説明するための図である。It is a figure for explaining background art. 第1及び第2実施形態に係る画像符号化装置の構成を示す図である。It is a figure which shows the structure of the image coding apparatus which concerns on 1st and 2nd embodiment. 第1実施形態に係るインター予測部(インター予測装置)の構成を示す図である。It is a figure which shows the structure of the inter prediction part (inter prediction apparatus) which concerns on 1st Embodiment. 第1及び第2実施形態に係る隣接ベクトル取得部の動作例を示す図である。It is a figure which shows the operation example of the adjacent vector acquisition part which concerns on 1st and 2nd embodiment. 第1実施形態に係る動きベクトル補正部の動作例を示す図である。It is a figure which shows the operation example of the motion vector correction part which concerns on 1st Embodiment. 第1及び第2実施形態に係る画像復号装置の構成を示す図である。It is a figure which shows the structure of the image decoding apparatus which concerns on 1st and 2nd embodiment. 第1実施形態に係るインター予測部の動作を示す図である。It is a figure which shows operation|movement of the inter estimation part which concerns on 1st Embodiment. 第1実施形態に係るインター予測部の変更例を示す図である。It is a figure which shows the example of a change of the inter prediction part which concerns on 1st Embodiment. 第2実施形態に係るインター予測部(インター予測装置)の構成を示す図である。It is a figure which shows the structure of the inter prediction part (inter prediction apparatus) which concerns on 2nd Embodiment. 第2実施形態に係る小領域の一例を示す図である。It is a figure which shows an example of the small area|region which concerns on 2nd Embodiment. 第2実施形態に係る動きベクトル補正部の動作例を示す図である。It is a figure which shows the operation example of the motion vector correction part which concerns on 2nd Embodiment. 第2実施形態に係るインター予測部の動作を示す図である。It is a figure which shows operation|movement of the inter estimation part which concerns on 2nd Embodiment. 第2実施形態に係る動きベクトル補正部の変更例を示す図である。It is a figure which shows the example of a change of the motion vector correction part which concerns on 2nd Embodiment. 第2実施形態に係る動きベクトル補正部の変更例の動作を示す図である。It is a figure which shows operation|movement of the example of a change of the motion vector correction part which concerns on 2nd Embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An image encoding device and an image decoding device according to an embodiment will be described with reference to the drawings. The image encoding device and the image decoding device according to the embodiment respectively perform encoding and decoding of a moving image represented by MPEG. In the following description of the drawings, the same or similar reference numerals are given to the same or similar parts.

<1.第1実施形態>
<画像符号化装置>
まず、本実施形態に係る画像符号化装置について説明する。図2は、本実施形態に係る画像符号化装置1の構成を示す図である。
<1. First Embodiment>
<Image coding device>
First, the image coding apparatus according to this embodiment will be described. FIG. 2 is a diagram showing the configuration of the image encoding device 1 according to the present embodiment.

図2に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。 As shown in FIG. 2, the image encoding device 1 includes a block dividing unit 100, a subtracting unit 110, a transforming/quantizing unit 120, an entropy encoding unit 130, an inverse quantizing/inverse transforming unit 140, It has a combining unit 150, a memory 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数のブロックに分割し、分割により得たブロックを減算部110に出力する。ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。ブロックの形状は正方形に限らず、長方形であってもよい。ブロックは、画像符号化装置1が符号化を行う単位及び画像復号装置が復号を行う単位である。以下において、かかるブロックをCU(Coding Unit)と呼ぶ。また、画像符号化装置1が処理するCUを符号化対象CUと呼び、画像復号装置が処理するCUを復号対象CUと呼ぶ。 The block division unit 100 divides an input image in units of frames (or pictures) forming a moving image into a plurality of blocks, and outputs the blocks obtained by the division to the subtraction unit 110. The block size is, for example, 32×32 pixels, 16×16 pixels, 8×8 pixels, or 4×4 pixels. The shape of the block is not limited to a square and may be a rectangle. The block is a unit in which the image encoding device 1 performs encoding and a unit in which the image decoding device performs decoding. Hereinafter, such a block will be referred to as a CU (Coding Unit). Further, a CU processed by the image encoding device 1 is referred to as an encoding target CU, and a CU processed by the image decoding device is referred to as a decoding target CU.

減算部110は、ブロック分割部100から入力された符号化対象CUと、符号化対象CUを予測部170が予測して得た予測画像との差分(誤差)を表す予測残差を算出する。具体的には、減算部110は、CUの各画素値から予測画像の各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual that represents a difference (error) between the encoding target CU input from the block dividing unit 100 and the prediction image obtained by predicting the encoding target CU by the prediction unit 170. Specifically, the subtraction unit 110 calculates the prediction residual by subtracting each pixel value of the prediction image from each pixel value of the CU, and outputs the calculated prediction residual to the conversion/quantization unit 120.

変換・量子化部120は、CU単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。 The transform/quantization unit 120 performs orthogonal transform processing and quantization processing in CU units. The conversion/quantization unit 120 includes a conversion unit 121 and a quantization unit 122.

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen-Loeve Transform)等をいう。 The transform unit 121 performs an orthogonal transform process on the prediction residual input from the subtraction unit 110 to calculate an orthogonal transform coefficient, and outputs the calculated orthogonal transform coefficient to the quantization unit 122. The orthogonal transform refers to, for example, a discrete cosine transform (DCT), a discrete sine transform (DST), a Karhunen-leeve transform (KLT), or the like.

量子化部122は、変換部121から入力された直交変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、CU内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the orthogonal transformation coefficient input from the transformation unit 121 using a quantization parameter (Qp) and a quantization matrix, and the quantized orthogonal transformation coefficient is entropy coding unit 130 and inverse quantization/quantization unit. It outputs to the inverse conversion unit 140. The quantization parameter (Qp) is a parameter commonly applied to each orthogonal transform coefficient in the CU, and is a parameter that determines the roughness of quantization. The quantization matrix is a matrix having as elements the quantized values when quantizing each orthogonal transform coefficient.

エントロピー符号化部130は、量子化部122から入力された直交変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context−based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関する制御情報が入力され、入力された制御情報のエントロピー符号化も行う。 The entropy coding unit 130 performs entropy coding on the orthogonal transform coefficient input from the quantization unit 122, performs data compression to generate a coded stream (bit stream), and encodes the coded stream into an image. Output to the outside of the device 1. Huffman coding, CABAC (Context-based Adaptive Binary Mathematical Coding; context adaptive binary arithmetic coding), or the like can be used for entropy coding. In addition, the entropy coding unit 130 receives the control information regarding the prediction from the prediction unit 170, and also performs the entropy coding of the input control information.

逆量子化・逆変換部140は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。 The inverse quantization/inverse transform unit 140 performs an inverse quantization process and an inverse orthogonal transform process in CU units. The inverse quantization/inverse transform unit 140 has an inverse quantization unit 141 and an inverse transform unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から入力された直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を復元し、復元した直交変換係数を逆変換部142に出力する。 The inverse quantization unit 141 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122. Specifically, the dequantization unit 141 dequantizes the orthogonal transformation coefficient input from the quantization unit 122 using the quantization parameter (Qp) and the quantization matrix to restore the orthogonal transformation coefficient. , And outputs the restored orthogonal transform coefficient to the inverse transform unit 142.

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121. For example, when the transform unit 121 performs the discrete cosine transform, the inverse transform unit 142 performs the inverse discrete cosine transform. The inverse transform unit 142 restores the prediction residual by performing the inverse orthogonal transform processing on the orthogonal transform coefficient input from the inverse quantization unit 141, and synthesizes the restored prediction residual that is the restored prediction residual. Output to.

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予測画像の各画素値を加算して符号化対象CUを再構成(復号)し、復号したCU単位の復号画像をメモリ160に出力する。かかる復号画像は、再構成画像と称されることがある。 The combining unit 150 combines the restored prediction residual input from the inverse transform unit 142 with the predicted image input from the prediction unit 170 on a pixel-by-pixel basis. The synthesizing unit 150 reconstructs (decodes) the coding target CU by adding each pixel value of the restored prediction residual and each pixel value of the predicted image, and outputs the decoded image of the decoded CU unit to the memory 160. Such a decoded image may be referred to as a reconstructed image.

メモリ160は、合成部150から入力された復号画像を記憶する。メモリ160は、復号画像をフレーム単位で記憶する。メモリ160は、記憶している復号画像を予測部170に出力する。さらに、メモリ160は、インター予測部172において算出された動きベクトルをCUごとに記憶する。なお、メモリ160は、複数のメモリにより構成されてもよい。また、合成部150とメモリ160との間にループフィルタが設けられてもよい。 The memory 160 stores the decoded image input from the combining unit 150. The memory 160 stores the decoded image in frame units. The memory 160 outputs the stored decoded image to the prediction unit 170. Further, the memory 160 stores the motion vector calculated by the inter prediction unit 172 for each CU. The memory 160 may be composed of a plurality of memories. Further, a loop filter may be provided between the synthesis unit 150 and the memory 160.

予測部170は、CU単位で予測を行う。予測部170は、イントラ予測部171と、インター予測部172と、切替部173とを有する。 The prediction unit 170 performs prediction in CU units. The prediction unit 170 includes an intra prediction unit 171, an inter prediction unit 172, and a switching unit 173.

イントラ予測部171は、メモリ160に記憶された復号画像のうち、符号化対象CUの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予測画像を切替部173に出力する。イントラ予測部171は、複数のイントラ予測モードの中から、符号化対象CUに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いてイントラ予測を行う。イントラ予測部171は、選択したイントラ予測モードに関する制御情報をエントロピー符号化部130に出力する。 The intra prediction unit 171 generates an intra prediction image by referring to the decoded pixel value around the encoding target CU among the decoded images stored in the memory 160, and outputs the generated intra prediction image to the switching unit 173. To do. The intra prediction unit 171 selects the optimum intra prediction mode to be applied to the coding target CU from the plurality of intra prediction modes, and performs intra prediction using the selected intra prediction mode. The intra prediction unit 171 outputs control information regarding the selected intra prediction mode to the entropy coding unit 130.

インター予測部172は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、符号化対象CUを予測してインター予測画像を生成し、生成したインター予測画像を切替部173に出力する。また、インター予測部172は、CUごとに算出した動きベクトルをメモリ160に出力し、当該動きベクトルをメモリ160に記憶させる。 The inter prediction unit 172 uses the decoded image stored in the memory 160 as a reference image, calculates a motion vector by a method such as block matching, predicts a coding target CU, and generates an inter prediction image. The inter prediction image is output to the switching unit 173. Further, the inter prediction unit 172 outputs the motion vector calculated for each CU to the memory 160, and stores the motion vector in the memory 160.

インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する制御情報(動きベクトル等)をエントロピー符号化部130に出力する。 The inter prediction unit 172 selects an optimal inter prediction method from inter prediction using a plurality of reference images (typically, bi-prediction) and inter prediction using one reference image (unidirectional prediction), Inter prediction is performed using the selected inter prediction method. The inter prediction unit 172 outputs control information (motion vector and the like) regarding inter prediction to the entropy coding unit 130.

切替部173は、イントラ予測部171から入力されるイントラ予測画像とインター予測部172から入力されるインター予測画像とを切り替えて、いずれかの予測画像を減算部110及び合成部150に出力する。 The switching unit 173 switches between the intra prediction image input from the intra prediction unit 171 and the inter prediction image input from the inter prediction unit 172, and outputs one of the prediction images to the subtraction unit 110 and the synthesis unit 150.

次に、本実施形態に係る画像符号化装置1のインター予測部172について説明する。図3は、本実施形態に係る画像符号化装置1のインター予測部172の構成を示す図である。 Next, the inter prediction unit 172 of the image encoding device 1 according to this embodiment will be described. FIG. 3 is a diagram showing the configuration of the inter prediction unit 172 of the image encoding device 1 according to this embodiment.

図3に示すように、本実施形態に係るインター予測部172は、隣接ベクトル取得部172aと、動きベクトル算出部172cと、動きベクトル補正部172dと、予測画像生成部172eとを有する。 As illustrated in FIG. 3, the inter prediction unit 172 according to this embodiment includes an adjacent vector acquisition unit 172a, a motion vector calculation unit 172c, a motion vector correction unit 172d, and a predicted image generation unit 172e.

隣接ベクトル取得部172aは、メモリ160から、符号化対象CUの周囲(上や左)に位置する各隣接復号済みCUのインター予測に適用された動きベクトルVpを取得し、取得した動きベクトルVpのリストを動きベクトル補正部172dに出力する。なお、動きベクトルは、動きベクトルの水平方向(x軸方向)及び垂直方向(y軸方向)のベクトルの値のほか、参照するピクチャ(参照画像)の時間的な位置(例えば、POC:Picture Order Countや参照リスト内の参照インデックス)などを含んでもよい。 The adjacent vector acquisition unit 172a acquires, from the memory 160, the motion vector Vp applied to the inter prediction of each adjacent decoded CU located around (upper or left) the CU to be encoded, and acquires the motion vector Vp of the acquired motion vector Vp. The list is output to the motion vector correction unit 172d. Note that the motion vector includes, in addition to the vector values in the horizontal direction (x-axis direction) and the vertical direction (y-axis direction) of the motion vector, the temporal position of the reference picture (reference image) (for example, POC: Picture Order). Count, reference index in reference list, etc.) may be included.

図4に示すように、符号化対象CUの上や左に位置する隣接復号済みCUのうち一部の隣接復号済みCUにイントラ予測が適用された場合には、隣接ベクトル取得部172aは、当該一部の隣接復号済みCUに近接するCUに適用した動きベクトルを代用することによって動きベクトルを補間してもよいし、周囲の利用可能な動きベクトルの加重平均などによって動きベクトルを算出して補間してもよいし、符号化方式で予め規定した動きベクトルを設定してもよい。符号化対象CUが画面端である場合にも同様にして補間する。 As illustrated in FIG. 4, when intra prediction is applied to some of the adjacent decoded CUs located above or to the left of the CU to be encoded, the adjacent vector acquisition unit 172a The motion vector may be interpolated by substituting the motion vector applied to the CU adjacent to some adjacent decoded CUs, or the motion vector is calculated and interpolated by a weighted average of the surrounding available motion vectors. Alternatively, a motion vector defined in advance by the encoding method may be set. Interpolation is similarly performed when the CU to be encoded is at the screen edge.

動きベクトル算出部172cは、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルVを算出し、算出した動きベクトルVを動きベクトル補正部172dに出力する。 The motion vector calculation unit 172c uses the decoded image stored in the memory 160 as a reference image to calculate the motion vector V by a method such as block matching, and outputs the calculated motion vector V to the motion vector correction unit 172d.

動きベクトル補正部172dは、動きベクトル算出部172cにより算出された動きベクトルVを、隣接ベクトル取得部172aにより取得された動きベクトルVpを用いて補正することにより補正動きベクトルV'を生成し、補正動きベクトルV'を予測画像生成部172eに出力する。 The motion vector correction unit 172d generates a corrected motion vector V′ by correcting the motion vector V calculated by the motion vector calculation unit 172c using the motion vector Vp acquired by the adjacent vector acquisition unit 172a, and the correction is performed. The motion vector V′ is output to the predicted image generation unit 172e.

具体的には、動きベクトル補正部172dは、図5に示すようにして動きベクトルVを補正する。動きベクトル補正部172dは、隣接ベクトル取得部172aにより取得した隣接動きベクトルVp及び当該符号化対象ブロックの動きベクトルVを用いて加重平均により動きベクトルVを補正する。 Specifically, the motion vector correction unit 172d corrects the motion vector V as shown in FIG. The motion vector correction unit 172d corrects the motion vector V by weighted averaging using the adjacent motion vector Vp acquired by the adjacent vector acquisition unit 172a and the motion vector V of the encoding target block.

第1に、動きベクトル補正部172dは、隣接動きベクトルVpを、符号化対象CUの左側に位置する隣接動きベクトルVL及び上側に位置する隣接動きベクトルVTに下記の式(1)のように分類する。 First, the motion vector correction unit 172d converts the adjacent motion vector Vp into the adjacent motion vector V L located on the left side of the encoding target CU and the adjacent motion vector V T located above the encoding target CU as expressed by the following equation (1). Classify into.

VL= [Vp[-1,0], Vp[-1,1], Vp[-1,2], …, Vp[-1,N-1]]
VT= [Vp[0,-1], Vp[1,-1], Vp[2,-1], …, Vp[M-1,-1]]
(1)
V L = [Vp[-1,0], Vp[-1,1], Vp[-1,2], …, Vp[-1,N-1]]
V T = [Vp[0,-1], Vp[1,-1], Vp[2,-1], …, Vp[M-1,-1]]
(1)

第2に、動きベクトル補正部172dは、動きベクトルVの補正に用いる重み係数WL、WT、WVを決定する。動きベクトル補正部172dは、例えば、下記の式(2)により重み係数WL、WT、WVを算出する。 Secondly, the motion vector correction unit 172d determines the weighting factors W L , W T , and W V used to correct the motion vector V. The motion vector correction unit 172d calculates the weighting factors W L , W T , and W V by, for example, the following equation (2).

WL= 32 >> log2(height)
WT= 32 >> log2(width)
WV= 32 - WL - WT
(2)
W L = 32 >> log2(height)
W T = 32 >> log2(width)
W V = 32-W L -W T
(2)

但し、width, heightは符号化対象CUの幅、高さをそれぞれ表す。なお、重み係数WL、WTはブロックの幅や高さ、もしくはその比に応じて決定されるものであればよく、式(2)の計算方法に限定されない。 However, the width and the height respectively represent the width and the height of the encoding target CU. The weighting factors W L and W T may be determined according to the width or height of the block or the ratio thereof, and are not limited to the calculation method of the equation (2).

第3に、動きベクトル補正部172dは、補正前の動きベクトルV[x,y]を、重み係数WL、WTと、隣接動きベクトルVL及びVTとに基づいて補正し、例えば下記の式(3)により補正後の動きベクトルV'を算出する。 Thirdly, the motion vector correction unit 172d corrects the uncorrected motion vector V[x, y] based on the weighting factors W L and W T and the adjacent motion vectors V L and V T. The corrected motion vector V′ is calculated by the equation (3).

V'= WL・median(VL) + WT・median(VT) + WV・V)
(3)
V'= W L・median(V L )+W T・median(V T )+W V・V)
(3)

予測画像生成部172eは、動きベクトル補正部172dにより生成された補正動きベクトルV'を用いて符号化対象CUのインター予測を行うことにより、符号化対象CUの予測画像を生成し、生成した予測画像(インター予測画像)を切替部173に出力する。 The predicted image generation unit 172e generates a predicted image of the coding target CU by performing inter prediction of the coding target CU using the corrected motion vector V′ generated by the motion vector correction unit 172d, and the generated prediction The image (inter prediction image) is output to the switching unit 173.

なお、かかる予測画像は切替部173を介して減算部110に入力され、減算部110は符号化対象CUと予測画像との間の差を表す予測残差を変換・量子化部120に出力する。変換・量子化部120は、予測残差から量子化された直交変換係数を生成し、生成した直交変換係数をエントロピー符号化部130に出力する。 The prediction image is input to the subtraction unit 110 via the switching unit 173, and the subtraction unit 110 outputs the prediction residual representing the difference between the CU to be encoded and the prediction image to the conversion/quantization unit 120. .. The transform/quantization unit 120 generates a quantized orthogonal transform coefficient from the prediction residual, and outputs the generated orthogonal transform coefficient to the entropy coding unit 130.

<画像復号装置>
次に、本実施形態に係る画像復号装置について説明する。但し、上記の画像符号化装置1と同様な動作については重複する説明を省略する。図6は、本実施形態に係る画像復号装置2の構成を示す図である。
<Image decoding device>
Next, the image decoding apparatus according to this embodiment will be described. However, with regard to the same operation as that of the image encoding device 1 described above, redundant description will be omitted. FIG. 6 is a diagram showing the configuration of the image decoding device 2 according to the present embodiment.

図6に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。 As illustrated in FIG. 6, the image decoding device 2 includes an entropy decoding unit 200, an inverse quantization/inverse conversion unit 210, a combining unit 220, a memory 230, and a prediction unit 240.

エントロピー復号部200は、画像符号化装置1により生成された符号化ストリームを復号し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロピー復号部200は、予測(イントラ予測及びインター予測)に関する制御情報を取得し、取得した制御情報を予測部240に出力する。 The entropy decoding unit 200 decodes the coded stream generated by the image coding device 1, and outputs the quantized orthogonal transform coefficient to the inverse quantization/inverse transform unit 210. Further, the entropy decoding unit 200 acquires control information regarding prediction (intra prediction and inter prediction), and outputs the acquired control information to the prediction unit 240.

逆量子化・逆変換部210は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。 The inverse quantization/inverse transform unit 210 performs an inverse quantization process and an inverse orthogonal transform process in CU units. The inverse quantization/inverse transform unit 210 includes an inverse quantization unit 211 and an inverse transform unit 212.

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から入力された量子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象CUの直交変換係数を復元し、復元した直交変換係数を逆変換部212に出力する。 The inverse quantization unit 211 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the image encoding device 1. The inverse quantization unit 211 inversely quantizes the quantized orthogonal transformation coefficient input from the entropy decoding unit 200 using the quantization parameter (Qp) and the quantization matrix to obtain the orthogonal transformation coefficient of the decoding target CU. The restored orthogonal transform coefficient is output to the inverse transform unit 212.

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121 of the image encoding device 1. The inverse transform unit 212 restores the prediction residual by performing the inverse orthogonal transform process on the orthogonal transform coefficient input from the inverse quantization unit 211, and synthesizes the restored prediction residual (restored prediction residual). Output to.

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力された予測画像とを画素単位で合成することにより、元のCUを再構成(復号)し、CU単位の復号画像をメモリ230に出力する。 The combining unit 220 reconstructs (decodes) the original CU by combining the prediction residual input from the inverse transform unit 212 and the prediction image input from the prediction unit 240 in pixel units, and in CU units. The decoded image of is output to the memory 230.

メモリ230は、合成部220から入力された復号画像を記憶する。メモリ230は、復号画像をフレーム単位で記憶する。さらに、メモリ230は、インター予測部242において算出された動きベクトルをCUごとに記憶する。メモリ230は、フレーム単位の復号画像を画像復号装置2の外部に出力する。なお、メモリ230は、複数のメモリにより構成されてもよい。合成部220とメモリ230との間にループフィルタが設けられてもよい。 The memory 230 stores the decoded image input from the combining unit 220. The memory 230 stores the decoded image in frame units. Further, the memory 230 stores the motion vector calculated by the inter prediction unit 242 for each CU. The memory 230 outputs the decoded image in frame units to the outside of the image decoding device 2. The memory 230 may be composed of a plurality of memories. A loop filter may be provided between the combining unit 220 and the memory 230.

予測部240は、CU単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、切替部243とを有する。 The prediction unit 240 performs prediction in CU units. The prediction unit 240 includes an intra prediction unit 241, an inter prediction unit 242, and a switching unit 243.

イントラ予測部241は、メモリ230に記憶された復号画像を参照し、エントロピー復号部200から入力された制御情報に従って、復号対象CUをイントラ予測により予測することによりイントラ予測画像を生成し、生成したイントラ予測画像を切替部243に出力する。 The intra prediction unit 241 refers to the decoded image stored in the memory 230, generates the intra-predicted image by predicting the decoding target CU by the intra prediction according to the control information input from the entropy decoding unit 200, and generates the intra-predicted image. The intra prediction image is output to the switching unit 243.

インター予測部242は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象CUをインター予測により予測する。インター予測部242は、エントロピー復号部200から入力された制御情報に従ってインター予測を行うことによりインター予測画像を生成し、生成したインター予測画像を切替部243に出力する。本実施形態において、インター予測部242は、図3に示すインター予測部172と同じ構成を有する。 The inter prediction unit 242 predicts the decoding target CU by inter prediction using the decoded image stored in the memory 230 as a reference image. The inter prediction unit 242 generates an inter prediction image by performing inter prediction according to the control information input from the entropy decoding unit 200, and outputs the generated inter prediction image to the switching unit 243. In the present embodiment, the inter prediction unit 242 has the same configuration as the inter prediction unit 172 shown in FIG.

切替部243は、イントラ予測部241から入力されるイントラ予測画像とインター予測部242から入力されるインター予測画像とを切り替えて、いずれかの予測画像を合成部220に出力する。 The switching unit 243 switches between the intra-prediction image input from the intra-prediction unit 241 and the inter-prediction image input from the inter-prediction unit 242, and outputs one of the prediction images to the synthesis unit 220.

<インター予測部の動作>
図7は、本実施形態に係る画像符号化装置1のインター予測部172の動作を示す図である。画像復号装置2のインター予測部242も、画像符号化装置1のインター予測部172と同様にして動作する。但し、インター予測部242の動作においては、インター予測部172の動作における「符号化対象CU」を「復号対象CU」と読み替える。
<Operation of inter prediction unit>
FIG. 7: is a figure which shows operation|movement of the inter estimation part 172 of the image coding apparatus 1 which concerns on this embodiment. The inter prediction unit 242 of the image decoding device 2 also operates similarly to the inter prediction unit 172 of the image encoding device 1. However, in the operation of the inter prediction unit 242, the “encoding target CU” in the operation of the inter prediction unit 172 is replaced with the “decoding target CU”.

図7に示すように、ステップS1において、隣接ベクトル取得部172aは、メモリ160から、符号化対象CUの周囲(上や左)に位置する各隣接復号済みCUのインター予測に適用された動きベクトルVpを取得する。 As shown in FIG. 7, in step S1, the adjacent vector acquisition unit 172a causes the motion vector applied from the memory 160 to the inter prediction of each adjacent decoded CU located around (upper or left) the CU to be encoded. Get Vp.

ステップS2において、動きベクトル算出部172cは、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルVを算出する。 In step S2, the motion vector calculation unit 172c uses the decoded image stored in the memory 160 as a reference image to calculate the motion vector V by a method such as block matching.

ステップS3において、動きベクトル補正部172dは、動きベクトル算出部172cにより算出された動きベクトルVを、隣接ベクトル取得部172aにより取得された動きベクトルVpを用いて補正することにより補正動きベクトルV'を生成する。 In step S3, the motion vector correction unit 172d corrects the motion vector V calculated by the motion vector calculation unit 172c using the motion vector Vp acquired by the adjacent vector acquisition unit 172a to obtain the corrected motion vector V′. To generate.

ステップS4において、予測画像生成部172eは、補正動きベクトルV'を用いてインター予測を行い、符号化対象CUの予測画像を生成する。 In step S4, the predicted image generation unit 172e performs inter prediction using the corrected motion vector V′ to generate a predicted image of the CU to be coded.

このように、本実施形態に係るインター予測部172によれば、隣接動きベクトルVpを用いて補正された動きベクトルを用いて、動きベクトルの不連続性を低減させることができるため、予測残差がオブジェクト境界付近のブロックで増大することを抑制し、符号化効率を向上させることができる。 As described above, the inter prediction unit 172 according to the present embodiment can reduce the discontinuity of the motion vector by using the motion vector corrected using the adjacent motion vector Vp, and thus the prediction residual Can be suppressed from increasing in blocks near the object boundary, and the coding efficiency can be improved.

<インター予測部の変更例>
図8は、第1実施形態に係るインター予測部172の変更例を示す図である。
<Example of changing the inter prediction unit>
FIG. 8 is a diagram illustrating a modification example of the inter prediction unit 172 according to the first embodiment.

図8に示すように、インター予測部172は、上述した実施形態に係る構成に加えて、連続性評価部172fと、補正用隣接ベクトル決定部172gとを有する。 As illustrated in FIG. 8, the inter prediction unit 172 includes a continuity evaluation unit 172f and a correction adjacent vector determination unit 172g in addition to the configuration according to the above-described embodiment.

連続性評価部172fは、符号化対象CUに適用する動きベクトルVを隣接動きベクトルVpと比較することにより、隣接復号済みブロック群に含まれる各復号済みブロックと符号化対象CUとの境界の領域の動きの連続性を評価する。 The continuity evaluation unit 172f compares the motion vector V applied to the encoding target CU with the adjacent motion vector Vp to determine the boundary region between each decoded block included in the adjacent decoded block group and the encoding target CU. Evaluate the continuity of the movement of.

連続性評価部172fは、符号化対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルVpをメモリ160から取得する。そして、連続性評価部172fは、符号化対象CUに適用された動きベクトルVと、隣接する復号済みCU群に適用された動きベクトルVpとの比較により、隣接する復号済みCU群について符号化対象CUとの動きの連続性を評価し、評価結果を補正用隣接ベクトル決定部172gに出力する。 The continuity evaluation unit 172f acquires, from the memory 160, the motion vector Vp applied to the decoded one or more adjacent CUs adjacent to the encoding target CU. Then, the continuity evaluation unit 172f compares the motion vector V applied to the encoding target CU with the motion vector Vp applied to the adjacent decoded CU group, and thereby the adjacent decoded CU group is encoded. The continuity of motion with the CU is evaluated, and the evaluation result is output to the correction adjacent vector determination unit 172g.

例えば、連続性評価部172fは、符号化対象CUに適用される動きベクトルVと復号済みCUの動きベクトルVpとの差(距離)を表すL1ノルムが予め規定した閾値未満である場合には連続性が高いと評価する。一方、当該L1ノルムが閾値以上である場合には連続性が低いと評価する。但し、連続性の指標値としてはL1ノルムに限定されるものではなく、他の指標値を用いてもよい。 For example, if the L1 norm representing the difference (distance) between the motion vector V applied to the encoding target CU and the motion vector Vp of the decoded CU is less than a predetermined threshold value, the continuity evaluating unit 172f performs continuity. It is evaluated as highly effective. On the other hand, if the L1 norm is equal to or more than the threshold value, it is evaluated that the continuity is low. However, the index value of continuity is not limited to the L1 norm, and other index values may be used.

なお、動きベクトルは、X軸及びY軸方向のベクトル値のほか、参照する復号済みフレームを示すフラグ(例えば、HEVCにおけるinter_pred_idc,ref_idx)を含むものとする。連続性評価部172fは、隣接ブロックとの動きベクトルの連続性の評価にあたっては、符号化対象CUを含むフレーム(現フレーム)と符号化対象CUの参照先の復号済みフレームとの時間的な距離(POC距離)と、現フレームと隣接する復号済みCUの参照先の復号済みフレームとのPOC距離とに応じて、当該隣接する復号済みCUに適用した動きベクトルのベクトル値をスケーリングしたのちに連続性を評価してもよい。 Note that the motion vector includes vector values in the X-axis and Y-axis directions, as well as flags indicating the decoded frame to be referred to (for example, inter_pred_idc, ref_idx in HEVC). When evaluating the continuity of the motion vector with the adjacent block, the continuity evaluating unit 172f temporally separates the frame containing the encoding target CU (current frame) from the decoded frame referenced by the encoding target CU. The vector value of the motion vector applied to the adjacent decoded CU is scaled according to (POC distance) and the POC distance between the current frame and the decoded frame that is the reference destination of the adjacent decoded CU, and then the motion vector is continuously scaled. You may evaluate sex.

補正用隣接ベクトル決定部172gは、連続性評価部172fにより評価された動きの連続性に基づいて、動きベクトルVの補正に用いる動きベクトルを動きベクトルVpに基づいて決定する。 The correction adjacent vector determination unit 172g determines the motion vector used for the correction of the motion vector V based on the motion vector Vp, based on the motion continuity evaluated by the continuity evaluation unit 172f.

例えば、補正用隣接ベクトル決定部172gは、
VL= [Vp[-1,0], Vp[-1,1], Vp[-1,2], …, Vp[-1,N-1]]
VT = [Vp[0,-1], Vp[1,-1], Vp[2,-1], …, Vp[M-1,-1]]
であるとき、
V'L=[ vL ∈VL | || vL - V ||2< Th ]
V'T=[ vT ∈VT | || vT - V ||2< Th ]
というように動きベクトルVの補正に用いる動きベクトルを決定する。
For example, the correction adjacent vector determination unit 172g
V L = [Vp[-1,0], Vp[-1,1], Vp[-1,2], …, Vp[-1,N-1]]
V T = [Vp[0,-1], Vp[1,-1], Vp[2,-1], …, Vp[M-1,-1]]
When
V 'L = [v L ∈V L | || v L - V || 2 <Th]
V 'T = [v T ∈V T | || v T - V || 2 <Th]
In this way, the motion vector used for correcting the motion vector V is determined.

すなわち、V'Lは符号化対象CUの左側の隣接ベクトルVpのうち、動きベクトルVとのL2ノルムが閾値Th以下のベクトルにより構成される集合であり、V'Tは符号化対象CUの上側の隣接ベクトルVpのうち、動きベクトルVとのL2ノルムが閾値Th以下のベクトルにより構成される集合である。 That, V 'L Of left adjacent vectors Vp of the encoding target CU, a set composed of vectors of L2 norm is equal to or smaller than the threshold Th of the motion vector V, V' T above the encoding target CU Of the adjacent vectors Vp of L2 norm with respect to the motion vector V is a set constituted by vectors having a threshold value Th or less.

動きベクトル補正部172dは、これらV'L及びV'T(第3動きベクトル)を用いて、下記の式(4)により補正後の動きベクトルV'を算出する。 The motion vector correction unit 172d uses these V′ L and V′ T (third motion vector) to calculate the corrected motion vector V′ according to the following equation (4).

V'= WL・median(V'L) + WT・median(V'T) + WV・V)
(4)
V'= W L・median(V' L )+W T・median(V' T )+W V・V)
(4)

<2.第2実施形態>
第2実施形態について、第1実施形態との相違点を主として説明する。
<2. Second Embodiment>
The differences between the second embodiment and the first embodiment will be mainly described.

図9は、第2実施形態に係る画像符号化装置1のインター予測部172の構成を示す図である。 FIG. 9 is a diagram showing the configuration of the inter prediction unit 172 of the image encoding device 1 according to the second embodiment.

図9に示すように、第2実施形態に係るインター予測部172は、第1実施形態で説明した構成(隣接ベクトル取得部172a、動きベクトル算出部172c、動きベクトル補正部172d、予測画像生成部172e)に加えて、小領域分割部172bを有する。 As shown in FIG. 9, the inter prediction unit 172 according to the second embodiment has the configuration (adjacent vector acquisition unit 172a, motion vector calculation unit 172c, motion vector correction unit 172d, predicted image generation unit) described in the first embodiment. In addition to 172e), it has a small area dividing section 172b.

小領域分割部172bは、符号化対象CUをあらかじめ規定したサイズの複数の小領域に分割し、分割により得られた各小領域の情報を動きベクトル補正部172dに出力する。かかる小領域は、サブブロックと称されてもよい。 The small area dividing unit 172b divides the coding target CU into a plurality of small areas having a predetermined size, and outputs information on each small area obtained by the division to the motion vector correcting unit 172d. Such small areas may be referred to as sub-blocks.

図10は、小領域の一例を示す図である。図10(a)に示すように、各小領域のサイズを同一とし、例えば各小領域を4×4画素ごとの領域としてもよい。或いは、画像復号装置及び画像復号装置で共通の処理をあらかじめ規定しておけば、図10(b)に示すように、各小領域のサイズを異ならせてもよい。例えば、符号化対象CUの境界付近を細かく、中心付近を荒く分割するような方法で小領域に分割してもよい。 FIG. 10 is a diagram showing an example of a small area. As shown in FIG. 10A, the small areas may have the same size, and each small area may be an area of 4×4 pixels. Alternatively, if common processing is defined in advance between the image decoding device and the image decoding device, the size of each small area may be different as shown in FIG. For example, the area near the boundary of the CU to be encoded may be finely divided, and the vicinity of the center may be roughly divided into small areas.

動きベクトル算出部172cは、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルVを算出し、算出した動きベクトルVを動きベクトル補正部172dに出力する。本実施形態において、動きベクトル算出部172cは、符号化対象CUについて1つの動きベクトルVを算出してもよいし、小領域分割部172bが符号化対象CUを分割して得た小領域ごとに動きベクトルVを算出してもよい。 The motion vector calculation unit 172c uses the decoded image stored in the memory 160 as a reference image to calculate the motion vector V by a method such as block matching, and outputs the calculated motion vector V to the motion vector correction unit 172d. In the present embodiment, the motion vector calculation unit 172c may calculate one motion vector V for the encoding target CU, or for each small region obtained by dividing the encoding target CU by the small region dividing unit 172b. The motion vector V may be calculated.

動きベクトル補正部172dは、動きベクトル算出部172cにより算出された動きベクトルVを、隣接ベクトル取得部172aにより取得された動きベクトルVpを用いて補正することにより補正動きベクトルV'を生成し、補正動きベクトルV'を予測画像生成部172eに出力する。 The motion vector correction unit 172d generates a corrected motion vector V′ by correcting the motion vector V calculated by the motion vector calculation unit 172c using the motion vector Vp acquired by the adjacent vector acquisition unit 172a, and the correction is performed. The motion vector V′ is output to the predicted image generation unit 172e.

本実施形態において、動きベクトル補正部172dは、図11に示すように、小領域ごとに動きベクトルVを補正する。動きベクトル補正部172dは、小領域の位置に応じて決定した重みを用いて、当該小領域の位置に対応する隣接復号済みCUの動きベクトルVpを重み付けし、重み付けした動きベクトルVpを用いて、当該小領域に適用する動きベクトルVを補正する。 In the present embodiment, the motion vector correction unit 172d corrects the motion vector V for each small area, as shown in FIG. The motion vector correction unit 172d weights the motion vector Vp of the adjacent decoded CU corresponding to the position of the small area using the weight determined according to the position of the small area, and uses the weighted motion vector Vp, The motion vector V applied to the small area is corrected.

例えば、動きベクトル補正部172dは、符号化対象CUの小領域ごとの動きベクトルの配列V[x,y]に補正前の動きベクトルVを代入する。但し、補正前の動きベクトルVが符号化対象CU内の小ブロックごとに異なる動きベクトルである場合、小ブロックごとに設定された動きベクトルに基づいて、小領域ごとに異なる動きベクトルを動きベクトル配列V[x,y]に代入する。前記小ブロックのサイズが前述の小領域と異なる場合には、予め規定する方法で、代入する。例えば、小ブロックのサイズが小領域よりも大きい場合には、小ブロック内に含まれる全ての小領域の動きベクトル配列V[x,y]に小ブロックの動きベクトルを代入する。一方、小ブロックのサイズが小領域よりも小さい場合には、小領域に含まれる全ての小ブロックの動きベクトルの平均や中央値などにより算出されたベクトルを小領域の動きベクトルV[x,y]に代入する。 For example, the motion vector correction unit 172d substitutes the uncorrected motion vector V into the motion vector array V[x, y] for each small region of the CU to be encoded. However, when the uncorrected motion vector V is a motion vector that differs for each small block in the encoding target CU, a motion vector array that is different for each small region based on the motion vector set for each small block. Substitute in V[x, y]. When the size of the small block is different from the size of the small area, the size is substituted by a method defined in advance. For example, when the size of the small block is larger than the small area, the motion vector of the small block is substituted into the motion vector array V[x, y] of all the small areas included in the small block. On the other hand, when the size of the small block is smaller than the small area, the vector calculated by the average or median of the motion vectors of all the small blocks included in the small area is used as the motion vector V[x, y of the small area. ]]

第1に、動きベクトル補正部172dは、各小領域の位置に応じて重み係数WL、WT、WLT、WVを決定する。動きベクトル補正部172dは、例えば、下記の式(5)により重み係数WL、WT、WLT、WVを算出する。 First, the motion vector correction unit 172d determines the weighting factors W L , W T , W LT , W V according to the position of each small area. The motion vector correction unit 172d calculates the weighting factors W L , W T , W LT , and W V by, for example, the following equation (5).

Figure 2020109959
(5)
Figure 2020109959
(5)

但し、x,yは小領域の位置を表しており、width、heightは符号化対象CUの幅、高さをそれぞれ表す。なお、重み係数WL、WT、WLT、WVは小領域の位置やCUの幅、高さに応じて決定されるものであればよく、式(5)の計算方法に限定されない。 However, x and y represent the position of the small area, and width and height represent the width and height of the encoding target CU, respectively. Note that the weighting factors W L , W T , W LT , and W V may be determined according to the position of the small area, the width and height of the CU, and are not limited to the calculation method of Expression (5).

第2に、動きベクトル補正部172dは、補正前の動きベクトルV[x,y]を、重み係数WL、WT、WLT、WVと隣接動きベクトルVpとに基づいて補正し、例えば下記の式(6)により補正後の動きベクトルV'[x,y]を算出する。 Secondly, the motion vector correction unit 172d corrects the uncorrected motion vector V[x, y] based on the weighting factors W L , W T , W LT , W V and the adjacent motion vector Vp. The corrected motion vector V′[x, y] is calculated by the following equation (6).

Figure 2020109959
(6)
Figure 2020109959
(6)

予測画像生成部172eは、動きベクトル補正部172dにより生成された補正動きベクトルV'[x,y]を用いて符号化対象CUの小領域ごとにインター予測を行うことにより、符号化対象CUの予測画像を生成し、生成した予測画像(インター予測画像)を切替部173に出力する。 The predicted image generation unit 172e uses the corrected motion vector V′[x, y] generated by the motion vector correction unit 172d to perform inter prediction for each small area of the coding target CU, thereby The predicted image is generated, and the generated predicted image (inter predicted image) is output to the switching unit 173.

具体的には、予測画像生成部172eは、小領域ごとの動きベクトルV'[x,y]を用いて、小領域ごとにインター予測を行うことにより小領域ごとの予測画像を生成し、小領域ごとの予測画像を合成することにより符号化対象CUの予測画像を生成する。 Specifically, the predicted image generation unit 172e generates a predicted image for each small area by performing inter prediction for each small area using the motion vector V'[x, y] for each small area, and The predicted image of the encoding target CU is generated by synthesizing the predicted image for each region.

なお、かかる予測画像は切替部173を介して減算部110に入力され、減算部110は符号化対象CUと予測画像との間の差を表す予測残差を変換・量子化部120に出力する。変換・量子化部120は、予測残差から量子化された直交変換係数を生成し、生成した直交変換係数をエントロピー符号化部130に出力する。なお、エントロピー符号化部130は、小領域ごとの動きベクトルを符号化(シグナリング)せずに、符号化対象CUごとに1つの動きベクトルを符号化すればよい。 The prediction image is input to the subtraction unit 110 via the switching unit 173, and the subtraction unit 110 outputs the prediction residual representing the difference between the CU to be encoded and the prediction image to the conversion/quantization unit 120. .. The transform/quantization unit 120 generates a quantized orthogonal transform coefficient from the prediction residual, and outputs the generated orthogonal transform coefficient to the entropy coding unit 130. Note that the entropy coding unit 130 may code one motion vector for each CU to be coded, without coding (signaling) the motion vector for each small area.

また、本実施形態において、画像復号装置2のインター予測部242は、図9に示すインター予測部172と同じ構成を有する。 Further, in the present embodiment, the inter prediction unit 242 of the image decoding device 2 has the same configuration as the inter prediction unit 172 shown in FIG. 9.

<インター予測部の動作>
図12は、本実施形態に係る画像符号化装置1のインター予測部172の動作を示す図である。画像復号装置2のインター予測部242も、画像符号化装置1のインター予測部172と同様にして動作する。但し、インター予測部242の動作においては、インター予測部172の動作における「符号化対象CU」を「復号対象CU」と読み替える。
<Operation of inter prediction unit>
FIG. 12 is a diagram showing the operation of the inter prediction unit 172 of the image encoding device 1 according to this embodiment. The inter prediction unit 242 of the image decoding device 2 also operates similarly to the inter prediction unit 172 of the image encoding device 1. However, in the operation of the inter prediction unit 242, the “encoding target CU” in the operation of the inter prediction unit 172 is replaced with the “decoding target CU”.

図12に示すように、ステップS11において、隣接ベクトル取得部172aは、メモリ160から、符号化対象CUの周囲(上や左)に位置する各隣接復号済みCUのインター予測に適用された動きベクトルVpを取得する。 As shown in FIG. 12, in step S11, the adjacent vector acquisition unit 172a uses the memory 160 to apply the motion vector applied to the inter prediction of each adjacent decoded CU located around (upper or left) the CU to be encoded. Get Vp.

ステップS12において、小領域分割部172bは、符号化対象CUをあらかじめ規定したサイズの複数の小領域に分割する。 In step S12, the small area dividing unit 172b divides the encoding target CU into a plurality of small areas having a predetermined size.

ステップS13において、動きベクトル算出部172cは、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルVを算出する。 In step S13, the motion vector calculation unit 172c calculates the motion vector V by a method such as block matching using the decoded image stored in the memory 160 as a reference image.

ステップS14において、動きベクトル補正部172dは、動きベクトル算出部172cにより算出された動きベクトルVを、隣接ベクトル取得部172aにより取得された動きベクトルVpを用いて補正することにより補正動きベクトルV'を生成する。 In step S14, the motion vector correction unit 172d corrects the motion vector V calculated by the motion vector calculation unit 172c using the motion vector Vp acquired by the adjacent vector acquisition unit 172a to obtain the corrected motion vector V′. To generate.

ステップS15において、予測画像生成部172eは、補正動きベクトルV'を用いて小領域ごとにインター予測を行い、符号化対象CUの予測画像を生成する。 In step S15, the predicted image generation unit 172e performs inter prediction for each small area using the corrected motion vector V', and generates a predicted image of the encoding target CU.

このように、本実施形態に係るインター予測部172によれば、復号対象CU内の小領域ごとに、隣接動きベクトルVpを用いて補正された動きベクトルを用いてきめ細かなインター予測を行うことができるため、予測残差がオブジェクト境界付近のブロックで増大することを抑制し、符号化効率を向上させることができる。 As described above, the inter prediction unit 172 according to the present embodiment can perform fine inter prediction using the motion vector corrected using the adjacent motion vector Vp for each small area in the decoding target CU. Therefore, it is possible to prevent the prediction residual from increasing in blocks near the object boundary, and improve the coding efficiency.

<インター予測部の変更例>
図13は、第2実施形態に係るインター予測部172の変更例を示す図である。
<Example of changing the inter prediction unit>
FIG. 13 is a diagram illustrating a modification example of the inter prediction unit 172 according to the second embodiment.

図13に示すように、本変更例に係るインター予測部172は、上述した実施形態に係る構成に加えて、連続性評価部172fと、補正小領域決定部172hとを有する。 As illustrated in FIG. 13, the inter prediction unit 172 according to the present modification includes a continuity evaluation unit 172f and a corrected small area determination unit 172h in addition to the configuration according to the above-described embodiment.

連続性評価部172fは、符号化対象CUに適用する動きベクトルVを隣接動きベクトルVpと比較することにより、隣接復号済みブロック群に含まれる各復号済みブロックと符号化対象CUとの境界の領域の動きの連続性を評価する。 The continuity evaluation unit 172f compares the motion vector V applied to the encoding target CU with the adjacent motion vector Vp to determine the boundary region between each decoded block included in the adjacent decoded block group and the encoding target CU. Evaluate the continuity of the movement of.

連続性評価部172fは、符号化対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルVpをメモリ160から取得する。そして、連続性評価部172fは、符号化対象CUに適用された動きベクトルVと、隣接する復号済みCU群に適用された動きベクトルVpとの比較により、隣接する復号済みCU群について符号化対象CUとの動きの連続性を評価し、評価結果を補正小領域決定部172hに出力する。 The continuity evaluation unit 172f acquires, from the memory 160, the motion vector Vp applied to the decoded one or more adjacent CUs adjacent to the encoding target CU. Then, the continuity evaluation unit 172f compares the motion vector V applied to the encoding target CU with the motion vector Vp applied to the adjacent decoded CU group, and thereby the adjacent decoded CU group is encoded. The continuity of the movement with the CU is evaluated, and the evaluation result is output to the correction small area determination unit 172h.

例えば、連続性評価部172fは、図14(a)に示すように、符号化対象CUに適用される動きベクトルVと復号済みCUの動きベクトルVpとの差(距離)を表すL1ノルムが予め規定した閾値未満である場合には連続性が高いと評価する。一方、当該L1ノルムが閾値以上である場合には連続性が低いと評価する。但し、連続性の指標値としてはL1ノルムに限定されるものではなく、他の指標値を用いてもよい。 For example, as illustrated in FIG. 14A, the continuity evaluation unit 172f previously sets an L1 norm representing the difference (distance) between the motion vector V applied to the encoding target CU and the motion vector Vp of the decoded CU. If it is less than the specified threshold, it is evaluated that the continuity is high. On the other hand, when the L1 norm is equal to or more than the threshold value, it is evaluated that the continuity is low. However, the index value of continuity is not limited to the L1 norm, and other index values may be used.

なお、動きベクトルは、X軸及びY軸方向のベクトル値のほか、参照する復号済みフレームを示すフラグ(例えば、HEVCにおけるinter_pred_idc,ref_idx)を含むものとする。連続性評価部172fは、隣接ブロックとの動きベクトルの連続性の評価にあたっては、符号化対象CUを含むフレーム(現フレーム)と符号化対象CUの参照先の復号済みフレームとの時間的な距離(POC距離)と、現フレームと隣接する復号済みCUの参照先の復号済みフレームとのPOC距離とに応じて、当該隣接する復号済みCUに適用した動きベクトルのベクトル値をスケーリングしたのちに連続性を評価してもよい。 Note that the motion vector includes vector values in the X-axis and Y-axis directions, as well as flags indicating the decoded frame to be referred to (for example, inter_pred_idc, ref_idx in HEVC). When evaluating the continuity of the motion vector with the adjacent block, the continuity evaluating unit 172f temporally separates the frame containing the encoding target CU (current frame) from the decoded frame referenced by the encoding target CU. The vector value of the motion vector applied to the adjacent decoded CU is scaled according to (POC distance) and the POC distance between the current frame and the decoded frame that is the reference destination of the adjacent decoded CU, and then the motion vector is continuously scaled. You may evaluate sex.

補正小領域決定部172hは、連続性評価部172fにより評価された動きの連続性に基づいて、動きベクトルVを補正するべき少なくとも1つの小領域を決定する。例えば、図14(b)に示すように、補正小領域決定部172hは、動きの連続性が低い領域に対応する各小領域のみを、動きベクトルVを補正するべき小領域として決定する。但し、補正小領域決定部172hは、符号化対象CUの全ての小領域を、動きベクトルVを補正するべき小領域として決定してもよい。 The correction small area determination unit 172h determines at least one small area in which the motion vector V should be corrected based on the continuity of the motion evaluated by the continuity evaluation unit 172f. For example, as illustrated in FIG. 14B, the correction small area determination unit 172h determines only each small area corresponding to an area having low motion continuity as a small area in which the motion vector V should be corrected. However, the correction small area determination unit 172h may determine all the small areas of the encoding target CU as the small areas in which the motion vector V should be corrected.

本変更例において、動きベクトル補正部172dは、補正小領域決定部172hにより決定された小領域について補正動きベクトルV'を生成する。また、動きベクトル補正部172dは、小領域の位置と、連続性評価部172fにより評価された動きの連続性とに応じて重み係数を決定し、決定した重み係数を用いて、当該小領域の位置に対応する隣接動きベクトルVpを重み付けしてもよい。 In the present modification, the motion vector correction unit 172d generates a corrected motion vector V'for the small area determined by the corrected small area determination unit 172h. Further, the motion vector correction unit 172d determines a weighting coefficient according to the position of the small area and the continuity of the motion evaluated by the continuity evaluation unit 172f, and uses the determined weighting coefficient to determine the weighting coefficient of the small area. The adjacent motion vector Vp corresponding to the position may be weighted.

動きベクトル補正部172dは、動きの連続性が低い領域に対応する隣接動きベクトルVpの重みを大きくするように設定してもよい。例えば、式(5)に対して動きの連続性に対応する値cx、cyを導入し、下記の式(7)により重み係数WL、WT、WLT、WVを算出する。 The motion vector correction unit 172d may be set so as to increase the weight of the adjacent motion vector Vp corresponding to the region with low motion continuity. For example, by introducing the value c x, c y corresponding to continuity of motion for formula (5), calculates weight coefficients W L, W T, W LT , the W V by the following equation (7).

Figure 2020109959
(7)
Figure 2020109959
(7)

このように、本変更例によれば、ブロック境界領域における動きの連続性を考慮して符号化対象CU(小領域)の動きベクトルVを補正することにより、インター予測を行う場合における符号化効率をさらに向上させることができる。 As described above, according to the present modification, the coding efficiency in the case of performing inter prediction by correcting the motion vector V of the coding target CU (small area) in consideration of the continuity of motion in the block boundary area. Can be further improved.

<3.その他の実施形態>
画像符号化装置1が行う各処理をコンピュータに実行させるプログラム及び画像復号装置2が行う各処理をコンピュータに実行させるプログラムにより提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROM等の記録媒体であってもよい。
<3. Other Embodiments>
The program may be provided by a program that causes a computer to execute each process performed by the image encoding device 1 and a program that causes a computer to perform each process performed by the image decoding device 2. Further, the program may be recorded in a computer-readable medium. A computer readable medium can be used to install the program on a computer. Here, the computer-readable medium in which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

また、画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)として構成してもよい。同様に、画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)として構成してもよい。 Further, circuits for executing the processes performed by the image coding apparatus 1 may be integrated to configure the image coding apparatus 1 as a semiconductor integrated circuit (chip set, SoC). Similarly, a circuit that executes each process performed by the image decoding device 2 may be integrated to configure the image decoding device 2 as a semiconductor integrated circuit (chip set, SoC).

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 Although the embodiments have been described in detail above with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the spirit of the invention.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
170 :予測部
171 :イントラ予測部
172 :インター予測部
172a :隣接ベクトル取得部
172b :小領域分割部
172c :動きベクトル算出部
172d :動きベクトル補正部
172e :予測画像生成部
172f :連続性評価部
172g :補正用隣接ベクトル決定部
172h :補正小領域決定部
173 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
240 :予測部
241 :イントラ予測部
242 :インター予測部
243 :切替部
1: image encoding device 2: image decoding device 100: block division unit 110: subtraction unit 120: conversion/quantization unit 121: conversion unit 122: quantization unit 130: entropy encoding unit 140: dequantization/inverse conversion Unit 141: inverse quantization unit 142: inverse transform unit 150: synthesis unit 160: memory 170: prediction unit 171: intra prediction unit 172: inter prediction unit 172a: adjacent vector acquisition unit 172b: small area division unit 172c: motion vector calculation Unit 172d: motion vector correction unit 172e: predicted image generation unit 172f: continuity evaluation unit 172g: correction adjacent vector determination unit 172h: corrected small region determination unit 173: switching unit 200: entropy decoding unit 210: dequantization/inverse Transform unit 211: Inverse quantization unit 212: Inverse transform unit 220: Compositing unit 230: Memory 240: Prediction unit 241: Intra prediction unit 242: Inter prediction unit 243: Switching unit

Claims (10)

原画像を分割して得た符号化対象ブロックのインター予測を行うインター予測装置であって、
前記符号化対象ブロックに隣接する隣接復号済みブロック群に適用した1つ以上の第1動きベクトルを取得する隣接ベクトル取得部と、
前記符号化対象ブロックに適用する第2動きベクトルを、前記第1動きベクトルを用いて補正することにより補正動きベクトルを生成する動きベクトル補正部と、
前記補正動きベクトルを用いて前記インター予測を行うことにより、前記符号化対象ブロックの予測画像を生成する予測画像生成部と、を備えることを特徴とするインター予測装置。
An inter-prediction device that performs inter-prediction of an encoding target block obtained by dividing an original image,
An adjacent vector acquisition unit that acquires one or more first motion vectors applied to an adjacent decoded block group adjacent to the target block;
A motion vector correction unit that generates a corrected motion vector by correcting the second motion vector applied to the encoding target block using the first motion vector;
An inter prediction device, comprising: a prediction image generation unit that generates a prediction image of the encoding target block by performing the inter prediction using the corrected motion vector.
前記動きベクトル補正部は、
前記符号化対象ブロックの幅及び高さに応じて決定した重みを用いて、前記第1動きベクトルを重み付けし、
前記重み付けされた第1動きベクトルを用いて、前記第2動きベクトルを補正することを特徴とする請求項1に記載のインター予測装置。
The motion vector correction unit,
Weighting the first motion vector using a weight determined according to the width and height of the encoding target block;
The inter prediction apparatus according to claim 1, wherein the second motion vector is corrected using the weighted first motion vector.
前記符号化対象ブロックに適用する前記第2動きベクトルを前記1つ以上の第1動きベクトルと比較することにより、前記隣接復号済みブロック群に含まれる各復号済みブロックと前記符号化対象ブロックとの境界の領域の動きの連続性を評価する連続性評価部と、
評価された前記動きの連続性に基づいて、前記第2動きベクトルの補正に用いる第3動きベクトルを前記第1動きベクトルに基づいて決定する補正用隣接ベクトル決定部と、をさらに備え、
前記動きベクトル補正部は、前記補正用隣接ベクトル決定部により決定された前記第3動きベクトルを用いて前記補正動きベクトルを生成することを特徴とする請求項1又は2に記載のインター予測装置。
By comparing the second motion vector applied to the encoding target block with the one or more first motion vectors, each decoded block included in the adjacent decoded block group and the encoding target block A continuity evaluation unit that evaluates the continuity of the movement of the boundary area,
A correction adjoining vector determination unit that determines a third motion vector used for correction of the second motion vector based on the evaluated motion continuity based on the first motion vector,
The inter prediction device according to claim 1 or 2, wherein the motion vector correction unit generates the corrected motion vector using the third motion vector determined by the correction adjacent vector determination unit.
前記符号化対象ブロックを複数の小領域に分割する小領域分割部をさらに備え、
前記動きベクトル補正部は、前記符号化対象ブロックの各小領域に適用する第2動きベクトルを、当該小領域の位置に対応する前記第1動きベクトルを用いて補正することにより補正動きベクトルを生成することを特徴とする請求項1に記載のインター予測装置。
Further comprising a small area dividing unit that divides the encoding target block into a plurality of small areas,
The motion vector correction unit generates a corrected motion vector by correcting the second motion vector applied to each small area of the encoding target block using the first motion vector corresponding to the position of the small area. The inter prediction apparatus according to claim 1, wherein:
前記動きベクトル補正部は、
前記小領域の位置に応じて決定した重みを用いて、当該小領域の位置に対応する前記第1動きベクトルを重み付けし、
前記重み付けされた第1動きベクトルを用いて、当該小領域に適用する第2動きベクトルを補正することを特徴とする請求項4に記載のインター予測装置。
The motion vector correction unit,
Using the weight determined according to the position of the small area, weighting the first motion vector corresponding to the position of the small area,
The inter prediction apparatus according to claim 4, wherein the weighted first motion vector is used to correct the second motion vector applied to the small region.
前記符号化対象ブロックに適用する前記第2動きベクトルを前記1つ以上の第1動きベクトルと比較することにより、前記隣接復号済みブロック群に含まれる各復号済みブロックと前記符号化対象ブロックとの境界の領域の動きの連続性を評価する連続性評価部と、
評価された前記動きの連続性に基づいて、前記第2動きベクトルを補正するべき少なくとも1つの小領域を決定する補正小領域決定部と、をさらに備え、
前記動きベクトル補正部は、前記補正小領域決定部により決定された小領域について前記補正動きベクトルを生成することを特徴とする請求項5に記載のインター予測装置。
By comparing the second motion vector applied to the encoding target block with the one or more first motion vectors, each decoded block included in the adjacent decoded block group and the encoding target block A continuity evaluation unit that evaluates the continuity of the movement of the boundary area,
A correction small area determination unit that determines at least one small area in which the second motion vector is to be corrected based on the evaluated continuity of the movement,
The inter prediction device according to claim 5, wherein the motion vector correction unit generates the corrected motion vector for the small area determined by the corrected small area determination unit.
前記動きベクトル補正部は、前記小領域の位置と前記動きの連続性とに応じて決定した重みを用いて、当該小領域の位置に対応する前記第1動きベクトルを重み付けすることを特徴とする請求項6に記載のインター予測装置。 The motion vector correction unit may weight the first motion vector corresponding to the position of the small area using a weight determined according to the position of the small area and the continuity of the motion. The inter prediction apparatus according to claim 6. 請求項1乃至7のいずれか1項に記載のインター予測装置を備えることを特徴とする画像符号化装置。 An image coding device comprising the inter prediction device according to claim 1. 請求項1乃至7のいずれか1項に記載のインター予測装置を備えることを特徴とする画像復号装置。 An image decoding apparatus comprising the inter prediction apparatus according to any one of claims 1 to 7. コンピュータを請求項1乃至7のいずれか1項に記載のインター予測装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as the inter prediction device according to claim 1.
JP2019233775A 2018-12-28 2019-12-25 Inter prediction device, image encoding device, image decoding device, and program Active JP7449690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024032367A JP2024051178A (en) 2018-12-28 2024-03-04 Inter prediction device, image encoding device, image decoding device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018248654 2018-12-28
JP2018248654 2018-12-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024032367A Division JP2024051178A (en) 2018-12-28 2024-03-04 Inter prediction device, image encoding device, image decoding device, and program

Publications (2)

Publication Number Publication Date
JP2020109959A true JP2020109959A (en) 2020-07-16
JP7449690B2 JP7449690B2 (en) 2024-03-14

Family

ID=71570534

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019233775A Active JP7449690B2 (en) 2018-12-28 2019-12-25 Inter prediction device, image encoding device, image decoding device, and program
JP2024032367A Pending JP2024051178A (en) 2018-12-28 2024-03-04 Inter prediction device, image encoding device, image decoding device, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024032367A Pending JP2024051178A (en) 2018-12-28 2024-03-04 Inter prediction device, image encoding device, image decoding device, and program

Country Status (1)

Country Link
JP (2) JP7449690B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4557752B2 (en) 2005-03-07 2010-10-06 株式会社東芝 Moving image processing apparatus, moving image processing method, and moving image processing program
KR100676704B1 (en) 2005-07-07 2007-02-01 삼성전자주식회사 Motion Estimator and Motion Estimating Method Thereof
JP5295053B2 (en) 2009-09-16 2013-09-18 日本電信電話株式会社 Prediction signal generation method, prediction signal generation device, and prediction signal generation program
JP7228980B2 (en) 2018-09-21 2023-02-27 日本放送協会 Predictive image correction device, image coding device, image decoding device, and program

Also Published As

Publication number Publication date
JP7449690B2 (en) 2024-03-14
JP2024051178A (en) 2024-04-10

Similar Documents

Publication Publication Date Title
US11695955B2 (en) Image encoding device, image decoding device and program
JP7332385B2 (en) Intra prediction device, image coding device, image decoding device, and program
WO2020059616A1 (en) Image encoding device, image decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
CN114830642A (en) Image encoding method and image decoding method
JP2020137119A (en) Intra prediction device, image coding device, image decoding device, and program
CN114097224A (en) Intra prediction device, image decoding device, and program
CN112042192A (en) Image encoding device, image decoding device, and program
JP7069421B2 (en) Encoding device, decoding device, and program
CN114342383B (en) Encoding device, decoding device, and program
JP2020005228A (en) Loop filter controller, image encoder, image decoder, and program
JP7460384B2 (en) Prediction device, encoding device, decoding device, and program
JP7229413B2 (en) Image encoding device, image decoding device, and program
JP7474772B2 (en) Encoding device, decoding device, and program
JP7396883B2 (en) Encoding device, decoding device, and program
US20220182621A1 (en) Encoding device, decoding device and program
JP2020109960A (en) Intra-prediction device, image coding device, image decoding device, and program
CN114521325A (en) Image encoding method and image decoding method
JP2020195063A (en) Intra-prediction device, image coding device, image decoding device, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7449690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150