JP2020053725A - Predictive image correction device, image encoding device, image decoding device, and program - Google Patents

Predictive image correction device, image encoding device, image decoding device, and program Download PDF

Info

Publication number
JP2020053725A
JP2020053725A JP2018178118A JP2018178118A JP2020053725A JP 2020053725 A JP2020053725 A JP 2020053725A JP 2018178118 A JP2018178118 A JP 2018178118A JP 2018178118 A JP2018178118 A JP 2018178118A JP 2020053725 A JP2020053725 A JP 2020053725A
Authority
JP
Japan
Prior art keywords
unit
image
prediction
continuity
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018178118A
Other languages
Japanese (ja)
Other versions
JP7228980B2 (en
Inventor
俊輔 岩村
Shunsuke Iwamura
俊輔 岩村
市ヶ谷 敦郎
Atsuro Ichigaya
敦郎 市ヶ谷
慎平 根本
Shimpei Nemoto
慎平 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018178118A priority Critical patent/JP7228980B2/en
Publication of JP2020053725A publication Critical patent/JP2020053725A/en
Application granted granted Critical
Publication of JP7228980B2 publication Critical patent/JP7228980B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve encoding efficiency when performing inter-prediction.SOLUTION: A predictive image correction device which corrects a prediction image obtained through inter-prediction for each of blocks constituting an image comprises: a continuity evaluation part which compares a motion vector applied to an object block for which the inter-prediction is performed with a motion vector applied to one or a plurality of contiguous blocks adjoining the object block and having been decoded so as to evaluate continuity of motion of the one or plurality of adjacent blocks to the object block; and a correction part which uses, when there is an adjacent block whose continuity evaluated by the continuity evaluation part is less than a predetermined value is present, a decoded image of a border region on the object block in a decoded image of the adjacent block whose continuity is less than the predetermined value so as to correct a prediction image of the border region on the adjacent block whose continuity is less than the predetermined value among prediction images of the object block.SELECTED DRAWING: Figure 3

Description

本発明は、予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムに関する。   The present invention relates to a predicted image correction device, an image encoding device, an image decoding device, and a program.

非特許文献1に記載のHEVCに代表される従来の映像符号化方式では、画像符号化装置は、原画像をブロックに分割し、ブロックごとにインター予測とイントラ予測とを切り替えながら予測を行い、予測により得られた予測画像の誤差を表す予測残差に対し直交変換、量子化、エントロピー符号化を施すことにより、ストリーム出力するように構成されている。   In a conventional video coding method represented by HEVC described in Non-Patent Document 1, an image coding device divides an original image into blocks, performs prediction while switching between inter prediction and intra prediction for each block, It is configured to output a stream by performing orthogonal transformation, quantization, and entropy coding on a prediction residual representing an error of a prediction image obtained by prediction.

かかる映像符号化方式におけるインター予測では、符号化対象のブロック(Coding Unit : CU)に適用する動きベクトルが、当該符号化対象CUに隣接する隣接CUに適用する動きベクトルと異なる場合には、符号化対象CUの予測画像及び隣接CUの予測画像は特徴が大きく異なる。   In the inter prediction in such a video coding method, if a motion vector applied to a coding target block (Coding Unit: CU) is different from a motion vector applied to an adjacent CU adjacent to the coding target CU, the coding is performed. The predicted image of the target CU and the predicted image of the adjacent CU have significantly different features.

図1に示す従来の映像符号化方式の例では、オブジェクト#1は左上に動いており、オブジェクト#2は右上に動いているものとする。オブジェクト#1のみが含まれる符号化対象CUの左側に位置する隣接CU#1に対するインター予測では、オブジェクト#1の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。符号化対象CUは、オブジェクト#1及びオブジェクト#2の両方を含むオブジェクト境界に位置するが、多くの領域をオブジェクト#1が占めることから、左側に隣接する隣接CU#1の動きベクトル(MV#2)と同様の動きベクトル(MV#1)が符号化対象CUに適用される可能性が高い。   In the example of the conventional video encoding method shown in FIG. 1, it is assumed that object # 1 is moving to the upper left and object # 2 is moving to the upper right. In the inter prediction for the adjacent CU # 1 located on the left side of the encoding target CU including only the object # 1, it is highly likely that the same motion vector (MV # 3) as the motion of the object # 1 is applied. The encoding target CU is located at the object boundary including both the object # 1 and the object # 2, but since the object # 1 occupies a large area, the motion vector (MV #) of the adjacent CU # 1 adjacent on the left side It is highly likely that the same motion vector (MV # 1) as in 2) is applied to the coding target CU.

隣り合うCU同士の動きベクトルが同様である場合には、CUの境界領域の動きの連続性は高く、予測精度は高くなる可能性が高い。一方、図1の符号化対象CUの上側に隣接するCU#2はオブジェクト#2を多く含むことから、オブジェクト#2の動きと同様の動きベクトル(MV#3)が適用される可能性が高い。すなわち、符号化対象CUに適用する動きベクトル(MV#1)とCU#1に適用する動きベクトル(MV#3)は大きく異なる可能性が高い。このような隣り合うCU同士の動きベクトルが大きく異なる場合には、これらのCUのどちらか少なくとも一方にオブジェクト境界が含まれる可能性が高い。   When the motion vectors of adjacent CUs are the same, the continuity of motion in the boundary area of the CU is high, and the prediction accuracy is likely to be high. On the other hand, since CU # 2 adjacent to the encoding target CU in FIG. 1 includes many objects # 2, there is a high possibility that the same motion vector (MV # 3) as the motion of object # 2 will be applied. . That is, there is a high possibility that the motion vector (MV # 1) applied to the coding target CU and the motion vector (MV # 3) applied to CU # 1 are significantly different. When the motion vectors of adjacent CUs are significantly different, it is highly possible that at least one of these CUs includes an object boundary.

Recommendation ITU−T H.265,(12/2016), “High efficiency video coding”, International Telecommunication UnionRecommendation ITU-TH. 265, (12/2016), “High efficiency video coding”, International Telecommunication Union

オブジェクト境界における動きベクトルの不連続性は予測精度の低下を招き、符号化効率が低下してしまう問題がある。HEVCでは、この問題を解決するため、ループフィルタにおいて、符号化対象CUに適用した動きベクトルと隣接ブロックに適用した動きベクトルとの差が予め規定した値より大きいか否かに応じて、ブロック歪を除去するデブロッキングフィルタを適用するか否かを制御する手法が導入されている。   The discontinuity of the motion vector at the object boundary causes a problem that the prediction accuracy is reduced and the coding efficiency is reduced. In HEVC, in order to solve this problem, in a loop filter, block distortion is determined according to whether a difference between a motion vector applied to an encoding target CU and a motion vector applied to an adjacent block is larger than a predetermined value. A technique has been introduced to control whether or not to apply a deblocking filter for removing.

しかしながら、予測(インター予測)においては、上記の動きベクトルの不連続性にかかわらず同一の処理が適用されているため、直交変換係数の伝送に必要な情報量がオブジェクト境界付近のブロックで増大し、符号化効率が低下してしまう問題がある。   However, in prediction (inter prediction), since the same processing is applied regardless of the discontinuity of the motion vector, the amount of information necessary for transmitting orthogonal transform coefficients increases in blocks near the object boundary. However, there is a problem that the coding efficiency is reduced.

そこで、本発明は、インター予測を行う場合において符号化効率を向上させることが可能な予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a predicted image correction device, an image encoding device, an image decoding device, and a program that can improve encoding efficiency when performing inter prediction.

第1の特徴に係る予測画像補正装置は、画像を構成するブロックごとにインター予測をして得られた予測画像を補正する予測画像補正装置であって、前記インター予測が行われた対象ブロックに適用された動きベクトルと、前記対象ブロックに隣接する復号済みの1又は複数の隣接ブロックに適用された動きベクトルとの比較により、前記1又は複数の隣接ブロックについて前記対象ブロックとの動きの連続性を評価する連続性評価部と、前記連続性評価部により評価された前記連続性が予め定めた値よりも低い隣接ブロックが存在する場合に、前記連続性が予め定めた値よりも低い隣接ブロックの復号画像のうち前記対象ブロックとの境界領域の復号画像を用いて、前記対象ブロックの予測画像のうち前記連続性が予め定めた値よりも低い隣接ブロックとの境界領域の予測画像を補正する補正部とを備えることを要旨とする。   A predicted image correction device according to a first feature is a predicted image correction device that corrects a predicted image obtained by performing inter prediction for each block that forms an image, wherein a target block on which the inter prediction is performed is By comparing the applied motion vector with a motion vector applied to one or more decoded neighboring blocks adjacent to the current block, the continuity of motion of the one or more neighboring blocks with the current block is compared. And a continuity evaluation unit that evaluates, when there is an adjacent block in which the continuity evaluated by the continuity evaluation unit is lower than a predetermined value, the adjacent block in which the continuity is lower than a predetermined value The continuity of the predicted image of the target block is lower than a predetermined value using the decoded image of the boundary region with the target block in the decoded images Prediction image of the boundary region between the contact block and summarized in that and a correcting unit for correcting the.

第2の特徴に係る画像符号化装置は、インター予測を行うインター予測部と、第1の特徴に係る予測画像補正装置とを備えることを要旨とする。   The gist of the image encoding device according to the second feature is to include an inter prediction unit that performs inter prediction and a predicted image correction device according to the first feature.

第3の特徴に係る画像復号装置は、インター予測を行うインター予測部と、第1の特徴に係る予測画像補正装置とを備えることを要旨とする。   The gist of the image decoding device according to the third feature is to include an inter prediction unit that performs inter prediction and a predicted image correction device according to the first feature.

第4の特徴に係るプログラムは、コンピュータを第1の特徴に係る予測画像補正装置として機能させることを要旨とする。   The gist of the program according to the fourth feature is to cause a computer to function as the predicted image correction device according to the first feature.

本発明によれば、インター予測を行う場合において符号化効率を向上させることが可能な予測画像補正装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。   According to the present invention, it is possible to provide a predicted image correction device, an image encoding device, an image decoding device, and a program capable of improving encoding efficiency when performing inter prediction.

背景技術を説明するための図である。It is a figure for explaining background art. 実施形態に係る画像符号化装置の構成を示す図である。It is a figure showing the composition of the picture coding device concerning an embodiment. 実施形態に係る画像符号化装置における予測画像補正部の構成を示す図である。It is a figure showing the composition of the prediction picture amendment part in the picture coding device concerning an embodiment. 実施形態に係る予測画像補正部の動作を説明するための図である。FIG. 5 is a diagram for explaining an operation of a predicted image correction unit according to the embodiment. 実施形態に係る予測画像補正部における連続性評価部の動作を説明するための図である。It is a figure for explaining operation of a continuity evaluation part in a prediction picture amendment part concerning an embodiment. 実施形態に係る予測画像補正部における補正部の動作を説明するための図である。FIG. 5 is a diagram for explaining an operation of a correction unit in the predicted image correction unit according to the embodiment. 実施形態に係る予測画像補正部における補正部の動作の具体例を説明するための図である。FIG. 7 is a diagram for describing a specific example of the operation of the correction unit in the predicted image correction unit according to the embodiment. 実施形態に係る画像符号化装置における予測画像補正部の動作を示す図である。It is a figure showing operation of a prediction picture amendment part in an image coding device concerning an embodiment. 実施形態に係る画像復号装置の構成を示す図である。It is a figure showing the composition of the picture decoding device concerning an embodiment. 実施形態に係る画像復号装置の予測画像補正部の構成を示す図である。It is a figure showing the composition of the prediction picture amendment part of the picture decoding device concerning an embodiment. 変更例に係る動作を説明するための図である。FIG. 11 is a diagram for explaining an operation according to a modification. 変更例に係る予測画像補正部の構成を示す図である。It is a figure showing composition of a prediction picture amendment part concerning a modification. 変更例に係る予測画像補正部における残差エネルギー算出部の動作を説明するための図である。It is a figure for explaining operation of a residual energy calculation part in a prediction picture amendment part concerning a modification. 変更例に係る予測画像補正部における補正部の動作を説明するための図である。It is a figure for explaining operation of a correction part in a prediction picture correction part concerning a modification. その他の実施形態に係る動作を説明するための図である。FIG. 11 is a diagram for explaining an operation according to another embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。   An image encoding device and an image decoding device according to an embodiment will be described with reference to the drawings. The image encoding device and the image decoding device according to the embodiment respectively encode and decode a moving image represented by MPEG. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<画像符号化装置>
まず、本実施形態に係る画像符号化装置について説明する。図2は、本実施形態に係る画像符号化装置1の構成を示す図である。
<Image coding device>
First, an image encoding device according to the present embodiment will be described. FIG. 2 is a diagram illustrating a configuration of the image encoding device 1 according to the present embodiment.

図2に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ部160と、予測部170とを備える。   As illustrated in FIG. 2, the image encoding device 1 includes a block division unit 100, a subtraction unit 110, a transformation / quantization unit 120, an entropy encoding unit 130, an inverse quantization / inverse transformation unit 140, It includes a synthesizing unit 150, a memory unit 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像を複数のブロックに分割し、分割により得たブロックを減算部110に出力する。ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。ブロックの形状は正方形に限らず、長方形であってもよい。ブロックは、画像符号化装置1が符号化を行う単位及び画像復号装置が復号を行う単位である。以下において、かかるブロックをCU(Coding Unit)と称する。   The block division unit 100 divides an input image in units of frames (or pictures) constituting a moving image into a plurality of blocks, and outputs the blocks obtained by the division to the subtraction unit 110. The size of the block is, for example, 32 × 32 pixels, 16 × 16 pixels, 8 × 8 pixels, or 4 × 4 pixels. The shape of the block is not limited to a square, but may be a rectangle. A block is a unit in which the image encoding device 1 performs encoding and a unit in which the image decoding device performs decoding. Hereinafter, such a block is referred to as a CU (Coding Unit).

減算部110は、ブロック分割部100から入力された符号化対象CUと、符号化対象CUを予測部170が予測して得た予測画像との差分(誤差)を表す予測残差を算出する。具体的には、減算部110は、CUの各画素値から予測画像の各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。   The subtraction unit 110 calculates a prediction residual indicating a difference (error) between the coding target CU input from the block dividing unit 100 and a prediction image obtained by the prediction unit 170 predicting the coding target CU. Specifically, the subtraction unit 110 calculates a prediction residual by subtracting each pixel value of the prediction image from each pixel value of the CU, and outputs the calculated prediction residual to the transform / quantization unit 120.

変換・量子化部120は、CU単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを備える。   The transform / quantization unit 120 performs an orthogonal transform process and a quantization process on a CU basis. The conversion / quantization unit 120 includes a conversion unit 121 and a quantization unit 122.

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen Loeve Transform)等をいう。   Transform section 121 performs orthogonal transform processing on the prediction residual input from subtraction section 110 to calculate an orthogonal transform coefficient, and outputs the calculated orthogonal transform coefficient to quantization section 122. The orthogonal transform refers to, for example, a discrete cosine transform (DCT), a discrete sine transform (DST), a Karhunen Lobe transform (KLT), or the like.

量子化部122は、変換部121から入力された直交変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、CU内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化値を要素として有する行列である。   The quantization unit 122 quantizes the orthogonal transform coefficient input from the transform unit 121 using a quantization parameter (Qp) and a quantization matrix, and quantizes the quantized orthogonal transform coefficient into the entropy encoding unit 130 and the inverse quantization / Output to the inverse transform unit 140. Note that the quantization parameter (Qp) is a parameter commonly applied to each orthogonal transform coefficient in the CU, and is a parameter that determines the roughness of quantization. The quantization matrix is a matrix having, as elements, a quantization value when quantizing each orthogonal transform coefficient.

エントロピー符号化部130は、量子化部122から入力された直交変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化ストリーム(ビットストリーム)を生成し、符号化ストリームを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context−based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関する制御情報が入力され、入力された制御情報のエントロピー符号化も行う。   The entropy coding unit 130 performs entropy coding on the orthogonal transform coefficients input from the quantization unit 122, performs data compression to generate a coded stream (bit stream), and performs image coding on the coded stream. Output to the outside of the device 1. For the entropy coding, Huffman coding, CABAC (Context-based Adaptive Binary Arithmetic Coding; context adaptive binary arithmetic coding), or the like can be used. Note that the entropy coding unit 130 receives control information related to prediction from the prediction unit 170, and also performs entropy coding of the input control information.

逆量子化・逆変換部140は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを備える。   The inverse quantization / inverse transforming unit 140 performs an inverse quantization process and an inverse orthogonal transform process on a CU basis. The inverse quantization / inverse transformation unit 140 includes an inverse quantization unit 141 and an inverse transformation unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から入力された直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を復元し、復元した直交変換係数を逆変換部142に出力する。   The inverse quantization unit 141 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122. Specifically, the inverse quantization unit 141 restores the orthogonal transform coefficient by inversely quantizing the orthogonal transform coefficient input from the quantization unit 122 using the quantization parameter (Qp) and the quantization matrix. , And outputs the restored orthogonal transform coefficients to the inverse transform unit 142.

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。   The inverse transform unit 142 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121. For example, when the transform unit 121 performs the discrete cosine transform, the inverse transform unit 142 performs the inverse discrete cosine transform. The inverse transform unit 142 performs an inverse orthogonal transform process on the orthogonal transform coefficient input from the inverse quantization unit 141 to restore the prediction residual, and combines the restored prediction residual that is the restored prediction residual with the synthesis unit 150. Output to

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予測画像の各画素値を加算して符号化対象CUを再構成(復号)し、復号したCU単位の復号画像をメモリ部160に出力する。かかる復号画像は、再構成画像と称されることがある。   The combining unit 150 combines the restored prediction residual input from the inverse transform unit 142 with the predicted image input from the prediction unit 170 in pixel units. The combining unit 150 reconstructs (decodes) the CU to be encoded by adding each pixel value of the restored prediction residual and each pixel value of the predicted image, and outputs the decoded CU unit decoded image to the memory unit 160. . Such a decoded image may be called a reconstructed image.

メモリ部160は、合成部150から入力された復号画像を記憶する。メモリ部160は、復号画像をフレーム単位で記憶する。メモリ部160は、記憶している復号画像を予測部170に出力する。さらに、メモリ部160は、インター予測部172において算出された動きベクトルをCUごとに記憶する。なお、メモリ部160は、複数のメモリにより構成されてもよい。また、合成部150とメモリ部160との間にループフィルタが設けられてもよい。   The memory unit 160 stores the decoded image input from the combining unit 150. The memory unit 160 stores the decoded image in frame units. The memory unit 160 outputs the stored decoded image to the prediction unit 170. Further, the memory unit 160 stores the motion vector calculated by the inter prediction unit 172 for each CU. Note that the memory unit 160 may be configured by a plurality of memories. Further, a loop filter may be provided between the combining unit 150 and the memory unit 160.

予測部170は、CU単位で予測を行う。予測部170は、イントラ予測部171と、インター予測部172と、予測画像補正部173と、切替部174とを備える。予測画像補正部173は、予測画像補正装置に相当する。   The prediction unit 170 performs prediction on a CU basis. The prediction unit 170 includes an intra prediction unit 171, an inter prediction unit 172, a predicted image correction unit 173, and a switching unit 174. The predicted image correction unit 173 corresponds to a predicted image correction device.

イントラ予測部171は、メモリ部160に記憶された復号画像のうち、符号化対象CUの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予測画像を切替部174に出力する。また、イントラ予測部171は、複数のイントラ予測モードの中から、対象CUに適用する最適なイントラ予測モードを選択し、選択したイントラ予測モードを用いてイントラ予測を行う。イントラ予測部171は、選択したイントラ予測モードに関する制御情報をエントロピー符号化部130に出力する。   The intra prediction unit 171 generates an intra prediction image by referring to decoded pixel values around the encoding target CU among the decoded images stored in the memory unit 160, and sends the generated intra prediction image to the switching unit 174. Output. In addition, the intra prediction unit 171 selects an optimal intra prediction mode to be applied to the target CU from a plurality of intra prediction modes, and performs intra prediction using the selected intra prediction mode. Intra prediction section 171 outputs control information on the selected intra prediction mode to entropy encoding section 130.

インター予測部172は、メモリ部160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、符号化対象CUを予測してインター予測画像を生成し、生成したインター予測画像を当該動きベクトルと共に予測画像補正部173に出力する。また、インター予測部172は、CUごとに算出した動きベクトルをメモリ部160に出力し、当該動きベクトルをメモリ部160に記憶させる。インター予測部172は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部172は、インター予測に関する制御情報(動きベクトル等)をエントロピー符号化部130に出力する。   The inter prediction unit 172 calculates a motion vector by a method such as block matching using the decoded image stored in the memory unit 160 as a reference image, generates an inter prediction image by predicting a coding target CU, and generates an inter prediction image. The predicted inter prediction image is output to the predicted image correction unit 173 together with the motion vector. Further, the inter prediction unit 172 outputs the motion vector calculated for each CU to the memory unit 160, and stores the motion vector in the memory unit 160. The inter prediction unit 172 selects an optimal inter prediction method from inter prediction (typically, bi-prediction) using a plurality of reference images and inter prediction (unidirectional prediction) using one reference image, Inter prediction is performed using the selected inter prediction method. The inter prediction unit 172 outputs control information (such as a motion vector) related to inter prediction to the entropy coding unit 130.

予測画像補正部173は、インター予測部172から入力されたインター予測画像を補正し、補正後のインター予測画像を切替部174に出力する。具体的には、予測画像補正部173は、符号化対象CUに適用された動きベクトルをインター予測部172から取得し、符号化対象CUに隣接する復号済みのブロック群の動きベクトル及び復号済みのブロック群の符号化対象CUとの境界領域の復号画像をメモリ部160から取得し、取得した情報に基づいて符号化対象CUのインター予測画像を補正する。予測画像補正部173の詳細については後述する。   The predicted image correction unit 173 corrects the inter predicted image input from the inter prediction unit 172, and outputs the corrected inter predicted image to the switching unit 174. Specifically, the predicted image correction unit 173 acquires the motion vector applied to the encoding target CU from the inter prediction unit 172, and calculates the motion vector of the decoded block group adjacent to the encoding target CU and the decoded vector. The decoded image of the boundary area between the block group and the encoding target CU is acquired from the memory unit 160, and the inter prediction image of the encoding target CU is corrected based on the acquired information. Details of the predicted image correction unit 173 will be described later.

切替部174は、イントラ予測部171から入力されるイントラ予測画像と予測画像補正部173から入力されるインター予測画像とを切り替えて、いずれかの予測画像を減算部110及び合成部150に出力する。   The switching unit 174 switches between the intra prediction image input from the intra prediction unit 171 and the inter prediction image input from the prediction image correction unit 173, and outputs one of the prediction images to the subtraction unit 110 and the synthesis unit 150. .

次に、予測画像補正部173について説明する。図3は、画像符号化装置1の予測画像補正部173の構成を示す図である。   Next, the predicted image correction unit 173 will be described. FIG. 3 is a diagram illustrating a configuration of the predicted image correction unit 173 of the image encoding device 1.

図3に示すように、予測画像補正部173は、連続性評価部173aと、補正部173bとを備える。   As shown in FIG. 3, the predicted image correction unit 173 includes a continuity evaluation unit 173a and a correction unit 173b.

連続性評価部173aは、符号化対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルをメモリ部160から取得する。例えば、図4に示すように、符号化対象CUに隣接する復号済みのCU#1乃至CU#7が復号済みCU群に含まれる場合、連続性評価部173aは、CU#1乃至CU#7のそれぞれについてインター予測に適用された動きベクトルを取得する。   The continuity evaluation unit 173a acquires, from the memory unit 160, a motion vector applied to one or a plurality of decoded adjacent CUs adjacent to the encoding target CU. For example, as illustrated in FIG. 4, when the decoded CU # 1 to CU # 7 adjacent to the encoding target CU are included in the decoded CU group, the continuity evaluation unit 173a sets the CU # 1 to CU # 7 , And obtain a motion vector applied to inter prediction.

なお、図4において、連続性評価部173aは、符号化対象CUの上側及び左側に隣接する復号済みCUの動きベクトルを取得しているが、右側や下側のCUが復号済みである場合には、右側や下側のCUに適用した動きベクトルをさらに取得してもよい。   In FIG. 4, the continuity evaluation unit 173a obtains the motion vectors of the decoded CUs adjacent to the upper side and the left side of the encoding target CU, but when the right and lower CUs are already decoded. May further acquire a motion vector applied to the right or lower CU.

そして、連続性評価部173aは、符号化対象CUに適用された動きベクトルと、隣接する復号済みCU群に適用された動きベクトルとの比較により、隣接する復号済みCU群について符号化対象CUとの動きの連続性を評価し、評価結果を補正部173bに出力する。   Then, the continuity evaluation unit 173a compares the motion vector applied to the encoding target CU with the motion vector applied to the adjacent decoded CU group, and determines the adjacent decoded CU group as the encoding target CU. Is evaluated, and the evaluation result is output to the correction unit 173b.

具体的には、連続性評価部173aは、符号化対象CUに適用されるベクトルと復号済みCUの動きベクトルとのL1ノルムが予め規定した閾値未満である場合には連続性が高いと評価する。一方、当該L1ノルムが閾値以上である場合には連続性が低いと評価する。但し、連続性の指標値としてはL1ノルムに限定されるものではなく、他の指標値を用いてもよい。   Specifically, the continuity evaluation unit 173a evaluates that continuity is high when the L1 norm between the vector applied to the encoding target CU and the motion vector of the decoded CU is less than a predetermined threshold. . On the other hand, when the L1 norm is equal to or larger than the threshold, it is evaluated that the continuity is low. However, the index value of continuity is not limited to the L1 norm, and another index value may be used.

例えば、図5に示すように、連続性評価部173aは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のそれぞれの動きベクトルについて、符号化対象CUの動きベクトルとの差(距離)を表すL1ノルムを算出し、CU#1乃至CU#7のそれぞれについて算出したL1ノルムを閾値と比較する。   For example, as illustrated in FIG. 5, the continuity evaluation unit 173a determines the difference between the motion vector of each of the decoded CU # 1 to CU # 7 adjacent to the current CU and the motion vector of the current CU. An L1 norm representing (distance) is calculated, and the L1 norm calculated for each of CU # 1 to CU # 7 is compared with a threshold.

図5に示す例において、CU#1に対応するL1ノルム、CU#2に対応するL1ノルム、CU#3に対応するL1ノルム、CU#4に対応するL1ノルム、及びCU#5に対応するL1ノルムは、閾値以上であるため、これらの隣接CUは符号化対象CUとの連続性が低いということになる。一方、CU#6に対応するL1ノルム及びCU#7に対応するL1ノルムは、閾値未満であるため、これらの隣接CUは符号化対象CUとの連続性が高いということになる。なお、CU#1乃至CU#7のいずれも連続性が高いと評価された場合、補正部173bによる符号化対象CUのインター予測画像の補正を省略してもよい。   In the example shown in FIG. 5, the L1 norm corresponding to CU # 1, the L1 norm corresponding to CU # 2, the L1 norm corresponding to CU # 3, the L1 norm corresponding to CU # 4, and CU # 5 Since the L1 norm is equal to or larger than the threshold value, it means that these adjacent CUs have low continuity with the coding target CU. On the other hand, since the L1 norm corresponding to CU # 6 and the L1 norm corresponding to CU # 7 are smaller than the threshold value, these adjacent CUs have high continuity with the CU to be encoded. When all of CU # 1 to CU # 7 are evaluated as having high continuity, the correction of the inter prediction image of the encoding target CU by the correction unit 173b may be omitted.

本実施形態において、動きベクトルは、X軸及びY軸方向のベクトル値のほか、参照する復号済みフレームを示すフラグ(例えば、HEVCにおけるinter_pred_idc,ref_idx)を含むものとする。連続性評価部173aは、隣接ブロックとの動きベクトルの連続性の評価にあたっては、符号化対象CUを含むフレーム(現フレーム)と符号化対象CUの参照先の復号済みフレームとの時間的な距離(POC距離)と、現フレームと隣接する復号済みCUの参照先の復号済みフレームとのPOC距離とに応じて、当該隣接する復号済みCUに適用した動きベクトルのベクトル値をスケーリングしたのちに連続性を評価してもよい。   In the present embodiment, it is assumed that the motion vector includes, in addition to the vector values in the X-axis and Y-axis directions, flags (for example, inter_pred_idc and ref_idx in HEVC) indicating the decoded frame to be referred to. When evaluating the continuity of the motion vector with the adjacent block, the continuity evaluation unit 173a sets a temporal distance between the frame including the encoding target CU (current frame) and the decoded frame referred to by the encoding target CU. (POC distance) and the POC distance between the current frame and the decoded frame of the reference destination of the adjacent decoded CU, and then successively scales the vector value of the motion vector applied to the adjacent decoded CU. Sex may be evaluated.

補正部173bは、符号化対象CUのインター予測画像を補正するために、符号化対象CUに隣接する復号済みCU群の復号画像のうち、少なくとも符号化対象CUとの境界領域の復号画像をメモリ部160から取得する。   The correction unit 173b stores at least a decoded image of a boundary area between the CU to be encoded and a decoded image of a group of decoded CUs adjacent to the CU to be encoded, in order to correct the inter prediction image of the CU to be encoded. Obtained from the unit 160.

例えば、図4に示すように、補正部173bは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のそれぞれの復号画像のうち、符号化対象CUとの境界領域の復号画像をメモリ部160から取得する。   For example, as illustrated in FIG. 4, among the decoded images of the CU # 1 to CU # 7 that have been decoded and are adjacent to the coding target CU, the correction unit 173b decodes the decoded image of the boundary area with the coding target CU. From the memory unit 160.

なお、符号化対象CUとの境界領域とは、符号化対象CUに隣接する復号済み画素を含む領域をいうが、符号化対象CUからN画素(N>1)までの復号済み画素からなる領域を境界領域としてもよい。   Note that the boundary area with the encoding target CU refers to an area including decoded pixels adjacent to the encoding target CU, and an area including decoded pixels from the encoding target CU to N pixels (N> 1). May be used as the boundary region.

また、図4に示す例において、補正部173bは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のすべてについて境界領域の復号画像を取得せずに、CU#1乃至CU#7のうち連続性評価部173aにより連続性が低いと評価されたCU#1乃至CU#5(図5参照)のみについて境界領域の復号画像を取得してもよい。   Further, in the example illustrated in FIG. 4, the correction unit 173b does not acquire the decoded images of the boundary areas for all of the decoded CUs # 1 to CU # 7 adjacent to the coding target CU, and the CU # 1 to the CU # 1. The decoded image of the boundary area may be obtained only for CU # 1 to CU # 5 (see FIG. 5) evaluated as having low continuity by the continuity evaluation unit 173a among # 7.

そして、補正部173bは、連続性評価部173aにより連続性が低いと評価された隣接CU(所定隣接ブロック)が存在する場合に、当該隣接CUの復号画像のうち少なくとも符号化対象CUとの境界領域の復号画像を用いて、符号化対象CUのインター予測画像のうち少なくとも当該隣接CUとの境界領域の予測画像を補正する。   Then, when there is an adjacent CU (predetermined adjacent block) evaluated as having low continuity by the continuity evaluation unit 173a, the correction unit 173b determines at least a boundary between the decoded image of the adjacent CU and the coding target CU. Using the decoded image of the area, at least the predicted image of the boundary area with the adjacent CU among the inter-predicted images of the coding target CU is corrected.

具体的には、補正部173bは、連続性評価部173aにおいて連続性が低いと評価された隣接CUと符号化対象CUとのブロック境界について、符号化対象CUの予測画像を当該隣接CUの復号画像の値を用いて補正する。例えば、図6に示すように、補正部173bは、連続性評価部173aにおいて連続性が低いと評価された隣接CU#1乃至CU#5と符号化対象CUとのブロック境界について、符号化対象CUのインター予測画像を当該隣接CU#1乃至CU#5の復号画像の値を用いて補正する。   Specifically, the correction unit 173b decodes the predicted image of the coding target CU with respect to the block boundary between the neighboring CU evaluated as having low continuity and the coding target CU by the continuity evaluating unit 173a. Correction is made using the value of the image. For example, as illustrated in FIG. 6, the correction unit 173b determines the encoding target CU with respect to the block boundary between the adjacent CU # 1 to CU # 5 evaluated as having low continuity by the continuity evaluation unit 173a and the encoding target CU. The inter prediction image of the CU is corrected using the values of the decoded images of the adjacent CU # 1 to CU # 5.

ここで、補正部173bによる補正の方法の具体例について説明する。符号化対象CU(幅M、高さN)に適用する動きベクトルを用いて生成したインター予測画像をpred[i,j](i=0…M−1,j=0…N−1)とし、隣接する復号済みCUの復号画像をrec[i,j](i=−1,j=−1…N及びi=−1…M,j=−1)とするとき、補正部173bは、図7に示す式により補正後のインター予測画像pred’[i,j]を算出する。   Here, a specific example of the correction method by the correction unit 173b will be described. The inter prediction image generated using the motion vector applied to the encoding target CU (width M, height N) is pred [i, j] (i = 0... M-1, j = 0... N-1). When the decoded image of the adjacent decoded CU is rec [i, j] (i = -1, j = −1... N and i = −1... M, j = −1), the correction unit 173b The corrected inter prediction image pred '[i, j] is calculated by the equation shown in FIG.

図7(a)は符号化対象CUのインター予測画像の左側のブロック境界領域を補正する例を示し、図7(b)は符号化対象CUのインター予測画像の上側のブロック境界領域を補正する例を示し、図7(c)は符号化対象CUのインター予測画像の左上の角のブロック境界領域を補正する例を示している。インター予測画像において、ブロック境界から2画素までをブロック境界領域として補正しているが、ブロック境界からM画素(M≧3)までをブロック境界領域として補正してもよい。   FIG. 7A illustrates an example of correcting the left block boundary region of the inter prediction image of the encoding target CU, and FIG. 7B illustrates correcting the upper block boundary region of the inter prediction image of the encoding target CU. FIG. 7C shows an example in which the block boundary area at the upper left corner of the inter prediction image of the coding target CU is corrected. In the inter prediction image, up to two pixels from the block boundary are corrected as a block boundary region, but up to M pixels (M ≧ 3) from the block boundary may be corrected as a block boundary region.

このようにして符号化対象CUのインター予測画像を補正すると、補正部173bは、補正後のインター予測画像を、切替部174を介して減算部110及び合成部150に出力する。   When the inter prediction image of the encoding target CU is corrected in this way, the correction unit 173b outputs the corrected inter prediction image to the subtraction unit 110 and the synthesis unit 150 via the switching unit 174.

次に、予測画像補正部173の動作について説明する。図8は、画像符号化装置1の予測画像補正部173の動作を示す図である。   Next, the operation of the predicted image correction unit 173 will be described. FIG. 8 is a diagram illustrating the operation of the predicted image correction unit 173 of the image encoding device 1.

図8に示すように、ステップS101において、連続性評価部173aは、インター予測が行われた符号化対象CUに適用された動きベクトルと、復号済みの隣接ブロックに適用された動きベクトルとの比較により、隣接ブロックについて符号化対象CUとの動きの連続性を評価する。   As shown in FIG. 8, in step S101, the continuity evaluation unit 173a compares the motion vector applied to the coding target CU on which inter prediction has been performed with the motion vector applied to the decoded adjacent block. Evaluates the continuity of the motion between the neighboring block and the coding target CU.

連続性評価部173aにより評価された連続性が所定値よりも低い所定隣接ブロックが存在する場合(ステップS102:YES)、ステップS103において、補正部173bは、所定隣接ブロックの復号画像のうち少なくとも符号化対象CUとの境界領域の復号画像を用いて、符号化対象CUの予測画像のうち少なくとも所定隣接ブロックとの境界領域の予測画像を補正する。   When there is a predetermined adjacent block whose continuity evaluated by the continuity evaluation unit 173a is lower than the predetermined value (step S102: YES), in step S103, the correction unit 173b determines at least the code of the decoded image of the predetermined adjacent block. Using the decoded image of the boundary region with the coding target CU, the prediction image of the boundary region with at least a predetermined adjacent block in the prediction image of the coding target CU is corrected.

このように、予測画像補正部173によれば、動きベクトルの不連続性を考慮して予測画像を補正することにより、オブジェクト境界付近のブロックについて直交変換係数の伝送に必要な情報量を低減できるため、インター予測を行う場合における符号化効率を向上させることができる。   As described above, according to the predicted image correction unit 173, by correcting the predicted image in consideration of the discontinuity of the motion vector, it is possible to reduce the amount of information necessary for transmitting the orthogonal transform coefficient for the block near the object boundary. Therefore, it is possible to improve coding efficiency when performing inter prediction.

<画像復号装置>
次に、本実施形態に係る画像復号装置について説明する。但し、上記の画像符号化装置1と同様な動作については重複する説明を省略する。図9は、本実施形態に係る画像復号装置2の構成を示す図である。
<Image decoding device>
Next, the image decoding device according to the present embodiment will be described. However, for the same operations as those of the image encoding device 1 described above, redundant description will be omitted. FIG. 9 is a diagram illustrating a configuration of the image decoding device 2 according to the present embodiment.

図9に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ部230と、予測部240とを備える。   As illustrated in FIG. 9, the image decoding device 2 includes an entropy decoding unit 200, an inverse quantization / inverse transform unit 210, a combining unit 220, a memory unit 230, and a prediction unit 240.

エントロピー復号部200は、画像符号化装置1により生成された符号化ストリームを復号し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロピー復号部200は、予測(イントラ予測及びインター予測)に関する制御情報を取得し、取得した制御情報を予測部240に出力する。   The entropy decoding unit 200 decodes the encoded stream generated by the image encoding device 1 and outputs the quantized orthogonal transform coefficients to the inverse quantization / inverse transform unit 210. Further, entropy decoding section 200 acquires control information regarding prediction (intra prediction and inter prediction), and outputs the acquired control information to prediction section 240.

逆量子化・逆変換部210は、CU単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを備える。   The inverse quantization / inverse transform unit 210 performs an inverse quantization process and an inverse orthogonal transform process on a CU basis. The inverse quantization / inverse transformation unit 210 includes an inverse quantization unit 211 and an inverse transformation unit 212.

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から入力された量子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象CUの直交変換係数を復元し、復元した直交変換係数を逆変換部212に出力する。   The inverse quantization unit 211 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the image encoding device 1. The inverse quantization unit 211 inversely quantizes the quantized orthogonal transform coefficient input from the entropy decoding unit 200 using the quantization parameter (Qp) and the quantization matrix, thereby obtaining the orthogonal transform coefficient of the decoding target CU. The orthogonal transform coefficients thus restored are output to the inverse transform unit 212.

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。   The inverse transform unit 212 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121 of the image encoding device 1. The inverse transform unit 212 restores a prediction residual by performing an inverse orthogonal transform process on the orthogonal transform coefficient input from the inverse quantization unit 211, and combines the restored prediction residual (reconstructed prediction residual) with the combining unit 220. Output to

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力された予測画像とを画素単位で合成することにより、元のCUを再構成(復号)し、CU単位の復号画像をメモリ部230に出力する。   The combining unit 220 reconstructs (decodes) the original CU by combining the prediction residual input from the inverse transform unit 212 and the predicted image input from the prediction unit 240 on a pixel-by-pixel basis, and Is output to the memory unit 230.

メモリ部230は、合成部220から入力された復号画像を記憶する。メモリ部230は、復号画像をフレーム単位で記憶する。さらに、メモリ部230は、インター予測部242において算出された動きベクトルをCUごとに記憶する。メモリ部230は、フレーム単位の復号画像を画像復号装置2の外部に出力する。なお、メモリ部230は、複数のメモリにより構成されてもよい。合成部220とメモリ部230との間にループフィルタが設けられてもよい。   The memory unit 230 stores the decoded image input from the combining unit 220. The memory unit 230 stores the decoded image in frame units. Further, the memory unit 230 stores the motion vector calculated by the inter prediction unit 242 for each CU. The memory unit 230 outputs the decoded image in frame units to the outside of the image decoding device 2. Note that the memory unit 230 may be configured by a plurality of memories. A loop filter may be provided between the combining unit 220 and the memory unit 230.

予測部240は、CU単位で予測を行う。予測部240は、イントラ予測部241と、インター予測部242と、予測画像補正部243と、切替部244とを備える。予測画像補正部243は、予測画像補正装置に相当する。   The prediction unit 240 performs prediction on a CU basis. The prediction unit 240 includes an intra prediction unit 241, an inter prediction unit 242, a predicted image correction unit 243, and a switching unit 244. The predicted image correction unit 243 corresponds to a predicted image correction device.

イントラ予測部241は、メモリ部230に記憶された復号画像を参照し、エントロピー復号部200から入力された制御情報に従って、復号対象CUをイントラ予測により予測することによりイントラ予測画像を生成し、生成したイントラ予測画像を切替部244に出力する。   The intra prediction unit 241 generates an intra prediction image by referring to the decoded image stored in the memory unit 230 and predicting a decoding target CU by intra prediction according to the control information input from the entropy decoding unit 200. The switched intra prediction image is output to the switching unit 244.

インター予測部242は、メモリ部230に記憶された復号画像を参照画像として用いて、復号対象CUをインター予測により予測する。インター予測部242は、エントロピー復号部200から入力された制御情報に従ってインター予測を行うことによりインター予測画像を生成し、生成したインター予測画像を予測画像補正部243に出力する。   The inter prediction unit 242 predicts a decoding target CU by inter prediction using the decoded image stored in the memory unit 230 as a reference image. The inter prediction unit 242 generates an inter prediction image by performing inter prediction according to the control information input from the entropy decoding unit 200, and outputs the generated inter prediction image to the prediction image correction unit 243.

予測画像補正部243は、インター予測部242から入力されたインター予測画像を補正し、補正後のインター予測画像を切替部244に出力する。具体的には、予測画像補正部243は、復号対象CUに適用された動きベクトルをインター予測部242から取得し、復号対象CUに隣接する復号済みのブロック群の動きベクトル及び復号済みのブロック群の復号対象CUとの境界領域の復号画像をメモリ部230から取得し、取得した情報に基づいて復号対象CUのインター予測画像を補正する。予測画像補正部243の詳細については後述する。   The predicted image correction unit 243 corrects the inter predicted image input from the inter prediction unit 242, and outputs the corrected inter predicted image to the switching unit 244. Specifically, the predicted image correction unit 243 acquires the motion vector applied to the decoding target CU from the inter prediction unit 242, and calculates the motion vector of the decoded block group adjacent to the decoding target CU and the decoded block group. Of the CU to be decoded is acquired from the memory unit 230, and the inter prediction image of the CU to be decoded is corrected based on the acquired information. Details of the predicted image correction unit 243 will be described later.

切替部244は、イントラ予測部241から入力されるイントラ予測画像と予測画像補正部243から入力されるインター予測画像とを切り替えて、いずれかの予測画像を合成部220に出力する。   The switching unit 244 switches between the intra prediction image input from the intra prediction unit 241 and the inter prediction image input from the prediction image correction unit 243, and outputs one of the prediction images to the synthesis unit 220.

次に、予測画像補正部243について説明する。図10は、画像復号装置2の予測画像補正部243の構成を示す図である。   Next, the predicted image correction unit 243 will be described. FIG. 10 is a diagram illustrating a configuration of the predicted image correction unit 243 of the image decoding device 2.

図10に示すように、予測画像補正部243は、連続性評価部243aと、補正部243bとを備える。連続性評価部243a及び補正部243bの動作は、画像符号化装置1の連続性評価部173a及び補正部173bの動作と同様であるため、以下では連続性評価部243a及び補正部243bの動作について簡単に説明する。   As illustrated in FIG. 10, the predicted image correction unit 243 includes a continuity evaluation unit 243a and a correction unit 243b. Since the operations of the continuity evaluation unit 243a and the correction unit 243b are the same as the operations of the continuity evaluation unit 173a and the correction unit 173b of the image encoding device 1, the operations of the continuity evaluation unit 243a and the correction unit 243b will be described below. A brief description will be given.

連続性評価部243aは、復号対象CUに隣接する復号済みの1又は複数の隣接CUに適用された動きベクトルをメモリ部230から取得する。   The continuity evaluation unit 243a obtains, from the memory unit 230, a motion vector applied to one or a plurality of decoded adjacent CUs adjacent to the CU to be decoded.

そして、連続性評価部243aは、復号対象CUに適用された動きベクトルと、隣接する復号済みCU群に適用された動きベクトルとの比較により、隣接する復号済みCU群について復号対象CUとの動きの連続性を評価し、評価結果を補正部243bに出力する。   Then, the continuity evaluation unit 243a compares the motion vector applied to the decoding target CU with the motion vector applied to the adjacent decoded CU group, and determines the motion between the adjacent decoded CU group and the decoding target CU. And outputs the evaluation result to the correction unit 243b.

補正部243bは、復号対象CUのインター予測画像を補正するために、復号対象CUに隣接する復号済みCU群の復号画像のうち、少なくとも復号対象CUとの境界領域の復号画像をメモリ部230から取得する。   The correction unit 243b corrects, from the memory unit 230, at least the decoded image of the boundary region with the decoding target CU among the decoded images of the group of decoded CUs adjacent to the decoding target CU in order to correct the inter prediction image of the decoding target CU. get.

そして、補正部243bは、連続性評価部243aにより連続性が低いと評価された隣接CU(所定隣接ブロック)が存在する場合に、当該隣接CUの復号画像のうち少なくとも復号対象CUとの境界領域の復号画像を用いて、復号対象CUのインター予測画像のうち少なくとも当該隣接CUとの境界領域の予測画像を補正する。具体的には、補正部243bは、連続性評価部243aにおいて連続性が低いと評価された隣接CUと復号対象CUとのブロック境界について、復号対象CUの予測画像を当該隣接CUの復号画像の値を用いて補正する。   Then, when there is an adjacent CU (predetermined adjacent block) evaluated as having low continuity by the continuity evaluation unit 243a, the correction unit 243b determines at least a boundary region between the decoded image of the adjacent CU and the CU to be decoded. Of the inter prediction image of the decoding target CU, at least the prediction image of the boundary region with the adjacent CU is corrected using the decoding image of (i). Specifically, for the block boundary between the adjacent CU evaluated to have low continuity and the decoding target CU in the continuity evaluating unit 243a, the correction unit 243b converts the prediction image of the decoding target CU into a decoded image of the adjacent CU. Correct using the value.

このようにして復号対象CUのインター予測画像を補正すると、補正部243bは、補正後のインター予測画像を、切替部244を介して合成部220に出力する。   When the inter prediction image of the decoding target CU is corrected in this way, the correction unit 243b outputs the corrected inter prediction image to the combining unit 220 via the switching unit 244.

なお、画像復号装置2の予測画像補正部243の動作フローについては図8と同様であるが、図8に示した動作フローにおいて「符号化対象CU」を「復号対象CU」と読み替える。   Note that the operation flow of the prediction image correction unit 243 of the image decoding device 2 is the same as that of FIG. 8, but in the operation flow shown in FIG. 8, “encoding CU” is replaced with “decoding CU”.

このように、予測画像補正部243によれば、動きベクトルの不連続性を考慮して予測画像を補正することにより、インター予測を行う場合における符号化効率を向上させることができる。   As described above, according to the predicted image correction unit 243, the coding efficiency in the case of performing inter prediction can be improved by correcting the predicted image in consideration of the discontinuity of the motion vector.

<変更例>
上記の実施形態において、復号済みの隣接ブロックとの連続性の評価において、符号化対象CU(又は復号対象CU)に適用した動きベクトルと復号済みの隣接CUに適用した動きベクトルとの比較により連続性が高いか否かを評価し、連続性が低いことに応じてインター予測画像を補正していた。
<Example of change>
In the above embodiment, in the evaluation of the continuity with the decoded adjacent block, the continuity is calculated by comparing the motion vector applied to the encoding target CU (or the decoding target CU) with the motion vector applied to the decoded adjacent CU. It is evaluated whether the continuity is high and the inter prediction image is corrected in accordance with the low continuity.

しかしながら、かかる方法において、補正が適切に機能しない場合がある。例えば、図11に示すように、符号化対象CUと符号化対象CUの上側の隣接CU#2とは動きベクトルが互いに異なるため、符号化対象CUにおける上側のブロック境界領域に対して補正が行われることになる。   However, in such a method, the correction may not function properly. For example, as shown in FIG. 11, since the CU to be coded and the adjacent CU # 2 above the CU to be coded have different motion vectors, the upper block boundary region in the CU to be coded is corrected. Will be

しかしながら、オブジェクト#1及び#2のオブジェクト境界は隣接CU#2における下側のブロック境界領域に含まれている。このような場合、符号化対象CUのインター予測画像に補正を施すと、インター予測画像の劣化を引き起こす可能性がある。   However, the object boundaries of the objects # 1 and # 2 are included in the lower block boundary region of the adjacent CU # 2. In such a case, if the inter prediction image of the coding target CU is corrected, the inter prediction image may be deteriorated.

そこで、本変更例では、上記の実施形態と同様な動きベクトルの比較に加えて、復号済みの隣接ブロックにおける予測残差(残差信号)のエネルギーに応じて補正の有無を決定する。   Thus, in this modified example, in addition to the comparison of the motion vectors as in the above-described embodiment, the presence or absence of correction is determined according to the energy of the prediction residual (residual signal) in the decoded adjacent block.

図11に示す例において、オブジェクト#1及び#2のオブジェクト境界は隣接CU#2における下側のブロック境界領域に含まれているため、当該下側のブロック境界領域における予測残差のエネルギーは大きくなる可能性が高い。かかる場合、符号化対象CUのインター予測画像に対して補正を行わないようにする。一方、下側のブロック境界領域における予測残差のエネルギーが小さい場合には、符号化対象CUのインター予測画像に対して補正を行うようにする。   In the example shown in FIG. 11, since the object boundaries of objects # 1 and # 2 are included in the lower block boundary region in the adjacent CU # 2, the energy of the prediction residual in the lower block boundary region is large. Likely to be. In such a case, the correction is not performed on the inter prediction image of the encoding target CU. On the other hand, when the energy of the prediction residual in the lower block boundary area is small, the correction is performed on the inter prediction image of the coding target CU.

本変更例に係る画像符号化装置1について説明する。本変更例において、画像符号化装置1のメモリ部160は、符号化対象CUに隣接する復号済みCUの予測残差を記憶する。各ブロック処理において得られた予測残差をメモリ部160に記憶させることで、その後のブロックの処理の際に、メモリ部160に記憶された予測残差を利用できる。   An image encoding device 1 according to the present modification will be described. In the present modified example, the memory unit 160 of the image encoding device 1 stores the prediction residual of the decoded CU adjacent to the encoding target CU. By storing the prediction residual obtained in each block process in the memory unit 160, the prediction residual stored in the memory unit 160 can be used in the subsequent block processing.

メモリ部160は、減算部110が出力する予測残差を記憶してもよいし、逆変換部142が出力する予測残差を記憶してもよい。予測画像補正部173は、メモリ部160に記憶された隣接ブロックの予測残差のうち、符号化対象CUとの境界領域の予測残差を取得する。   The memory unit 160 may store the prediction residual output from the subtraction unit 110, or may store the prediction residual output from the inverse transform unit 142. The prediction image correction unit 173 acquires a prediction residual of a boundary region with the encoding target CU among prediction residuals of the adjacent block stored in the memory unit 160.

図12は、本変更例に係る予測画像補正部173の構成を示す図である。図12に示すように、本変更例に係る予測画像補正部173は、上記の実施形態と同様な連続性評価部173a及び補正部173bに加えて、残差エネルギー算出部173cを備える。   FIG. 12 is a diagram illustrating a configuration of the predicted image correction unit 173 according to the present modification. As illustrated in FIG. 12, the predicted image correction unit 173 according to the present modification includes a residual energy calculation unit 173c in addition to the continuity evaluation unit 173a and the correction unit 173b similar to the above-described embodiment.

残差エネルギー算出部173cは、符号化対象CUに隣接する復号済み隣接ブロックのブロック境界付近の予測残差をメモリ部160から取得し、取得した復号済み隣接ブロックのブロック境界付近の予測残差のエネルギーを算出し、エネルギーの算出値(隣接残差エネルギー)を補正部173bに出力する。   The residual energy calculation unit 173c acquires the prediction residual near the block boundary of the decoded adjacent block adjacent to the encoding target CU from the memory unit 160, and calculates the prediction residual around the block boundary of the acquired decoded adjacent block. The energy is calculated, and the calculated energy value (adjacent residual energy) is output to the correction unit 173b.

例えば、図13に示すように、残差エネルギー算出部173cは、符号化対象CUに隣接する復号済み隣接ブロックCU#1乃至CU#7のそれぞれのブロック境界付近の予測残差のエネルギーを算出する。エネルギーを算出する領域は符号化対象CUのブロック境界から法線方向に予め規定したライン数分とすることとする。但し、ライン数はブロックサイズに応じて可変であってもよい。   For example, as illustrated in FIG. 13, the residual energy calculation unit 173c calculates the energy of the prediction residual near each block boundary of the decoded adjacent blocks CU # 1 to CU # 7 adjacent to the coding target CU. . It is assumed that the area for calculating the energy is the number of lines defined in advance in the normal direction from the block boundary of the coding target CU. However, the number of lines may be variable according to the block size.

また、符号化対象CUの角では、水平垂直方向に規定ライン数分の領域を残差エネルギー算出の領域とする。例えば、左上の角については、符号化対象CUの左上座標を(0,0)とした場合に、(−N,−N)から(−1,−1)までの領域を残差エネルギー算出の領域とする(Nはあらかじめ規定したライン数)。   Further, at the corner of the encoding target CU, an area for a prescribed number of lines in the horizontal and vertical directions is set as an area for residual energy calculation. For example, as for the upper left corner, when the upper left coordinate of the encoding target CU is (0, 0), the region from (−N, −N) to (−1, −1) is used for the residual energy calculation. A region (N is a predetermined number of lines).

具体的には、残差エネルギー算出部173cは、算出領域内の予測残差の絶対値の平均を残差エネルギーとすることができる。但し、予測残差のエネルギーを領域ごとに算出する指標であれば、二乗和の平均など他の指標であってもかまわない。   Specifically, the residual energy calculation unit 173c can use the average of the absolute values of the prediction residuals in the calculation area as the residual energy. However, any other index, such as the average of the sum of squares, may be used as long as the index calculates the energy of the prediction residual for each region.

なお、残差エネルギー算出部173cは、符号化対象CUに隣接する復号済みのCU#1乃至CU#7のすべてについて境界領域の予測残差のエネルギーを算出せずに、CU#1乃至CU#7のうち連続性評価部173aにより連続性が低いと評価されたCU#1乃至CU#5(図5参照)のみについて境界領域の予測残差のエネルギーを算出してもよい。   Note that the residual energy calculating unit 173c does not calculate the energy of the prediction residual of the boundary region for all of the decoded CU # 1 to CU # 7 adjacent to the encoding target CU, and instead calculates the CU # 1 to CU #. 7, the energy of the prediction residual of the boundary region may be calculated for only CU # 1 to CU # 5 (see FIG. 5) evaluated as having low continuity by the continuity evaluation unit 173a.

補正部173bは、連続性評価部173aにより連続性が低いと評価された隣接ブロックのうち、残差エネルギー算出部173cにより算出されたエネルギーが予め規定した閾値よりも小さい隣接ブロックの境界領域の復号画像を用いて、符号化対象CUのインター予測画像を補正する。   The correction unit 173b decodes a boundary region of an adjacent block whose energy calculated by the residual energy calculation unit 173c is smaller than a predetermined threshold among the adjacent blocks evaluated as having low continuity by the continuity evaluation unit 173a. The inter prediction image of the encoding target CU is corrected using the image.

例えば、図14に示すように、符号化対象CUに隣接するCU#1乃至CU#7のうち連続性評価部173aによりCU#1乃至CU#5の連続性が低いと評価され、且つ、残差エネルギー算出部173cにより算出されたエネルギーが閾値よりも小さいCUがCU#1乃至CU#3であるとする。すなわち、CU#4乃至CU#7について残差エネルギー算出部173cにより算出されたエネルギーは閾値よりも大きい。   For example, as shown in FIG. 14, the continuity evaluation unit 173a evaluates that the continuity of CU # 1 to CU # 5 among the CU # 1 to CU # 7 adjacent to the encoding target CU is low, and It is assumed that CUs whose energy calculated by the difference energy calculation unit 173c is smaller than the threshold are CU # 1 to CU # 3. That is, the energy calculated by the residual energy calculation unit 173c for CU # 4 to CU # 7 is larger than the threshold.

かかる場合、補正部173bは、CU#1乃至CU#3のブロック境界領域の復号画像を用いて、符号化対象CUのインター予測画像のブロック境界領域を補正する。一方、補正部173bは、CU#4乃至CU#7のブロック境界領域の復号画像を符号化対象CUのインター予測画像の補正に用いない。   In such a case, the correction unit 173b corrects the block boundary region of the inter prediction image of the coding target CU using the decoded images of the block boundary regions of CU # 1 to CU # 3. On the other hand, the correction unit 173b does not use the decoded image in the block boundary area of CU # 4 to CU # 7 for correcting the inter prediction image of the coding target CU.

なお、本変更例においては画像符号化装置1を例に挙げて説明したが、本変更例に係る動作を画像復号装置2にも適用可能である。   Note that, in the present modification, the image encoding device 1 has been described as an example, but the operation according to the present modification is also applicable to the image decoding device 2.

<その他の実施形態>
上記の実施形態及び変更例において、符号化対象CU(又は復号対象CU)が複数の小領域に分割される場合について特に考慮していなかった。しかしながら、符号化対象CU(又は復号対象CU)が複数の小領域に分割される場合にも本発明を適用可能である。
<Other embodiments>
In the above embodiments and modified examples, the case where the encoding target CU (or the decoding target CU) is divided into a plurality of small regions is not particularly considered. However, the present invention is also applicable when the encoding target CU (or decoding target CU) is divided into a plurality of small areas.

例えば、図15に示すように、符号化対象CUの内部を小領域に分割し、小領域ごとに異なる動きベクトルを適用できる場合、連続性評価部173aは、隣接する復号済みCUに最も近い位置の小領域に適用した動きベクトルと当該隣接する復号済みCUに適用した動きベクトルとの動きの連続性を評価する。   For example, as illustrated in FIG. 15, when the inside of the encoding target CU is divided into small regions and different motion vectors can be applied to each small region, the continuity evaluation unit 173a determines the position closest to the adjacent decoded CU. The continuity of the motion between the motion vector applied to the small region and the motion vector applied to the adjacent decoded CU is evaluated.

画像符号化装置1が行う各処理をコンピュータに実行させるプログラム及び画像復号装置2が行う各処理をコンピュータに実行させるプログラムにより提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD−ROMやDVD−ROM等の記録媒体であってもよい。   A program that causes a computer to execute each process performed by the image encoding device 1 and a program that causes a computer to execute each process performed by the image decoding device 2 may be provided. Further, the program may be recorded on a computer-readable medium. With a computer readable medium, it is possible to install the program on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

また、画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)として構成してもよい。同様に、画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)として構成してもよい。   Further, a circuit for executing each processing performed by the image encoding device 1 may be integrated, and the image encoding device 1 may be configured as a semiconductor integrated circuit (chip set, SoC). Similarly, a circuit for executing each processing performed by the image decoding device 2 may be integrated, and the image decoding device 2 may be configured as a semiconductor integrated circuit (chip set, SoC).

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiments have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the gist.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ部
170 :予測部
171 :イントラ予測部
172 :インター予測部
173 :予測画像補正部
173a :連続性評価部
173b :補正部
173c :残差エネルギー算出部
174 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ部
240 :予測部
241 :イントラ予測部
242 :インター予測部
243 :予測画像補正部
243a :連続性評価部
243b :補正部
244 :切替部
1: Image encoding device 2: Image decoding device 100: Block dividing unit 110: Subtraction unit 120: Transform / quantization unit 121: Transform unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization / inverse transformation Unit 141: inverse quantization unit 142: inverse transformation unit 150: combining unit 160: memory unit 170: prediction unit 171: intra prediction unit 172: inter prediction unit 173: predicted image correction unit 173a: continuity evaluation unit 173b: correction unit 173c: residual energy calculation unit 174: switching unit 200: entropy decoding unit 210: inverse quantization / inverse transformation unit 211: inverse quantization unit 212: inverse transformation unit 220: combining unit 230: memory unit 240: prediction unit 241: Intra prediction unit 242: Inter prediction unit 243: Predicted image correction unit 243a: Continuity evaluation unit 243b: Correction unit 244: Switching unit

Claims (5)

画像を構成するブロックごとにインター予測をして得られた予測画像を補正する予測画像補正装置であって、
前記インター予測が行われた対象ブロックに適用された動きベクトルと、前記対象ブロックに隣接する復号済みの1又は複数の隣接ブロックに適用された動きベクトルとの比較により、前記1又は複数の隣接ブロックについて前記対象ブロックとの動きの連続性を評価する連続性評価部と、
前記連続性評価部により評価された前記連続性が予め定めた値よりも低い隣接ブロックが存在する場合に、前記連続性が予め定めた値よりも低い隣接ブロックの復号画像のうち前記対象ブロックとの境界領域の復号画像を用いて、前記対象ブロックの予測画像のうち前記連続性が予め定めた値よりも低い隣接ブロックとの境界領域の予測画像を補正する補正部と、を備えることを特徴とする予測画像補正装置。
A prediction image correction device that corrects a prediction image obtained by performing inter prediction for each block constituting an image,
By comparing a motion vector applied to the target block on which the inter prediction has been performed and a motion vector applied to one or more decoded adjacent blocks adjacent to the target block, the one or more adjacent blocks are compared. Continuity evaluation unit for evaluating the continuity of the motion with the target block,
When there is an adjacent block in which the continuity evaluated by the continuity evaluation unit is lower than a predetermined value, the target block and the decoded image of the adjacent block in which the continuity is lower than a predetermined value. A correction unit that corrects a predicted image of a boundary region with an adjacent block whose continuity is lower than a predetermined value among predicted images of the target block using a decoded image of the boundary region of the target block. Prediction image correction device.
前記連続性が予め定めた値よりも低い隣接ブロックの予測残差のうち前記対象ブロックとの境界領域の予測残差のエネルギーを算出する残差エネルギー算出部をさらに備え、
前記補正部は、前記連続性が予め定めた値よりも低い隣接ブロックが存在し、かつ前記残差エネルギー算出部により算出された前記エネルギーが閾値よりも小さい場合に、前記補正を行うことを特徴とする請求項1に記載の予測画像補正装置。
The continuity further includes a residual energy calculation unit that calculates energy of a prediction residual of a boundary region with the target block among prediction residuals of adjacent blocks lower than a predetermined value,
The correction unit performs the correction when there is an adjacent block whose continuity is lower than a predetermined value, and when the energy calculated by the residual energy calculation unit is smaller than a threshold value. The predictive image correction device according to claim 1, wherein
インター予測を行うインター予測部と、請求項1又は2に記載の予測画像補正装置と、を備えることを特徴とする画像符号化装置。   An image encoding device comprising: an inter prediction unit that performs inter prediction; and the predicted image correction device according to claim 1 or 2. インター予測を行うインター予測部と、請求項1又は2に記載の予測画像補正装置と、を備えることを特徴とする画像復号装置。   An image decoding device comprising: an inter prediction unit that performs inter prediction; and the predicted image correction device according to claim 1. コンピュータを請求項1又は2に記載の予測画像補正装置として機能させることを特徴とするプログラム。   A program that causes a computer to function as the predicted image correction device according to claim 1.
JP2018178118A 2018-09-21 2018-09-21 Predictive image correction device, image coding device, image decoding device, and program Active JP7228980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018178118A JP7228980B2 (en) 2018-09-21 2018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018178118A JP7228980B2 (en) 2018-09-21 2018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Publications (2)

Publication Number Publication Date
JP2020053725A true JP2020053725A (en) 2020-04-02
JP7228980B2 JP7228980B2 (en) 2023-02-27

Family

ID=69994275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018178118A Active JP7228980B2 (en) 2018-09-21 2018-09-21 Predictive image correction device, image coding device, image decoding device, and program

Country Status (1)

Country Link
JP (1) JP7228980B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449690B2 (en) 2018-12-28 2024-03-14 日本放送協会 Inter prediction device, image encoding device, image decoding device, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2011030175A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing unit and method
JP2011066569A (en) * 2009-09-16 2011-03-31 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for generating prediction signal
JP2014131162A (en) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, program therefor, and program recorded recording medium
WO2018123800A1 (en) * 2016-12-27 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding device, decoding device, encoding method, and decoding method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2011030175A (en) * 2009-07-01 2011-02-10 Sony Corp Image processing unit and method
JP2011066569A (en) * 2009-09-16 2011-03-31 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for generating prediction signal
JP2014131162A (en) * 2012-12-28 2014-07-10 Nippon Telegr & Teleph Corp <Ntt> Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding device, intra-prediction decoding device, program therefor, and program recorded recording medium
WO2018123800A1 (en) * 2016-12-27 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding device, decoding device, encoding method, and decoding method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449690B2 (en) 2018-12-28 2024-03-14 日本放送協会 Inter prediction device, image encoding device, image decoding device, and program

Also Published As

Publication number Publication date
JP7228980B2 (en) 2023-02-27

Similar Documents

Publication Publication Date Title
JP2017005763A (en) Apparatus for decoding moving picture
JP2004336369A (en) Moving image encoder, moving image decoder, moving image encoding method, moving image decoding method, moving image encoding program and moving image decoding program
US20210014489A1 (en) Intra prediction device, image encoding device, image decoding device and program
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
JP2023138826A (en) Intra prediction device, image coding device, image decoding device, and program
US11785242B2 (en) Video processing methods and apparatuses of determining motion vectors for storage in video coding systems
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
US11812015B2 (en) Image encoding device, image decoding device and program
JP6528635B2 (en) Moving picture coding apparatus, moving picture coding method, and computer program for moving picture coding
US20180249155A1 (en) Method and apparatus of prediction offset derived based on neighbouring area in video coding
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
CN115280778A (en) Inter-frame prediction method, encoder, decoder, and storage medium
KR20230141952A (en) Image encoding device, image decoding device, and program
JP7396883B2 (en) Encoding device, decoding device, and program
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7474772B2 (en) Encoding device, decoding device, and program
JP7460384B2 (en) Prediction device, encoding device, decoding device, and program
JP7130890B2 (en) Encoding device, decoding device, and program
JP7361498B2 (en) Intra prediction device, image encoding device, image decoding device, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7228980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150