JP2018007079A - Encoder, decoder, and program - Google Patents

Encoder, decoder, and program Download PDF

Info

Publication number
JP2018007079A
JP2018007079A JP2016132814A JP2016132814A JP2018007079A JP 2018007079 A JP2018007079 A JP 2018007079A JP 2016132814 A JP2016132814 A JP 2016132814A JP 2016132814 A JP2016132814 A JP 2016132814A JP 2018007079 A JP2018007079 A JP 2018007079A
Authority
JP
Japan
Prior art keywords
region
prediction
image
intra prediction
synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016132814A
Other languages
Japanese (ja)
Other versions
JP6740534B2 (en
Inventor
俊輔 岩村
Shunsuke Iwamura
俊輔 岩村
市ヶ谷 敦郎
Atsuro Ichigaya
敦郎 市ヶ谷
和博 千田
Kazuhiro Senda
和博 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016132814A priority Critical patent/JP6740534B2/en
Publication of JP2018007079A publication Critical patent/JP2018007079A/en
Application granted granted Critical
Publication of JP6740534B2 publication Critical patent/JP6740534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve prediction accuracy and encoding efficiency, without increasing the information amount transmitted by the encoder, and without increasing the calculation time on the encoder side.SOLUTION: An encoder 1 includes a composite region determination unit 12 configured to determine a composite region X where a prediction image is generated from adjacent pixels not yet decoded in an encoding object block CU/TU, on the basis of the intra-prediction mode, and an intra-prediction unit 13 configured to change the generation method of a prediction image of each region, on the basis of whether or not included in the composite region X.SELECTED DRAWING: Figure 1

Description

本発明は、符号化装置、復号装置及びプログラムに関する。   The present invention relates to an encoding device, a decoding device, and a program.

H.265/HEVC(High Efficiency Video Coding)に代表される動画像の符号化方式では、フレーム間の時間的相関を利用したインター予測及びフレーム内の空間的相関を利用したイントラ予測の2種類の予測を切り替えながら予測を行って残差信号を生成した後、直交変換処理やループフィルタ処理やエントロピー符号化処理を行い得られたストリームを出力するように構成されている。   In a moving picture coding system represented by H.265 / HEVC (High Efficiency Video Coding), there are two types of inter prediction using temporal correlation between frames and intra prediction using spatial correlation within a frame. After generating a residual signal by performing prediction while switching prediction, a stream obtained by performing orthogonal transform processing, loop filter processing, and entropy coding processing is output.

HEVCにおけるイントラ予測では、Planar予測やDC予測や方向予測の計35種類のモードが用意されており、エンコーダで決定されたモードに従って、隣接する復号済み参照画素を用いてイントラ予測を行うように構成されている。   In intra prediction in HEVC, a total of 35 types of modes such as Planar prediction, DC prediction, and direction prediction are prepared, and configured to perform intra prediction using adjacent decoded reference pixels according to the mode determined by the encoder. Has been.

ここで、イントラ予測では、フレーム内で最も左上に位置するCU(Coding Unit)等、隣接する復号済み参照画素が存在しないCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されている。   Here, in intra prediction, a specified value (“512” for a 10-bit moving image) is used for a CU that does not have an adjacent decoded reference pixel, such as a CU (Coding Unit) located at the upper left in the frame. By the process of filling in, reference pixels used when generating a predicted image are created.

また、従来のHEVCでは、符号化処理が、左上からラスタースキャン順に行われるために、参照画素が復号済みでない場合がある。このような場合には、最も近い復号済み参照画素を0次外挿した値を用いて予測画像を生成するように構成されている。   Further, in the conventional HEVC, since the encoding process is performed in the order of raster scan from the upper left, the reference pixel may not be decoded. In such a case, a predicted image is generated using a value obtained by extrapolating the nearest decoded reference pixel by zero order.

CUは、複数のブロック(TU:Transform Unit)に分割され直交変換処理が施される。HEVCにおいて、適用するイントラ予測の種類を示すイントラ予測モードは、CU内で共通であり、複数のTUに対して共通したイントラ予測モードを用いて予測が行われる。   The CU is divided into a plurality of blocks (TU: Transform Unit) and subjected to orthogonal transform processing. In HEVC, the intra prediction mode which shows the kind of intra prediction to apply is common within CU, and prediction is performed using the common intra prediction mode with respect to several TU.

イントラ予測では、図7に示すように、ラスタースキャン順による符号化処理により、CU#Xの左下や右上に位置する参照画素Nが復号済みでない場合が多く、このような場合に、復号済みでない参照画素が存在する方向からの方向予測を行うと予測精度が低下し、符号化効率が低減してしまうという問題点があった。   In intra prediction, as shown in FIG. 7, the reference pixel N located in the lower left or upper right of CU # X is often not decoded by the encoding process in the raster scan order. In such a case, the decoding is not completed. When the direction prediction from the direction in which the reference pixel exists is performed, there is a problem that the prediction accuracy is lowered and the encoding efficiency is reduced.

以下、図8(a)〜図8(d)を用いて、かかる問題点について具体的に説明する。図8は、従来のHEVCにおけるイントラ予測の一例について示す。   Hereinafter, this problem will be specifically described with reference to FIGS. 8A to 8D. FIG. 8 shows an example of intra prediction in conventional HEVC.

かかる例では、図8(a)に示すように、図7の例の場合と同様に、CU#A1(フレーム内の左上のCU)の参照画素については、全てが復号済みである。同様に、図8(c)に示すように、CU#A3(フレーム内の左下のCU)の参照画素については、全てが復号済みである。   In this example, as shown in FIG. 8A, as in the case of the example of FIG. 7, all the reference pixels of CU # A1 (upper left CU in the frame) have been decoded. Similarly, as shown in FIG. 8C, all the reference pixels of CU # A3 (lower left CU in the frame) have been decoded.

これに対して、図8(b)に示すように、CU#A1内に位置する参照画素W1〜W3は復号済みであるが、CU#A3内に位置する参照画素B1〜B4は復号されていないので、そのままCU#A2(フレーム内の右上のCU)の予測画像を生成する際の参照画素とすることはできない。   On the other hand, as shown in FIG. 8B, the reference pixels W1 to W3 located in CU # A1 have been decoded, but the reference pixels B1 to B4 located in CU # A3 have not been decoded. Therefore, it cannot be used as a reference pixel when generating a predicted image of CU # A2 (upper right CU in the frame) as it is.

このため、従来のHEVCでは、図8(b)に示すように、CU#A1内に位置する復号済み参照画素W1〜W3の一番下に位置する参照画素W1の値を、CU#A3内の同じ列に位置する未復号参照画素B1〜B4にコピーするように規定されている。   Therefore, in the conventional HEVC, as shown in FIG. 8B, the value of the reference pixel W1 positioned at the bottom of the decoded reference pixels W1 to W3 positioned in the CU # A1 is set in the CU # A3. Are copied to undecoded reference pixels B1 to B4 located in the same column.

同様に、従来のHEVCでは、図8(d)に示すように、CU#A3内に位置する復号済み参照画素B1〜B3の一番下に位置する参照画素B1の値を、CU#A3の下側に存在するCU内の同じ列に位置する未復号参照画素P3にコピーするように規定されている。   Similarly, in the conventional HEVC, as shown in FIG. 8D, the value of the reference pixel B1 located at the bottom of the decoded reference pixels B1 to B3 located in CU # A3 is set to the value of CU # A3. It is defined to copy to an undecoded reference pixel P3 located in the same column in the CU existing on the lower side.

したがって、図8の例のように、左下から右上に向かって方向予測が行われる場合、生成された予測画像の多くはコピーで埋められた未復号参照画素により構成されているため、予測精度が低下し、符号化効率が低減してしまうという問題点があった。   Therefore, when the direction prediction is performed from the lower left to the upper right as in the example of FIG. 8, most of the generated prediction images are configured by undecoded reference pixels filled with copies, and thus the prediction accuracy is high. There is a problem that the coding efficiency is reduced.

かかる問題点を解決するために、TU分割が行われるイントラ予測において、CU内に存在する複数のTUに対する符号化処理順として、ラスタースキャン順(例えば、Z型)の他、U型やX型等の符号化順に自由度を持たせることによって予測精度の向上を図る技術が知られている(非特許文献1参照)。   In order to solve such a problem, in intra prediction in which TU partitioning is performed, in addition to raster scan order (for example, Z type), U type and X type as encoding processing order for a plurality of TUs existing in a CU. A technique for improving prediction accuracy by providing a degree of freedom in the encoding order is known (see Non-Patent Document 1).

望月等、「平均値座標に基づいた適用イントラ予測方式」、情報処理学会研究報告、vol、2012-AVM-77、No.12Mochizuki et al., “Applied Intra Prediction Method Based on Average Coordinates”, Information Processing Society of Japan, Vol. 2012-AVM-77, No. 12

しかしながら、上述の非特許文献1に規定されている技術では、CU単位でどのような符号化処理順を用いるのかについてのフラグを伝送する必要があるため、伝送する情報量が増大してしまう他、全ての符号化処理順の中からどの符号化処理順が良いかを選択するために、符号化装置側では全ての組み合わせを試す必要があり、符号化装置側の計算時間が増大してしまうという問題点があった。   However, in the technique prescribed in the above-mentioned Non-Patent Document 1, it is necessary to transmit a flag as to what encoding processing order is used in CU units, which increases the amount of information to be transmitted. In order to select which encoding processing order is better from all the encoding processing orders, it is necessary to try all combinations on the encoding apparatus side, which increases the calculation time on the encoding apparatus side. There was a problem.

そこで、本発明は、上述した課題を解決するためになされたものであり、符号化装置によって伝送する情報量を増大させることなく、また、符号化装置側の計算時間を増大させることなく、予測精度や符号化効率を向上させることができる符号化装置、復号装置及びプログラムを提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problem, and predicting without increasing the amount of information transmitted by the encoding apparatus and without increasing the calculation time on the encoding apparatus side. An object is to provide an encoding device, a decoding device, and a program capable of improving accuracy and encoding efficiency.

本発明の第1の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている符号化装置であって、イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを要旨とする。   A first feature of the present invention is an encoding device configured to divide and encode an original image in frame units constituting a moving image into encoding target blocks, and is based on an intra prediction mode. , Based on whether or not included in the synthesis region, a synthesis region determination unit configured to determine a synthesis region in which a predicted image is generated from neighboring pixels that have not been decoded in the encoding target block, The gist is to include an intra prediction unit configured to change a method of generating a predicted image of each region.

本発明の第2の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して復号するように構成されている復号装置であって、イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを要旨とする。   A second feature of the present invention is a decoding device configured to decode an original image in units of frames constituting a moving image into blocks to be encoded, and based on an intra prediction mode, Based on a synthesis region determination unit configured to determine a synthesis region in which a prediction image is generated from neighboring pixels that have not been decoded in the encoding target block, and whether or not each region is included in the synthesis region And an intra prediction unit configured to change the method of generating the predicted image.

本発明の第3の特徴は、コンピュータを、上述の第1又は第2の特徴に記載の符号化装置として機能させるためのプログラムであることを要旨とする。   The gist of the third feature of the present invention is a program for causing a computer to function as the encoding device described in the first or second feature.

本発明の第4の特徴は、コンピュータを、上述の第1又は第2の特徴に記載の復号装置として機能させるためのプログラムであることを要旨とする。   The gist of a fourth feature of the present invention is a program for causing a computer to function as the decoding device described in the first or second feature.

本発明によれば、符号化装置によって伝送する情報量を増大させることなく、また、符号化装置側の計算時間を増大させることなく、予測精度や符号化効率を向上させることができる符号化装置、復号装置及びプログラムを提供することができる。   According to the present invention, an encoding apparatus that can improve prediction accuracy and encoding efficiency without increasing the amount of information transmitted by the encoding apparatus and without increasing the calculation time on the encoding apparatus side. A decoding device and a program can be provided.

図1は、第1の実施形態に係る符号化装置1の機能ブロック図である。FIG. 1 is a functional block diagram of an encoding apparatus 1 according to the first embodiment. 図2は、第1の実施形態において予測画像が生成される様子の一例を示す図である。FIG. 2 is a diagram illustrating an example of how a predicted image is generated in the first embodiment. 図3は、第1の実施形態において予測画像が生成される様子の一例を示す図である。FIG. 3 is a diagram illustrating an example of how a predicted image is generated in the first embodiment. 図4は、第1の実施形態に係る復号装置3の機能ブロック図である。FIG. 4 is a functional block diagram of the decoding device 3 according to the first embodiment. 図5は、第1の実施形態に係る符号化装置1及び復号装置3の動作を示すフローチャートである。FIG. 5 is a flowchart showing operations of the encoding device 1 and the decoding device 3 according to the first embodiment. 図6は、第2の実施形態において予測画像が生成される様子の一例を示す図である。FIG. 6 is a diagram illustrating an example of how a predicted image is generated in the second embodiment. 図7は、従来のHEVCにおいて予測画像が生成される様子の一例を示す図である。FIG. 7 is a diagram illustrating an example of a state in which a predicted image is generated in conventional HEVC. 図8は、従来のHEVCにおいて予測画像が生成される様子の一例を示す図である。FIG. 8 is a diagram illustrating an example of a state in which a predicted image is generated in conventional HEVC.

(第1の実施形態)
以下、図1〜図5を参照して、本発明の第1の実施形態に係る符号化装置1及び復号装置3について説明する。ここで、本実施形態に係る符号化装置1及び復号装置3は、HEVCにおけるイントラ予測に対応するように構成されている。
(First embodiment)
Hereinafter, the encoding device 1 and the decoding device 3 according to the first embodiment of the present invention will be described with reference to FIGS. Here, the encoding device 1 and the decoding device 3 according to the present embodiment are configured to support intra prediction in HEVC.

本実施形態に係る符号化装置1は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている。なお、本実施形態では、符号化対象のCUの左側及び上側に隣接する画素は全て復号済みであるものとする。   The encoding device 1 according to the present embodiment is configured to divide and encode a frame-unit original image constituting a moving image into encoding target blocks. In the present embodiment, it is assumed that all pixels adjacent to the left side and the upper side of the encoding target CU have been decoded.

また、本実施形態に係る符号化装置1は、CUを複数のTUに分割することができるように構成されていてもよい。したがって、本実施形態では、符号化対象ブロックは、CUであってもよいし、TUであってもよい。以下、本実施形態では、符号化対象ブロックとしてCUが用いられるケースを例にして説明する。   Also, the encoding device 1 according to the present embodiment may be configured to be able to divide a CU into a plurality of TUs. Therefore, in this embodiment, the encoding target block may be a CU or a TU. Hereinafter, in this embodiment, a case where a CU is used as an encoding target block will be described as an example.

また、本実施形態では、CUの符号化順及び復号順として、従来のHEVCで用いられているラスタースキャン順(図7や図8に示すようなZ型)が用いられているケースを例にして説明しているが、かかる符号化順及び復号順として、U型やX型等の他の符号化順及び復号順が用いられていてもよい。   In this embodiment, the case where the raster scan order (Z type as shown in FIGS. 7 and 8) used in the conventional HEVC is used as the CU encoding order and decoding order is taken as an example. However, as such encoding order and decoding order, other encoding orders and decoding orders such as U type and X type may be used.

図1に示すように、本実施形態に係る符号化装置1は、イントラ予測モード決定部11と、合成領域決定部12と、イントラ予測部13と、残差信号生成部14と、直交変換・量子化部15と、逆直交変換・逆量子化部16と、局部復号画像生成部17と、メモリ部18と、エントロピー符号化部19とを具備している。   As shown in FIG. 1, the encoding apparatus 1 according to the present embodiment includes an intra prediction mode determination unit 11, a synthesis region determination unit 12, an intra prediction unit 13, a residual signal generation unit 14, an orthogonal transform / A quantization unit 15, an inverse orthogonal transform / inverse quantization unit 16, a local decoded image generation unit 17, a memory unit 18, and an entropy encoding unit 19 are provided.

イントラ予測モード決定部11は、CUに適用する最適なイントラ予測モードを決定するように構成されている。   The intra prediction mode determination unit 11 is configured to determine an optimal intra prediction mode to be applied to the CU.

合成領域決定部12は、イントラ予測モード決定部11によって決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定するように構成されている。   Based on the intra prediction mode determined by the intra prediction mode determination unit 11, the synthesis region determination unit 12 is configured to determine a synthesis region X in which a predicted image is generated from neighboring pixels that have not been decoded in the CU. Yes.

具体的には、図2に示すように、合成領域決定部12は、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU#A2内において復号済みでない隣接画素B1〜B4から予測画像が生成される合成領域Xを決定するように構成されていてもよい。   Specifically, as illustrated in FIG. 2, the synthesis region determination unit 12 determines that the direction of the intra prediction mode determined by the intra prediction mode determination unit 11 is a direction from the lower left to the upper right (that is, from the lower left to the upper right). When the direction prediction is performed), the synthesis region X in which the predicted image is generated from the neighboring pixels B1 to B4 that have not been decoded in the CU # A2 may be determined.

また、本発明は、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が右上から左下に向かう方向である場合(すなわち、右上から左下に向かって方向予測が行われる場合)にも適用可能であるが、以下、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)を例に挙げて説明する。   The present invention is also applicable to the case where the direction of the intra prediction mode determined by the intra prediction mode determination unit 11 is the direction from the upper right to the lower left (that is, the direction prediction is performed from the upper right to the lower left). Although possible, hereinafter, the case where the direction of the intra prediction mode determined by the intra prediction mode determination unit 11 is the direction from the lower left to the upper right (that is, the case where the direction prediction is performed from the lower left to the upper right) is an example. Will be described.

なお、本明細書の図において、イントラ予測モードの方向(予測方向)を示す矢印は、HEVC規格書における記載と同様に、イントラ予測の対象の画素から参照画素に向かうものとする(以下同様)。   In the drawings of the present specification, the arrow indicating the direction (prediction direction) of the intra prediction mode is assumed to be directed from the pixel subject to intra prediction to the reference pixel, as described in the HEVC standard (the same applies hereinafter). .

イントラ予測部13は、合成領域決定部12によって決定された合成領域Xに含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されている。   The intra prediction unit 13 is configured to change the generation method of the predicted image of each region based on whether or not it is included in the synthesis region X determined by the synthesis region determination unit 12.

具体的には、イントラ予測部13は、図3(a)に示すように、CU#A2において、合成領域Xに含まれていない領域(すなわち、参照画素W1〜W3が復号済みである領域)Yでは、イントラ予測モード決定部11によって決定されたイントラ予測モードを用いて、復号済み参照画素W1〜W3に基づいて予測画像を生成するように構成されている。   Specifically, as illustrated in FIG. 3A, the intra prediction unit 13 is a region that is not included in the synthesis region X in CU # A2 (that is, a region in which the reference pixels W1 to W3 have been decoded). In Y, using the intra prediction mode determined by the intra prediction mode determination unit 11, a prediction image is generated based on the decoded reference pixels W1 to W3.

一方、イントラ予測部13は、図3(b)に示すように、CU#A2において、合成領域Xに含まれている領域(すなわち、参照画素B2〜B4が復号済みでない領域)では、予め規定した予測方法を用いて予測画像を生成するように構成されている。   On the other hand, as shown in FIG. 3B, the intra prediction unit 13 predefines in the region included in the synthesis region X (that is, the region where the reference pixels B2 to B4 have not been decoded) in CU # A2. The predicted image is generated using the predicted method.

ここで、予め規定した予測方法とは、例えば、DC予測やPlanar予測等のイントラ予測の他、隣接する復号済み参照画素の値の平均等で予測画像を生成する予測方法等が挙げられる。   Here, the prediction method defined in advance includes, for example, a prediction method for generating a prediction image based on an average of values of adjacent decoded reference pixels, in addition to intra prediction such as DC prediction and Planar prediction.

なお、符号化装置1及び復号装置3において、かかる予測方法について予め決定していれば、如何なる予測方法を使う場合であっても、符号化装置1から復号装置3に対して、かかる予測方法を示す新たなフラグを伝送する必要はない。   Note that if the encoding device 1 and the decoding device 3 determine the prediction method in advance, the prediction method is applied from the encoding device 1 to the decoding device 3 regardless of the prediction method used. There is no need to transmit a new flag to indicate.

また、合成領域決定部12によって決定された合成領域は、イントラ予測モードの方向及び隣接する画素が復号済みであるか否かによって一意に決定することができるため、符号化装置1から復号装置3に対して、新たに合成領域がどの領域であるかを示すフラグを伝送する必要はない。   Further, since the synthesis region determined by the synthesis region determination unit 12 can be uniquely determined depending on the direction of the intra prediction mode and whether or not the adjacent pixel has been decoded, the encoding device 1 to the decoding device 3 On the other hand, it is not necessary to transmit a flag indicating which region is a new synthesis region.

例えば、図3(b)に示すように、イントラ予測部13は、CU#A2における合成領域Xに含まれている領域内の画素X1の位置では、Planar予測を用いて、画素W3、画素D1、画素D2及び画素D4を合成することによって予測画像を生成するように構成されていてもよい。ここで、画素D4には、画素B4の値がコピーされており、画素B4には、画素W1の値がコピーされている。   For example, as illustrated in FIG. 3B, the intra prediction unit 13 uses the Planar prediction at the position of the pixel X1 in the region included in the synthesis region X in CU # A2, and uses the pixel W3 and the pixel D1. The prediction image may be generated by combining the pixel D2 and the pixel D4. Here, the value of the pixel B4 is copied to the pixel D4, and the value of the pixel W1 is copied to the pixel B4.

残差信号生成部14は、イントラ予測部13によって生成された予測画像と原画像との差分により残差信号を生成するように構成されている。   The residual signal generation unit 14 is configured to generate a residual signal based on the difference between the predicted image generated by the intra prediction unit 13 and the original image.

直交変換・量子化部15は、残差信号生成部14によって生成された残差信号に対して直交変換処理及び量子化処理を施し、量子化された変換係数を生成するように構成されている。   The orthogonal transform / quantization unit 15 is configured to perform orthogonal transform processing and quantization processing on the residual signal generated by the residual signal generation unit 14 and generate a quantized transform coefficient. .

逆直交変換・逆量子化部16は、直交変換・量子化部15によって生成された量子化された変換係数に対して、再び逆量子化処理及び逆直交変換処理を施し、量子化された残差信号を生成するように構成されている。   The inverse orthogonal transform / inverse quantization unit 16 performs inverse quantization processing and inverse orthogonal transform processing on the quantized transform coefficient generated by the orthogonal transform / quantization unit 15 again to obtain a quantized residual signal. It is configured to generate a difference signal.

局部復号画像生成部17は、逆直交変換・逆量子化部16によって生成された量子化された残差信号に対してイントラ予測部13によって生成された予測画像を加えることで局部復号画像を生成するように構成されている。   The local decoded image generation unit 17 generates a local decoded image by adding the prediction image generated by the intra prediction unit 13 to the quantized residual signal generated by the inverse orthogonal transform / inverse quantization unit 16. Is configured to do.

メモリ部18は、局部復号画像生成部17によって生成された局部復号画像を参照画像として利用可能に保持するように構成されている。   The memory unit 18 is configured to hold the local decoded image generated by the local decoded image generation unit 17 so as to be usable as a reference image.

エントロピー符号化部19は、イントラ予測モード決定部11によって決定されたイントラ予測モード等を含むフラグ情報や量子化された変換係数に対してエントロピー符号化処理を施してストリーム出力するように構成されている。   The entropy encoding unit 19 is configured to perform entropy encoding processing on the flag information including the intra prediction mode determined by the intra prediction mode determination unit 11 and the quantized transform coefficient and output the stream. Yes.

また、本実施形態に係る復号装置3は、動画像を構成するフレーム単位の原画像をCUに分割して復号するように構成されている。また、本実施形態に係る復号装置3は、本実施形態に係る符号化装置1と同様に、CUを複数のTUに分割することができるように構成されている。   In addition, the decoding device 3 according to the present embodiment is configured to decode a frame-unit original image constituting a moving image by dividing it into CUs. Also, the decoding device 3 according to the present embodiment is configured to be able to divide a CU into a plurality of TUs, similarly to the encoding device 1 according to the present embodiment.

図4に示すように、本実施形態に係る復号装置3は、エントロピー復号部31と、合成領域決定部32と、イントラ予測部33と、逆量子化・逆変換部34と、局部復号画像生成部35と、メモリ部36とを具備している。   As shown in FIG. 4, the decoding device 3 according to the present embodiment includes an entropy decoding unit 31, a synthesis region determination unit 32, an intra prediction unit 33, an inverse quantization / inverse transform unit 34, and a local decoded image generation. A unit 35 and a memory unit 36 are provided.

エントロピー復号部31は、符号化装置1から出力されたストリームから、変換係数やフラグ情報等を復号するように構成されている。ここで、変換係数は、符号化装置1によって、フレーム単位の原画像をCUに分割して符号化された信号として得られた量子化された変換係数である。また、フラグ情報は、予測モード等の付随する情報を含む。   The entropy decoding unit 31 is configured to decode transform coefficients, flag information, and the like from the stream output from the encoding device 1. Here, the transform coefficient is a quantized transform coefficient obtained by the encoding apparatus 1 as a signal encoded by dividing an original image in frame units into CUs. The flag information includes accompanying information such as a prediction mode.

合成領域決定部32は、エントロピー復号部31によって出力されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定するように構成されている。   Based on the intra prediction mode output by the entropy decoding unit 31, the synthesis region determination unit 32 is configured to determine a synthesis region X in which a predicted image is generated from adjacent pixels that have not been decoded in the CU.

具体的には、図2に示すように、合成領域決定部32は、エントロピー復号部31によって出力されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU#A2内において復号済みでない隣接画素B1〜B4から予測画像が生成される合成領域Xを決定するように構成されていてもよい。   Specifically, as illustrated in FIG. 2, the synthesis region determination unit 32 determines that the direction of the intra prediction mode output by the entropy decoding unit 31 is from the lower left to the upper right (that is, from the lower left to the upper right). In the case where the direction prediction is performed), the synthesis region X in which the predicted image is generated from the neighboring pixels B1 to B4 that have not been decoded in the CU # A2 may be determined.

イントラ予測部33は、合成領域決定部32によって決定された合成領域X及びエントロピー復号部31によって出力されたイントラ予測モードを用いて、予測画像を生成するように構成されていてもよい。   The intra prediction unit 33 may be configured to generate a prediction image using the synthesis region X determined by the synthesis region determination unit 32 and the intra prediction mode output by the entropy decoding unit 31.

具体的には、イントラ予測部33は、イントラ予測部13と同様に、合成領域決定部12によって決定された合成領域Xに含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されている。   Specifically, similarly to the intra prediction unit 13, the intra prediction unit 33 determines the generation method of the predicted image of each region based on whether or not it is included in the synthesis region X determined by the synthesis region determination unit 12. Is configured to change.

例えば、イントラ予測部33は、図3(a)に示すように、CU#A2において、合成領域Xに含まれていない領域(すなわち、参照画素W1〜W3が復号済みである領域)Yでは、エントロピー復号部31によって出力されたイントラ予測モードを用いて、復号済み参照画素W1〜W3に基づいて予測画像を生成するように構成されている。   For example, as illustrated in FIG. 3A, the intra prediction unit 33 in CU # A2 includes a region Y that is not included in the synthesis region X (that is, a region in which the reference pixels W1 to W3 have been decoded) Y. The intra prediction mode output by the entropy decoding unit 31 is used to generate a prediction image based on the decoded reference pixels W1 to W3.

一方、イントラ予測部33は、図3(b)に示すように、CU#A2において、合成領域Xに含まれている領域(すなわち、参照画素B2〜B4が復号済みでない領域)では、上述の予め規定した予測方法を用いて予測画像を生成するように構成されている。   On the other hand, as shown in FIG. 3B, the intra prediction unit 33, in the area included in the synthesis area X in CU # A2 (that is, the area where the reference pixels B2 to B4 have not been decoded), A prediction image is generated using a predetermined prediction method.

逆量子化・逆変換部34は、エントロピー復号部31によって出力された量子化された変換係数に対して逆量子化処理及び逆変換処理(例えば、逆直交変換処理)を施すことによって、残差信号を生成するように構成されている。   The inverse quantization / inverse transform unit 34 performs an inverse quantization process and an inverse transform process (for example, an inverse orthogonal transform process) on the quantized transform coefficient output from the entropy decoding unit 31 to obtain a residual. It is configured to generate a signal.

局部復号画像生成部35は、イントラ予測部33によって生成された予測画像と逆量子化・逆変換部34によって生成された残差信号とを加えることで局部復号画像を生成するように構成されている。   The local decoded image generation unit 35 is configured to generate a local decoded image by adding the prediction image generated by the intra prediction unit 33 and the residual signal generated by the inverse quantization / inverse transformation unit 34. Yes.

メモリ部36は、局部復号画像生成部35によって生成された局部復号画像を、イントラ予測及びインター予測のための参照画像として利用可能に保持するように構成されている。   The memory unit 36 is configured to hold the local decoded image generated by the local decoded image generation unit 35 so as to be usable as a reference image for intra prediction and inter prediction.

図5に、本実施形態に係る符号化装置1及び復号装置3によって予測画像を生成する動作の一例について説明するためのフローチャートについて示す。   FIG. 5 shows a flowchart for explaining an example of an operation for generating a prediction image by the encoding device 1 and the decoding device 3 according to the present embodiment.

第1に、図5を参照して、本実施形態に係る符号化装置1によって予測画像を生成する動作の一例について説明する。   First, with reference to FIG. 5, an example of an operation for generating a prediction image by the encoding device 1 according to the present embodiment will be described.

図5に示すように、ステップS101において、符号化装置1は、CUに適用する最適なイントラ予測モードを決定する。   As illustrated in FIG. 5, in step S101, the encoding device 1 determines an optimal intra prediction mode to be applied to the CU.

ステップS102において、符号化装置1は、ステップS101において決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定する。   In step S102, the encoding device 1 determines a synthesis region X in which a predicted image is generated from adjacent pixels that have not been decoded in the CU, based on the intra prediction mode determined in step S101.

ステップS103において、符号化装置1は、CU内において、予測画像を生成する領域が合成領域に含まれているか否かについて判定する。「No」の場合、本動作は、ステップS104に進み、「Yes」の場合、本動作は、ステップS105に進む。   In step S103, the encoding apparatus 1 determines whether or not a region for generating a predicted image is included in the synthesis region in the CU. If “No”, the operation proceeds to step S104. If “Yes”, the operation proceeds to step S105.

ステップS104において、符号化装置1は、ステップS101において決定されたイントラ予測モードを用いて、復号済み参照画素に基づいて予測画像を生成する。   In step S104, the encoding apparatus 1 generates a prediction image based on the decoded reference pixel using the intra prediction mode determined in step S101.

ステップS105において、符号化装置1は、上述の予め規定した予測方法を用いて予測画像を生成する。   In step S105, the encoding apparatus 1 generates a prediction image using the above-described predetermined prediction method.

第2に、図5を参照して、本実施形態に係る復号装置3によって予測画像を生成する動作の一例について説明する。   Secondly, with reference to FIG. 5, an example of an operation for generating a predicted image by the decoding device 3 according to the present embodiment will be described.

図5に示すように、ステップS101において、復号装置3は、エントロピー復号処理によって得られた情報に基づいてイントラ予測モードを決定する。   As illustrated in FIG. 5, in step S101, the decoding device 3 determines an intra prediction mode based on information obtained by entropy decoding processing.

ステップS102において、復号装置3は、ステップS101において決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定する。   In step S102, the decoding device 3 determines a synthesis region X in which a predicted image is generated from adjacent pixels that have not been decoded in the CU, based on the intra prediction mode determined in step S101.

ステップS103において、復号装置3は、CU内において、予測画像を生成する領域が合成領域に含まれているか否かについて判定する。「No」の場合、本動作は、ステップS104に進み、「Yes」の場合、本動作は、ステップS105に進む。   In step S103, the decoding device 3 determines whether or not a region for generating a predicted image is included in the synthesis region in the CU. If “No”, the operation proceeds to step S104. If “Yes”, the operation proceeds to step S105.

ステップS104において、復号装置3は、ステップS101において決定されたイントラ予測モードを用いて、復号済み参照画素に基づいて予測画像を生成する。   In step S104, the decoding device 3 generates a prediction image based on the decoded reference pixels using the intra prediction mode determined in step S101.

ステップS105において、復号装置3は、上述の予め規定した予測方法を用いて予測画像を生成する。   In step S105, the decoding device 3 generates a prediction image using the above-described predetermined prediction method.

本実施形態に係る符号化装置1及び復号装置3によれば、イントラ予測モードの方向(予測方向)の参照先に未復号画素が含まれている場合、隣接する復号済み参照画素をコピーすることで補間した参照画素を用いて生成した予測画像と予め規定した予測方法を用いて生成した予測画像とを合成することにより新たな予測画像を生成することで、予測精度低下を抑制することができる。   According to the encoding device 1 and the decoding device 3 according to the present embodiment, when an undecoded pixel is included in the reference destination in the direction of the intra prediction mode (prediction direction), the adjacent decoded reference pixel is copied. By generating a new predicted image by combining the predicted image generated using the reference pixel interpolated with the predicted image generated using the predetermined prediction method, it is possible to suppress a decrease in prediction accuracy. .

(第2の実施形態)
以下、図6を参照して、本発明の第2の実施形態に係る符号化装置1及び復号装置3について、上述の第1の実施形態に係る符号化装置1及び復号装置3との相違点に着目して説明する。
(Second Embodiment)
Hereinafter, with reference to FIG. 6, the encoding device 1 and the decoding device 3 according to the second embodiment of the present invention are different from the above-described encoding device 1 and the decoding device 3 according to the first embodiment. This will be explained with a focus on.

本実施形態に係る符号化装置1では、イントラ予測部13は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域において、所定条件が満たされる場合に、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。   In the encoding device 1 according to the present embodiment, the intra prediction unit 13 is configured such that when a predetermined condition is satisfied in a boundary region between a region included in the synthesis region X and a region Y not included in the synthesis region X, A smoothing filter is applied to the predicted image in the boundary region.

同様に、本実施形態に係る復号装置3では、イントラ予測部33は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域において、所定条件が満たされる場合に、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。   Similarly, in the decoding device 3 according to the present embodiment, the intra prediction unit 33, when a predetermined condition is satisfied in the boundary region between the region included in the synthesis region X and the region Y not included in the synthesis region X In addition, a smoothing filter is applied to the predicted image in the boundary region.

例えば、図6の例では、かかる境界領域には、合成領域Xに含まれる領域内の画素X1、X2、X3、X4及び合成領域Xに含まれない領域Y内の画素Y1、Y2、Y3が位置する領域が該当する。   For example, in the example of FIG. 6, the boundary regions include pixels X1, X2, X3, and X4 in the region included in the combined region X and pixels Y1, Y2, and Y3 in the region Y not included in the combined region X. This corresponds to the area that is located.

また、所定条件としては、かかる境界領域における不連続性が所定閾値よりも高いことが挙げられる。ここで、不連続性の評価としては、例えば、水平方向の差分や垂直方向の差分や斜め方向の差分等の線形結合で表わす方法が挙げられる。   Further, as the predetermined condition, the discontinuity in the boundary region is higher than a predetermined threshold. Here, as the evaluation of discontinuity, for example, there is a method represented by a linear combination such as a horizontal difference, a vertical difference, or a diagonal difference.

すなわち、イントラ予測部13及びイントラ予測部33は、かかる境界領域における不連続性の評価の値が所定閾値よりも高い場合には、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。   That is, the intra prediction unit 13 and the intra prediction unit 33 apply a smoothing filter to the prediction image of the boundary region when the value of the discontinuity evaluation in the boundary region is higher than a predetermined threshold. It is configured.

例えば、図6の例では、イントラ予測部13及びイントラ予測部33は、かかる境界領域における不連続性の評価の値が所定閾値よりも高い場合には、合成領域Xに含まれる領域内の画素X1、X2、X3、X4及び合成領域Xに含まれない領域Y内の画素Y1、Y2、Y3が位置する領域の予測画像に対して平滑フィルタを適用するように構成されている。   For example, in the example of FIG. 6, the intra prediction unit 13 and the intra prediction unit 33, when the discontinuity evaluation value in the boundary region is higher than a predetermined threshold, the pixels in the region included in the synthesis region X A smoothing filter is configured to be applied to a predicted image in a region where pixels Y1, Y2, and Y3 in a region Y not included in the combined region X and X1, X2, X3, and X4 are located.

なお、図6の例では、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域内の画素X5、X6、X7が位置する領域の予測画像に対しても平滑フィルタを適用するように構成されている。   In the example of FIG. 6, the intra prediction unit 13 and the intra prediction unit 33 also apply a smoothing filter to the predicted image in the region where the pixels X5, X6, and X7 in the region included in the synthesis region X are located. It is configured as follows.

ここで、符号化装置1と復号装置3との間で、上述の所定閾値を共有することで、符号化装置1から復号装置3に対して新たなフラグを伝送する必要がなくなる。   Here, by sharing the above-described predetermined threshold between the encoding device 1 and the decoding device 3, it is not necessary to transmit a new flag from the encoding device 1 to the decoding device 3.

本実施形態に係る符号化装置1及び復号装置3によれば、合成領域Xに含まれるか否かに基づいて各領域の予測画像の生成方法を変更することに起因する境界領域の不連続性を低減することができ、符号化性能を向上させることができる。   According to the encoding device 1 and the decoding device 3 according to the present embodiment, the discontinuity of the boundary region caused by changing the prediction image generation method of each region based on whether or not it is included in the synthesis region X Can be reduced, and the encoding performance can be improved.

(第3の実施形態)
以下、図6を参照して、本発明の第3の実施形態に係る符号化装置1及び復号装置3について、上述の第1及び第2の実施形態に係る符号化装置1及び復号装置3との相違点に着目して説明する。
(Third embodiment)
Hereinafter, with reference to FIG. 6, about the encoding apparatus 1 and the decoding apparatus 3 which concern on the 3rd Embodiment of this invention, the encoding apparatus 1 and the decoding apparatus 3 which concern on the above-mentioned 1st and 2nd embodiment, The difference will be described below.

本実施形態に係る符号化装置1及び復号装置3において、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域において、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)及び合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の加重平均によって予測画像を生成するように構成されている。   In the encoding device 1 and the decoding device 3 according to the present embodiment, the intra prediction unit 13 and the intra prediction unit 33 are prediction images generated using a conventional HEVC prediction method in a region included in the synthesis region X ( Prediction by weighted average of prediction image generated based on undecoded reference pixels embedded by copying) and prediction image generated in synthesis region X (prediction image generated using the above-described predetermined prediction method) It is configured to generate an image.

なお、本実施形態に係る符号化装置1及び復号装置3において、イントラ予測部13及びイントラ予測部33は、上述の所定条件が満たされる場合にのみ、合成領域Xに含まれる領域において、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)及び合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の加重平均によって予測画像を生成するように構成されていてもよい。   Note that, in the encoding device 1 and the decoding device 3 according to the present embodiment, the intra prediction unit 13 and the intra prediction unit 33, in the region included in the synthesis region X, only when the predetermined condition described above is satisfied. A prediction image generated using a prediction method in HEVC (a prediction image generated based on an undecoded reference pixel embedded by copying) and a prediction image generated in the synthesis region X (the above-described predetermined prediction method) The prediction image may be generated by a weighted average of the prediction image generated by using the prediction image.

本実施形態に係る符号化装置1及び復号装置3では、イントラ予測部13及びイントラ予測部33は、かかる加重平均を算出する際に用いる重み係数を算出するように構成されていてもよい。   In the encoding device 1 and the decoding device 3 according to the present embodiment, the intra prediction unit 13 and the intra prediction unit 33 may be configured to calculate a weighting coefficient used when calculating the weighted average.

イントラ予測部13及びイントラ予測部33は、重み係数として予め定めた規定の値を用いるように構成されていてもよいし、予測画像を生成する際の復号済み参照画素の信用度を用いて重み係数を算出するように構成されていてもよい。   The intra prediction unit 13 and the intra prediction unit 33 may be configured to use a predetermined value as a weighting factor, or the weighting factor using the reliability of the decoded reference pixel when generating the predicted image May be configured to calculate.

なお、図3(b)の例では、復号済み参照画素W1〜W4の信用度は高く、コピーによって生成された参照画素B1〜B4の信用度は低い。また、参照画素B1の信用度と参照画素B4の信用度を比べると、コピー元に近い参照画素B4の信用度の方が高い。   In the example of FIG. 3B, the reliability of the decoded reference pixels W1 to W4 is high, and the reliability of the reference pixels B1 to B4 generated by copying is low. Further, comparing the reliability of the reference pixel B1 and the reliability of the reference pixel B4, the reliability of the reference pixel B4 close to the copy source is higher.

また、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域からの距離に応じて、かかる重み係数を算出するように構成されていてもよい。   In addition, the intra prediction unit 13 and the intra prediction unit 33 calculate the weighting factor according to the distance from the boundary region between the region included in the synthesis region X and the region Y not included in the synthesis region X. It may be configured.

例えば、イントラ予測部13及びイントラ予測部33は、かかる境界領域付近では、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)の重み係数が強くなるように算出し、かかる境界領域から離れた領域では、合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の重み係数が強くなるように算出してもよい。   For example, the intra-prediction unit 13 and the intra-prediction unit 33 near the boundary region, the prediction image generated using the prediction method in the conventional HEVC (the prediction generated based on the undecoded reference pixel embedded by copying) The weight of the predicted image (predicted image generated using the above-described predetermined prediction method) generated in the synthesis region X is calculated in a region far from the boundary region. You may calculate so that a coefficient may become strong.

(その他の実施形態)
上述のように、本発明について、上述した実施形態によって説明したが、かかる実施形態における開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。かかる開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As described above, the present invention has been described by using the above-described embodiment. However, it should not be understood that the description and drawings constituting a part of the disclosure in the embodiment limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

また、上述の実施形態では特に触れていないが、上述の符号化装置1及び復号装置3によって行われる各処理をコンピュータに実行させるプログラムが提供されてもよい。また、かかるプログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、かかるプログラムをコンピュータにインストールすることが可能である。ここで、かかるプログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。   Further, although not particularly mentioned in the above-described embodiment, a program for causing a computer to execute each process performed by the above-described encoding device 1 and decoding device 3 may be provided. Such a program may be recorded on a computer-readable medium. If a computer readable medium is used, such a program can be installed in the computer. Here, the computer-readable medium on which such a program is recorded may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, but may be a recording medium such as a CD-ROM or a DVD-ROM.

或いは、上述の符号化装置1及び復号装置3内の少なくとも一部の機能を実現するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。   Alternatively, a chip configured by a memory that stores a program for realizing at least a part of the functions in the encoding device 1 and the decoding device 3 and a processor that executes the program stored in the memory may be provided. Good.

1…符号化装置
11…イントラ予測モード決定部
12…合成領域決定部
13…イントラ予測部
14…残差信号生成部
15…直交変換・量子化部
16…逆量子化部・逆直交変換部
17…局部復号画像生成部
18…メモリ部
19…エントロピー符号化部
3…復号装置
31…エントロピー復号部
32…合成領域決定部
33…イントラ予測部
34…逆量子化・逆変換部
35…局部復号画像生成部
36…メモリ部
DESCRIPTION OF SYMBOLS 1 ... Coding apparatus 11 ... Intra prediction mode determination part 12 ... Synthesis area | region determination part 13 ... Intra prediction part 14 ... Residual signal generation part 15 ... Orthogonal transformation / quantization part 16 ... Inverse quantization part / inverse orthogonal transformation part 17 ... Local decoded image generation unit 18 ... Memory unit 19 ... Entropy encoding unit 3 ... Decoding device 31 ... Entropy decoding unit 32 ... Synthesis region determination unit 33 ... Intra prediction unit 34 ... Inverse quantization / inverse conversion unit 35 ... Local decoded image Generation unit 36 ... memory unit

Claims (8)

動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている符号化装置であって、
イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、
前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを特徴とする符号化装置。
An encoding device configured to divide and encode an original image of a frame unit constituting a moving image into encoding target blocks,
A synthesis region determination unit configured to determine a synthesis region in which a predicted image is generated from neighboring pixels that have not been decoded in the encoding target block, based on an intra prediction mode;
An encoding apparatus comprising: an intra prediction unit configured to change a generation method of a predicted image of each region based on whether or not the region is included in the synthesis region.
前記イントラ予測部は、前記合成領域に含まれる領域と前記合成領域に含まれない領域との間の境界領域において、所定条件が満たされる場合に、前記境界領域の予測画像に対して平滑フィルタを適用するように構成されていることを特徴とする請求項1に記載の符号化装置。   The intra prediction unit applies a smoothing filter to a prediction image of the boundary region when a predetermined condition is satisfied in a boundary region between the region included in the synthesis region and the region not included in the synthesis region. The encoding device according to claim 1, wherein the encoding device is configured to be applied. 前記イントラ予測部は、前記合成領域に含まれる領域において、コピーによって埋められた未復号参照画素に基づいて生成された予測画像及び前記合成領域において生成された予測画像の加重平均によって前記予測画像を生成するように構成されていることを特徴とする請求項1に記載の符号化装置。   The intra-prediction unit calculates the prediction image by a weighted average of a prediction image generated based on an undecoded reference pixel embedded by copying and a prediction image generated in the synthesis region in an area included in the synthesis area. The encoding apparatus according to claim 1, wherein the encoding apparatus is configured to generate the encoding apparatus. 動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して復号するように構成されている復号装置であって、
イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、
前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを特徴とする復号装置。
A decoding device configured to divide and decode an original image of a frame unit constituting a moving image into encoding target blocks,
A synthesis region determination unit configured to determine a synthesis region in which a predicted image is generated from neighboring pixels that have not been decoded in the encoding target block, based on an intra prediction mode;
A decoding apparatus comprising: an intra prediction unit configured to change a generation method of a predicted image of each region based on whether or not the region is included in the synthesis region.
前記イントラ予測部は、前記合成領域に含まれる領域と前記合成領域に含まれない領域との間の境界領域において、所定条件が満たされる場合に、前記境界領域の予測画像に対して平滑フィルタを適用するように構成されていることを特徴とする請求項4に記載の復号装置。   The intra prediction unit applies a smoothing filter to a prediction image of the boundary region when a predetermined condition is satisfied in a boundary region between the region included in the synthesis region and the region not included in the synthesis region. The decoding device according to claim 4, wherein the decoding device is configured to be applied. 前記イントラ予測部は、前記合成領域に含まれる領域において、コピーによって埋められた未復号参照画素に基づいて生成された予測画像及び前記合成領域において生成された予測画像の加重平均によって前記予測画像を生成するように構成されていることを特徴とする請求項4に記載の復号装置。   The intra-prediction unit calculates the prediction image by a weighted average of a prediction image generated based on an undecoded reference pixel embedded by copying and a prediction image generated in the synthesis region in an area included in the synthesis area. The decoding device according to claim 4, wherein the decoding device is configured to generate the decoding device. コンピュータを、請求項1乃至3のいずれか一項に記載の符号化装置として機能させるためのプログラム。   The program for functioning a computer as an encoding apparatus as described in any one of Claims 1 thru | or 3. コンピュータを、請求項4乃至6のいずれか一項に記載の復号装置として機能させるためのプログラム。   The program for functioning a computer as a decoding apparatus as described in any one of Claims 4 thru | or 6.
JP2016132814A 2016-07-04 2016-07-04 Encoding device, decoding device and program Active JP6740534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016132814A JP6740534B2 (en) 2016-07-04 2016-07-04 Encoding device, decoding device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016132814A JP6740534B2 (en) 2016-07-04 2016-07-04 Encoding device, decoding device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020109183A Division JP7104101B2 (en) 2020-06-24 2020-06-24 Encoding device, decoding device and program

Publications (2)

Publication Number Publication Date
JP2018007079A true JP2018007079A (en) 2018-01-11
JP6740534B2 JP6740534B2 (en) 2020-08-19

Family

ID=60949986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132814A Active JP6740534B2 (en) 2016-07-04 2016-07-04 Encoding device, decoding device and program

Country Status (1)

Country Link
JP (1) JP6740534B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006106935A1 (en) * 2005-04-01 2006-10-12 Matsushita Electric Industrial Co., Ltd. Image decoding apparatus and image decoding method
WO2012077795A1 (en) * 2010-12-09 2012-06-14 シャープ株式会社 Image coding device, image decoding device, and data structure
JP2013537771A (en) * 2010-08-17 2013-10-03 オ,ス−ミ Intra prediction decoding method
JP2014161039A (en) * 2011-06-20 2014-09-04 Electronics & Telecommunications Research Inst Video encoding/decoding method and device of the same
JP2015109695A (en) * 2010-01-07 2015-06-11 株式会社東芝 Moving image encoder and moving image decoder

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006106935A1 (en) * 2005-04-01 2006-10-12 Matsushita Electric Industrial Co., Ltd. Image decoding apparatus and image decoding method
JP2015109695A (en) * 2010-01-07 2015-06-11 株式会社東芝 Moving image encoder and moving image decoder
JP2013537771A (en) * 2010-08-17 2013-10-03 オ,ス−ミ Intra prediction decoding method
WO2012077795A1 (en) * 2010-12-09 2012-06-14 シャープ株式会社 Image coding device, image decoding device, and data structure
JP2014161039A (en) * 2011-06-20 2014-09-04 Electronics & Telecommunications Research Inst Video encoding/decoding method and device of the same

Also Published As

Publication number Publication date
JP6740534B2 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
KR102469145B1 (en) Method and device for encoding or decoding image
TWI706667B (en) Implicit transform settings
JP5277257B2 (en) Video decoding method and video encoding method
WO2011099463A1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
WO2011099468A1 (en) Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor
WO2011125730A1 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
US20220030250A1 (en) Encoding device, decoding device, and program
JP2014509093A (en) Video decoding method using buffer compression for motion vector competition
JP2011029863A (en) Decoding processing method
JP2016154395A (en) Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block
JP2023159443A (en) Decoding device and program
JP5677576B2 (en) Video decoding method and video encoding method
JP6956471B2 (en) Coding device, decoding device and program
JP7202769B2 (en) Encoding device, decoding device and program
WO2018124249A1 (en) Encoding device, decoding device and program
JP2019213096A (en) Image decoding device, image encoding device, image processing system, image decoding method, and program
JP7332385B2 (en) Intra prediction device, image coding device, image decoding device, and program
JP6740534B2 (en) Encoding device, decoding device and program
JP2017212554A (en) Encoder, decoder and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP6890428B2 (en) Coding device, decoding device and program
JP7092455B2 (en) Encoding device, decoding device and program
KR20230141952A (en) Image encoding device, image decoding device, and program
JP7279128B2 (en) Prediction device and program
JP7167212B2 (en) Encoding device, decoding device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200527

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200625

R150 Certificate of patent or registration of utility model

Ref document number: 6740534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250