JP7104101B2 - Encoding device, decoding device and program - Google Patents
Encoding device, decoding device and program Download PDFInfo
- Publication number
- JP7104101B2 JP7104101B2 JP2020109183A JP2020109183A JP7104101B2 JP 7104101 B2 JP7104101 B2 JP 7104101B2 JP 2020109183 A JP2020109183 A JP 2020109183A JP 2020109183 A JP2020109183 A JP 2020109183A JP 7104101 B2 JP7104101 B2 JP 7104101B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- region
- image
- intra prediction
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、符号化装置、復号装置及びプログラムに関する。 The present invention relates to a coding device, a decoding device and a program.
H.265/HEVC(High Efficiency Video Coding)に代表される動画像の符号化方式では、フレーム間の時間的相関を利用したインター予測及びフレーム内の空間的相関を利用したイントラ予測の2種類の予測を切り替えながら予測を行って残差信号を生成した後、直交変換処理やループフィルタ処理やエントロピー符号化処理を行い得られたストリームを出力するように構成されている。 H. In the moving image coding method represented by 265 / HEVC (High Efficiency Video Coding), two types of predictions are performed: inter-prediction using temporal correlation between frames and intra-prediction using spatial correlation within frames. It is configured to output a stream obtained by performing orthogonal conversion processing, loop filtering processing, and entropy coding processing after performing prediction while switching to generate a residual signal.
HEVCにおけるイントラ予測では、Planar予測やDC予測や方向予測の計35種類のモードが用意されており、エンコーダで決定されたモードに従って、隣接する復号済み参照画素を用いてイントラ予測を行うように構成されている。 In intra prediction in HEVC, a total of 35 types of modes such as Planar prediction, DC prediction, and direction prediction are prepared, and it is configured to perform intra prediction using adjacent decoded reference pixels according to the mode determined by the encoder. Has been done.
ここで、イントラ予測では、フレーム内で最も左上に位置するCU(Coding Unit)等、隣接する復号済み参照画素が存在しないCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されている。 Here, in the intra prediction, in the CU in which there is no adjacent decoded reference pixel such as the CU (Coding Unit) located at the upper left in the frame, the specified value (“512” for a 10-bit moving image). It is configured to create a reference pixel to be used when generating a predicted image by the process of filling in.
また、従来のHEVCでは、符号化処理が、左上からラスタースキャン順に行われるために、参照画素が復号済みでない場合がある。このような場合には、最も近い復号済み参照画素を0次外挿した値を用いて予測画像を生成するように構成されている。 Further, in the conventional HEVC, since the encoding process is performed in the raster scan order from the upper left, the reference pixel may not be decoded. In such a case, the predicted image is generated by using the value obtained by extrapolating the nearest decoded reference pixel to the 0th order.
CUは、複数のブロック(TU:Transform Unit)に分割され直交変換処理が施される。HEVCにおいて、適用するイントラ予測の種類を示すイントラ予測モードは、CU内で共通であり、複数のTUに対して共通したイントラ予測モードを用いて予測が行われる。 The CU is divided into a plurality of blocks (TU: Transfer Unit) and subjected to orthogonal transformation processing. In HEVC, the intra-prediction mode indicating the type of intra-prediction to be applied is common within the CU, and the prediction is performed using the intra-prediction mode common to a plurality of TUs.
イントラ予測では、図7に示すように、ラスタースキャン順による符号化処理により、CU#Xの左下や右上に位置する参照画素Nが復号済みでない場合が多く、このような場合に、復号済みでない参照画素が存在する方向からの方向予測を行うと予測精度が低下し、符号化効率が低減してしまうという問題点があった。 In the intra prediction, as shown in FIG. 7, the reference pixel N located at the lower left or upper right of CU # X is often not decoded due to the encoding process in the raster scan order. In such a case, the reference pixel N is not decoded. When the direction is predicted from the direction in which the reference pixel exists, there is a problem that the prediction accuracy is lowered and the coding efficiency is lowered.
以下、図8(a)~図8(d)を用いて、かかる問題点について具体的に説明する。図8は、従来のHEVCにおけるイントラ予測の一例について示す。 Hereinafter, such a problem will be specifically described with reference to FIGS. 8 (a) to 8 (d). FIG. 8 shows an example of intra-prediction in conventional HEVC.
かかる例では、図8(a)に示すように、図7の例の場合と同様に、CU#A1(フレーム内の左上のCU)の参照画素については、全てが復号済みである。同様に、図8(c)に示すように、CU#A3(フレーム内の左下のCU)の参照画素については、全てが復号済みである。 In such an example, as shown in FIG. 8A, as in the case of the example of FIG. 7, all the reference pixels of CU # A1 (the upper left CU in the frame) have been decoded. Similarly, as shown in FIG. 8C, all the reference pixels of CU # A3 (CU at the lower left in the frame) have been decoded.
これに対して、図8(b)に示すように、CU#A1内に位置する参照画素W1~W3は復号済みであるが、CU#A3内に位置する参照画素B1~B4は復号されていないので、そのままCU#A2(フレーム内の右上のCU)の予測画像を生成する際の参照画素とすることはできない。 On the other hand, as shown in FIG. 8B, the reference pixels W1 to W3 located in CU # A1 have been decoded, but the reference pixels B1 to B4 located in CU # A3 have been decoded. Therefore, it cannot be used as a reference pixel when generating a predicted image of CU # A2 (CU in the upper right of the frame) as it is.
このため、従来のHEVCでは、図8(b)に示すように、CU#A1内に位置する復号済み参照画素W1~W3の一番下に位置する参照画素W1の値を、CU#A3内の同じ列に位置する未復号参照画素B1~B4にコピーするように規定されている。 Therefore, in the conventional HEVC, as shown in FIG. 8B, the value of the reference pixel W1 located at the bottom of the decoded reference pixels W1 to W3 located in the CU # A1 is set in the CU # A3. It is specified to copy to undecoded reference pixels B1 to B4 located in the same column of.
同様に、従来のHEVCでは、図8(d)に示すように、CU#A3内に位置する復号済み参照画素B1~B3の一番下に位置する参照画素B1の値を、CU#A3の下側に存在するCU内の同じ列に位置する未復号参照画素P3にコピーするように規定されている。 Similarly, in the conventional HEVC, as shown in FIG. 8D, the value of the reference pixel B1 located at the bottom of the decoded reference pixels B1 to B3 located in the CU # A3 is set to the value of the CU # A3. It is specified to copy to the undecrypted reference pixel P3 located in the same row in the lower CU.
したがって、図8の例のように、左下から右上に向かって方向予測が行われる場合、生成された予測画像の多くはコピーで埋められた未復号参照画素により構成されているため、予測精度が低下し、符号化効率が低減してしまうという問題点があった。 Therefore, when the direction prediction is performed from the lower left to the upper right as in the example of FIG. 8, most of the generated predicted images are composed of undecoded reference pixels filled with copies, so that the prediction accuracy is high. There is a problem that it is lowered and the coding efficiency is lowered.
かかる問題点を解決するために、TU分割が行われるイントラ予測において、CU内に存在する複数のTUに対する符号化処理順として、ラスタースキャン順(例えば、Z型)の他、U型やX型等の符号化順に自由度を持たせることによって予測精度の向上を図る技術が知られている(非特許文献1参照)。 In order to solve such a problem, in the intra-prediction in which the TU division is performed, the coding processing order for a plurality of TUs existing in the CU is the raster scan order (for example, Z type), as well as the U type and the X type. There is known a technique for improving the prediction accuracy by giving a degree of freedom in the coding order such as (see Non-Patent Document 1).
しかしながら、上述の非特許文献1に規定されている技術では、CU単位でどのような符号化処理順を用いるのかについてのフラグを伝送する必要があるため、伝送する情報量が増大してしまう他、全ての符号化処理順の中からどの符号化処理順が良いかを選択するために、符号化装置側では全ての組み合わせを試す必要があり、符号化装置側の計算時間が増大してしまうという問題点があった。 However, in the technique specified in Non-Patent Document 1 described above, it is necessary to transmit a flag as to what kind of coding processing order is used for each CU, so that the amount of information to be transmitted increases. , In order to select which coding processing order is better from all coding processing orders, it is necessary to try all combinations on the coding device side, which increases the calculation time on the coding device side. There was a problem.
そこで、本発明は、上述した課題を解決するためになされたものであり、符号化装置によって伝送する情報量を増大させることなく、また、符号化装置側の計算時間を増大させることなく、予測精度や符号化効率を向上させることができる符号化装置、復号装置及びプログラムを提供することを目的とする。 Therefore, the present invention has been made to solve the above-mentioned problems, and predicts without increasing the amount of information transmitted by the encoding device and without increasing the calculation time on the encoding device side. An object of the present invention is to provide a coding device, a decoding device, and a program capable of improving accuracy and coding efficiency.
本発明の第1の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている符号化装置であって、イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを要旨とする。 The first feature of the present invention is a coding device configured to divide the original image of each frame constituting the moving image into coding target blocks and encode the original image, based on the intra prediction mode. Based on a composite area determination unit configured to determine a composite region in which a predicted image is generated from adjacent pixels that have not been decoded in the coded block, and whether or not the predicted image is included in the composite region. The gist is to include an intra-prediction unit configured to change the method of generating a prediction image of each region.
本発明の第2の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して復号するように構成されている復号装置であって、イントラ予測モードに基づいて、前記符号化対象ブロック内において復号済みでない隣接画素から予測画像が生成される合成領域を決定するように構成されている合成領域決定部と、前記合成領域に含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されているイントラ予測部とを具備することを要旨とする。 A second feature of the present invention is a decoding device configured to divide an original image in frame units constituting a moving image into blocks to be encoded and decode it, and based on the intra prediction mode, the above-mentioned Each region is based on a composite region determination unit configured to determine a composite region in which a predicted image is generated from adjacent pixels that have not been decoded in the coded block, and whether or not the predicted image is included in the composite region. The gist is to include an intra-prediction unit configured to change the method of generating the prediction image of the above.
本発明の第3の特徴は、コンピュータを、上述の第1又は第2の特徴に記載の符号化装置として機能させるためのプログラムであることを要旨とする。 A third feature of the present invention is a program for making a computer function as a coding device according to the first or second feature described above.
本発明の第4の特徴は、コンピュータを、上述の第1又は第2の特徴に記載の復号装置として機能させるためのプログラムであることを要旨とする。 A fourth feature of the present invention is a program for making a computer function as a decoding device according to the first or second feature described above.
本発明によれば、符号化装置によって伝送する情報量を増大させることなく、また、符号化装置側の計算時間を増大させることなく、予測精度や符号化効率を向上させることができる符号化装置、復号装置及びプログラムを提供することができる。 According to the present invention, a coding device capable of improving prediction accuracy and coding efficiency without increasing the amount of information transmitted by the coding device and without increasing the calculation time on the coding device side. , Decoding devices and programs can be provided.
(第1の実施形態)
以下、図1~図5を参照して、本発明の第1の実施形態に係る符号化装置1及び復号装置3について説明する。ここで、本実施形態に係る符号化装置1及び復号装置3は、HEVCにおけるイントラ予測に対応するように構成されている。
(First Embodiment)
Hereinafter, the coding device 1 and the
本実施形態に係る符号化装置1は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている。なお、本実施形態では、符号化対象のCUの左側及び上側に隣接する画素は全て復号済みであるものとする。 The coding device 1 according to the present embodiment is configured to divide the original image of each frame constituting the moving image into coding target blocks and encode the original image. In the present embodiment, it is assumed that all the pixels adjacent to the left side and the upper side of the CU to be encoded have been decoded.
また、本実施形態に係る符号化装置1は、CUを複数のTUに分割することができるように構成されていてもよい。したがって、本実施形態では、符号化対象ブロックは、CUであってもよいし、TUであってもよい。以下、本実施形態では、符号化対象ブロックとしてCUが用いられるケースを例にして説明する。 Further, the coding device 1 according to the present embodiment may be configured so that the CU can be divided into a plurality of TUs. Therefore, in the present embodiment, the coded block may be a CU or a TU. Hereinafter, in the present embodiment, a case where CU is used as the coded block will be described as an example.
また、本実施形態では、CUの符号化順及び復号順として、従来のHEVCで用いられているラスタースキャン順(図7や図8に示すようなZ型)が用いられているケースを例にして説明しているが、かかる符号化順及び復号順として、U型やX型等の他の符号化順及び復号順が用いられていてもよい。 Further, in the present embodiment, as an example, a case where the raster scan order (Z type as shown in FIGS. 7 and 8) used in the conventional HEVC is used as the coding order and the decoding order of the CU is taken as an example. As the coding order and decoding order, other coding order and decoding order such as U type and X type may be used.
図1に示すように、本実施形態に係る符号化装置1は、イントラ予測モード決定部11と、合成領域決定部12と、イントラ予測部13と、残差信号生成部14と、直交変換・量子化部15と、逆直交変換・逆量子化部16と、局部復号画像生成部17と、メモリ部18と、エントロピー符号化部19とを具備している。
As shown in FIG. 1, the coding apparatus 1 according to the present embodiment includes an intra prediction
イントラ予測モード決定部11は、CUに適用する最適なイントラ予測モードを決定するように構成されている。
The intra prediction
合成領域決定部12は、イントラ予測モード決定部11によって決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定するように構成されている。
The composite
具体的には、図2に示すように、合成領域決定部12は、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU#A2内において復号済みでない隣接画素B1~B4から予測画像が生成される合成領域Xを決定するように構成されていてもよい。
Specifically, as shown in FIG. 2, the composite
また、本発明は、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が右上から左下に向かう方向である場合(すなわち、右上から左下に向かって方向予測が行われる場合)にも適用可能であるが、以下、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)を例に挙げて説明する。
The present invention is also applied to the case where the direction of the intra prediction mode determined by the intra prediction
なお、本明細書の図において、イントラ予測モードの方向(予測方向)を示す矢印は、HEVC規格書における記載と同様に、イントラ予測の対象の画素から参照画素に向かうものとする(以下同様)。 In addition, in the figure of this specification, the arrow indicating the direction (prediction direction) of the intra prediction mode is assumed to go from the pixel to be the target of the intra prediction to the reference pixel as described in the HEVC standard (the same applies hereinafter). ..
イントラ予測部13は、合成領域決定部12によって決定された合成領域Xに含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されている。
The
具体的には、イントラ予測部13は、図3(a)に示すように、CU#A2において、合成領域Xに含まれていない領域(すなわち、参照画素W1~W3が復号済みである領域)Yでは、イントラ予測モード決定部11によって決定されたイントラ予測モードを用いて、復号済み参照画素W1~W3に基づいて予測画像を生成するように構成されている。
Specifically, as shown in FIG. 3A, the
一方、イントラ予測部13は、図3(b)に示すように、CU#A2において、合成領域Xに含まれている領域(すなわち、参照画素B2~B4が復号済みでない領域)では、予め規定した予測方法を用いて予測画像を生成するように構成されている。
On the other hand, as shown in FIG. 3B, the
ここで、予め規定した予測方法とは、例えば、DC予測やPlanar予測等のイントラ予測の他、隣接する復号済み参照画素の値の平均等で予測画像を生成する予測方法等が挙げられる。 Here, examples of the predetermined prediction method include an intra prediction such as DC prediction and Planar prediction, and a prediction method for generating a prediction image by averaging the values of adjacent decoded reference pixels.
なお、符号化装置1及び復号装置3において、かかる予測方法について予め決定していれば、如何なる予測方法を使う場合であっても、符号化装置1から復号装置3に対して、かかる予測方法を示す新たなフラグを伝送する必要はない。
If the coding device 1 and the
また、合成領域決定部12によって決定された合成領域は、イントラ予測モードの方向及び隣接する画素が復号済みであるか否かによって一意に決定することができるため、符号化装置1から復号装置3に対して、新たに合成領域がどの領域であるかを示すフラグを伝送する必要はない。
Further, since the composite region determined by the composite
例えば、図3(b)に示すように、イントラ予測部13は、CU#A2における合成領域Xに含まれている領域内の画素X1の位置では、Planar予測を用いて、画素W3、画素D1、画素D2及び画素D4を合成することによって予測画像を生成するように構成されていてもよい。ここで、画素D4には、画素B4の値がコピーされており、画素B4には、画素W1の値がコピーされている。
For example, as shown in FIG. 3B, the
残差信号生成部14は、イントラ予測部13によって生成された予測画像と原画像との差分により残差信号を生成するように構成されている。
The residual
直交変換・量子化部15は、残差信号生成部14によって生成された残差信号に対して直交変換処理及び量子化処理を施し、量子化された変換係数を生成するように構成されている。
The orthogonal transformation /
逆直交変換・逆量子化部16は、直交変換・量子化部15によって生成された量子化された変換係数に対して、再び逆量子化処理及び逆直交変換処理を施し、量子化された残差信号を生成するように構成されている。
The inverse orthogonal transformation /
局部復号画像生成部17は、逆直交変換・逆量子化部16によって生成された量子化された残差信号に対してイントラ予測部13によって生成された予測画像を加えることで局部復号画像を生成するように構成されている。
The locally decoded
メモリ部18は、局部復号画像生成部17によって生成された局部復号画像を参照画像として利用可能に保持するように構成されている。
The
エントロピー符号化部19は、イントラ予測モード決定部11によって決定されたイントラ予測モード等を含むフラグ情報や量子化された変換係数に対してエントロピー符号化処理を施してストリーム出力するように構成されている。
The
また、本実施形態に係る復号装置3は、動画像を構成するフレーム単位の原画像をCUに分割して復号するように構成されている。また、本実施形態に係る復号装置3は、本実施形態に係る符号化装置1と同様に、CUを複数のTUに分割することができるように構成されている。
Further, the
図4に示すように、本実施形態に係る復号装置3は、エントロピー復号部31と、合成領域決定部32と、イントラ予測部33と、逆量子化・逆変換部34と、局部復号画像生成部35と、メモリ部36とを具備している。
As shown in FIG. 4, the
エントロピー復号部31は、符号化装置1から出力されたストリームから、変換係数やフラグ情報等を復号するように構成されている。ここで、変換係数は、符号化装置1によって、フレーム単位の原画像をCUに分割して符号化された信号として得られた量子化された変換係数である。また、フラグ情報は、予測モード等の付随する情報を含む。
The
合成領域決定部32は、エントロピー復号部31によって出力されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定するように構成されている。
The composite
具体的には、図2に示すように、合成領域決定部32は、エントロピー復号部31によって出力されたイントラ予測モードの方向が左下から右上に向かう方向である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU#A2内において復号済みでない隣接画素B1~B4から予測画像が生成される合成領域Xを決定するように構成されていてもよい。
Specifically, as shown in FIG. 2, the synthesis
イントラ予測部33は、合成領域決定部32によって決定された合成領域X及びエントロピー復号部31によって出力されたイントラ予測モードを用いて、予測画像を生成するように構成されていてもよい。
The
具体的には、イントラ予測部33は、イントラ予測部13と同様に、合成領域決定部12によって決定された合成領域Xに含まれるか否かに基づいて、各領域の予測画像の生成方法を変更するように構成されている。
Specifically, the
例えば、イントラ予測部33は、図3(a)に示すように、CU#A2において、合成領域Xに含まれていない領域(すなわち、参照画素W1~W3が復号済みである領域)Yでは、エントロピー復号部31によって出力されたイントラ予測モードを用いて、復号済み参照画素W1~W3に基づいて予測画像を生成するように構成されている。
For example, as shown in FIG. 3A, the
一方、イントラ予測部33は、図3(b)に示すように、CU#A2において、合成領域Xに含まれている領域(すなわち、参照画素B2~B4が復号済みでない領域)では、上述の予め規定した予測方法を用いて予測画像を生成するように構成されている。
On the other hand, as shown in FIG. 3B, the
逆量子化・逆変換部34は、エントロピー復号部31によって出力された量子化された変換係数に対して逆量子化処理及び逆変換処理(例えば、逆直交変換処理)を施すことによって、残差信号を生成するように構成されている。
The inverse quantization /
局部復号画像生成部35は、イントラ予測部33によって生成された予測画像と逆量子化・逆変換部34によって生成された残差信号とを加えることで局部復号画像を生成するように構成されている。
The locally decoded
メモリ部36は、局部復号画像生成部35によって生成された局部復号画像を、イントラ予測及びインター予測のための参照画像として利用可能に保持するように構成されている。
The
図5に、本実施形態に係る符号化装置1及び復号装置3によって予測画像を生成する動作の一例について説明するためのフローチャートについて示す。
FIG. 5 shows a flowchart for explaining an example of an operation of generating a predicted image by the coding device 1 and the
第1に、図5を参照して、本実施形態に係る符号化装置1によって予測画像を生成する動作の一例について説明する。 First, with reference to FIG. 5, an example of an operation of generating a predicted image by the coding apparatus 1 according to the present embodiment will be described.
図5に示すように、ステップS101において、符号化装置1は、CUに適用する最適なイントラ予測モードを決定する。 As shown in FIG. 5, in step S101, the coding apparatus 1 determines the optimum intra prediction mode to be applied to the CU.
ステップS102において、符号化装置1は、ステップS101において決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定する。 In step S102, the coding apparatus 1 determines the composite region X in which the predicted image is generated from the adjacent pixels that have not been decoded in the CU, based on the intra prediction mode determined in step S101.
ステップS103において、符号化装置1は、CU内において、予測画像を生成する領域が合成領域に含まれているか否かについて判定する。「No」の場合、本動作は、ステップS104に進み、「Yes」の場合、本動作は、ステップS105に進む。 In step S103, the coding apparatus 1 determines whether or not the region for generating the predicted image is included in the composite region in the CU. If "No", this operation proceeds to step S104, and if "Yes", this operation proceeds to step S105.
ステップS104において、符号化装置1は、ステップS101において決定されたイントラ予測モードを用いて、復号済み参照画素に基づいて予測画像を生成する。 In step S104, the encoding device 1 generates a predicted image based on the decoded reference pixels using the intra prediction mode determined in step S101.
ステップS105において、符号化装置1は、上述の予め規定した予測方法を用いて予測画像を生成する。 In step S105, the coding apparatus 1 generates a prediction image using the above-mentioned predetermined prediction method.
第2に、図5を参照して、本実施形態に係る復号装置3によって予測画像を生成する動作の一例について説明する。
Secondly, with reference to FIG. 5, an example of an operation of generating a predicted image by the
図5に示すように、ステップS101において、復号装置3は、エントロピー復号処理によって得られた情報に基づいてイントラ予測モードを決定する。
As shown in FIG. 5, in step S101, the
ステップS102において、復号装置3は、ステップS101において決定されたイントラ予測モードに基づいて、CU内において復号済みでない隣接画素から予測画像が生成される合成領域Xを決定する。
In step S102, the
ステップS103において、復号装置3は、CU内において、予測画像を生成する領域が合成領域に含まれているか否かについて判定する。「No」の場合、本動作は、ステップS104に進み、「Yes」の場合、本動作は、ステップS105に進む。
In step S103, the
ステップS104において、復号装置3は、ステップS101において決定されたイントラ予測モードを用いて、復号済み参照画素に基づいて予測画像を生成する。
In step S104, the
ステップS105において、復号装置3は、上述の予め規定した予測方法を用いて予測画像を生成する。
In step S105, the
本実施形態に係る符号化装置1及び復号装置3によれば、イントラ予測モードの方向(予測方向)の参照先に未復号画素が含まれている場合、隣接する復号済み参照画素をコピーすることで補間した参照画素を用いて生成した予測画像と予め規定した予測方法を用いて生成した予測画像とを合成することにより新たな予測画像を生成することで、予測精度低下を抑制することができる。
According to the encoding device 1 and the
(第2の実施形態)
以下、図6を参照して、本発明の第2の実施形態に係る符号化装置1及び復号装置3について、上述の第1の実施形態に係る符号化装置1及び復号装置3との相違点に着目して説明する。
(Second Embodiment)
Hereinafter, with reference to FIG. 6, the coding device 1 and the
本実施形態に係る符号化装置1では、イントラ予測部13は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域において、所定条件が満たされる場合に、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。
In the coding apparatus 1 according to the present embodiment, the
同様に、本実施形態に係る復号装置3では、イントラ予測部33は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域において、所定条件が満たされる場合に、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。
Similarly, in the
例えば、図6の例では、かかる境界領域には、合成領域Xに含まれる領域内の画素X1、X2、X3、X4及び合成領域Xに含まれない領域Y内の画素Y1、Y2、Y3が位置する領域が該当する。 For example, in the example of FIG. 6, the boundary region includes pixels X1, X2, X3, X4 in the region included in the composite region X and pixels Y1, Y2, Y3 in the region Y not included in the composite region X. The area where it is located is applicable.
また、所定条件としては、かかる境界領域における不連続性が所定閾値よりも高いことが挙げられる。ここで、不連続性の評価としては、例えば、水平方向の差分や垂直方向の差分や斜め方向の差分等の線形結合で表わす方法が挙げられる。 Further, as a predetermined condition, the discontinuity in the boundary region is higher than the predetermined threshold value. Here, as an evaluation of the discontinuity, for example, a method of expressing by a linear combination such as a difference in the horizontal direction, a difference in the vertical direction, and a difference in the diagonal direction can be mentioned.
すなわち、イントラ予測部13及びイントラ予測部33は、かかる境界領域における不連続性の評価の値が所定閾値よりも高い場合には、かかる境界領域の予測画像に対して平滑フィルタを適用するように構成されている。
That is, when the value of the evaluation of discontinuity in the boundary region is higher than the predetermined threshold value, the
例えば、図6の例では、イントラ予測部13及びイントラ予測部33は、かかる境界領域における不連続性の評価の値が所定閾値よりも高い場合には、合成領域Xに含まれる領域内の画素X1、X2、X3、X4及び合成領域Xに含まれない領域Y内の画素Y1、Y2、Y3が位置する領域の予測画像に対して平滑フィルタを適用するように構成されている。
For example, in the example of FIG. 6, when the value of the evaluation of discontinuity in the boundary region is higher than the predetermined threshold value, the
なお、図6の例では、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域内の画素X5、X6、X7が位置する領域の予測画像に対しても平滑フィルタを適用するように構成されている。
In the example of FIG. 6, the
ここで、符号化装置1と復号装置3との間で、上述の所定閾値を共有することで、符号化装置1から復号装置3に対して新たなフラグを伝送する必要がなくなる。
Here, by sharing the above-mentioned predetermined threshold value between the coding device 1 and the
本実施形態に係る符号化装置1及び復号装置3によれば、合成領域Xに含まれるか否かに基づいて各領域の予測画像の生成方法を変更することに起因する境界領域の不連続性を低減することができ、符号化性能を向上させることができる。
According to the coding device 1 and the
(第3の実施形態)
以下、図6を参照して、本発明の第3の実施形態に係る符号化装置1及び復号装置3について、上述の第1及び第2の実施形態に係る符号化装置1及び復号装置3との相違点に着目して説明する。
(Third Embodiment)
Hereinafter, with reference to FIG. 6, the coding device 1 and the
本実施形態に係る符号化装置1及び復号装置3において、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域において、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)及び合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の加重平均によって予測画像を生成するように構成されている。
In the coding device 1 and the
なお、本実施形態に係る符号化装置1及び復号装置3において、イントラ予測部13及びイントラ予測部33は、上述の所定条件が満たされる場合にのみ、合成領域Xに含まれる領域において、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)及び合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の加重平均によって予測画像を生成するように構成されていてもよい。
In the coding device 1 and the
本実施形態に係る符号化装置1及び復号装置3では、イントラ予測部13及びイントラ予測部33は、かかる加重平均を算出する際に用いる重み係数を算出するように構成されていてもよい。
In the coding device 1 and the
イントラ予測部13及びイントラ予測部33は、重み係数として予め定めた規定の値を用いるように構成されていてもよいし、予測画像を生成する際の復号済み参照画素の信用度を用いて重み係数を算出するように構成されていてもよい。
The
なお、図3(b)の例では、復号済み参照画素W1~W4の信用度は高く、コピーによって生成された参照画素B1~B4の信用度は低い。また、参照画素B1の信用度と参照画素B4の信用度を比べると、コピー元に近い参照画素B4の信用度の方が高い。 In the example of FIG. 3B, the decoded reference pixels W1 to W4 have a high credit rating, and the reference pixels B1 to B4 generated by copying have a low credit rating. Further, when the credit rating of the reference pixel B1 and the credit rating of the reference pixel B4 are compared, the credit rating of the reference pixel B4, which is closer to the copy source, is higher.
また、イントラ予測部13及びイントラ予測部33は、合成領域Xに含まれる領域と合成領域Xに含まれない領域Yとの間の境界領域からの距離に応じて、かかる重み係数を算出するように構成されていてもよい。
Further, the
例えば、イントラ予測部13及びイントラ予測部33は、かかる境界領域付近では、従来のHEVCにおける予測方法を用いて生成された予測画像(コピーによって埋められた未復号参照画素に基づいて生成された予測画像)の重み係数が強くなるように算出し、かかる境界領域から離れた領域では、合成領域Xにおいて生成された予測画像(上述の予め規定した予測方法を用いて生成された予測画像)の重み係数が強くなるように算出してもよい。
For example, the
(その他の実施形態)
上述のように、本発明について、上述した実施形態によって説明したが、かかる実施形態における開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。かかる開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As mentioned above, the invention has been described by the embodiments described above, but the discourses and drawings that form part of the disclosure in such embodiments should not be understood as limiting the invention. Such disclosure will reveal to those skilled in the art various alternative embodiments, examples and operational techniques.
また、上述の実施形態では特に触れていないが、上述の符号化装置1及び復号装置3によって行われる各処理をコンピュータに実行させるプログラムが提供されてもよい。また、かかるプログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、かかるプログラムをコンピュータにインストールすることが可能である。ここで、かかるプログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
Further, although not particularly mentioned in the above-described embodiment, a program for causing a computer to execute each process performed by the above-mentioned encoding device 1 and
或いは、上述の符号化装置1及び復号装置3内の少なくとも一部の機能を実現するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。
Alternatively, even if a chip composed of a memory for storing a program for realizing at least a part of the functions in the encoding device 1 and the
1…符号化装置
11…イントラ予測モード決定部
12…合成領域決定部
13…イントラ予測部
14…残差信号生成部
15…直交変換・量子化部
16…逆量子化部・逆直交変換部
17…局部復号画像生成部
18…メモリ部
19…エントロピー符号化部
3…復号装置
31…エントロピー復号部
32…合成領域決定部
33…イントラ予測部
34…逆量子化・逆変換部
35…局部復号画像生成部
36…メモリ部
1 ...
Claims (2)
符号化側から伝送されるフラグ情報により指定されるイントラ予測モードに基づいて決定する第1予測処理により第1予測画像を生成する第1予測部と、
前記符号化対象ブロックにおける合成領域を決定するように構成されている合成領域決定部と、
前記第1予測処理と異なる第2予測処理であって、符号化側から伝送される前記フラグ情報のほかに新たなフラグ情報の伝送なく決定される前記第2予測処理により、第2予測画像を生成する第2予測部と、
前記合成領域に含まれる予測画像を、前記第1予測画像と前記第2予測画像との加重平均により生成する予測画像合成部とを具備しており、
前記予測画像合成部は、前記加重平均に用いる重みを前記合成領域に含まれる画素の位置に応じて画素ごとに決定することを特徴とする復号装置。 A decoding device configured to decode a coded block obtained by dividing an original image in frame units constituting a moving image.
A first prediction unit that generates a first prediction image by a first prediction process that is determined based on an intra prediction mode specified by flag information transmitted from the coding side .
A composite area determination unit configured to determine a composite region in the coded block, and a composite region determination unit.
The second prediction process , which is different from the first prediction process and is determined without transmitting new flag information in addition to the flag information transmitted from the coding side, produces a second prediction image. The second predictor to be generated and
It includes a predictive image compositing unit that generates a predictive image included in the composite region by a weighted average of the first predictive image and the second predictive image.
The predictive image synthesizing unit is a decoding device, characterized in that the weight used for the weighted average is determined for each pixel according to the position of the pixels included in the synthesizing region.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020109183A JP7104101B2 (en) | 2020-06-24 | 2020-06-24 | Encoding device, decoding device and program |
JP2022109409A JP7343662B2 (en) | 2020-06-24 | 2022-07-07 | Decoding device and program |
JP2023141326A JP2023159443A (en) | 2020-06-24 | 2023-08-31 | Decoding device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020109183A JP7104101B2 (en) | 2020-06-24 | 2020-06-24 | Encoding device, decoding device and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132814A Division JP6740534B2 (en) | 2016-07-04 | 2016-07-04 | Encoding device, decoding device and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022109409A Division JP7343662B2 (en) | 2020-06-24 | 2022-07-07 | Decoding device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020167729A JP2020167729A (en) | 2020-10-08 |
JP7104101B2 true JP7104101B2 (en) | 2022-07-20 |
Family
ID=72666058
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020109183A Active JP7104101B2 (en) | 2020-06-24 | 2020-06-24 | Encoding device, decoding device and program |
JP2022109409A Active JP7343662B2 (en) | 2020-06-24 | 2022-07-07 | Decoding device and program |
JP2023141326A Pending JP2023159443A (en) | 2020-06-24 | 2023-08-31 | Decoding device and program |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022109409A Active JP7343662B2 (en) | 2020-06-24 | 2022-07-07 | Decoding device and program |
JP2023141326A Pending JP2023159443A (en) | 2020-06-24 | 2023-08-31 | Decoding device and program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7104101B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7343662B2 (en) | 2020-06-24 | 2023-09-12 | 日本放送協会 | Decoding device and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006106935A1 (en) | 2005-04-01 | 2006-10-12 | Matsushita Electric Industrial Co., Ltd. | Image decoding apparatus and image decoding method |
WO2012077795A1 (en) | 2010-12-09 | 2012-06-14 | シャープ株式会社 | Image coding device, image decoding device, and data structure |
JP2012205288A (en) | 2011-03-28 | 2012-10-22 | Jvc Kenwood Corp | Image decoding device, image decoding method, and image decoding program |
JP2013537771A (en) | 2010-08-17 | 2013-10-03 | オ,ス−ミ | Intra prediction decoding method |
JP2014161039A (en) | 2011-06-20 | 2014-09-04 | Electronics & Telecommunications Research Inst | Video encoding/decoding method and device of the same |
JP2015109695A (en) | 2010-01-07 | 2015-06-11 | 株式会社東芝 | Moving image encoder and moving image decoder |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7104101B2 (en) | 2020-06-24 | 2022-07-20 | 日本放送協会 | Encoding device, decoding device and program |
-
2020
- 2020-06-24 JP JP2020109183A patent/JP7104101B2/en active Active
-
2022
- 2022-07-07 JP JP2022109409A patent/JP7343662B2/en active Active
-
2023
- 2023-08-31 JP JP2023141326A patent/JP2023159443A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006106935A1 (en) | 2005-04-01 | 2006-10-12 | Matsushita Electric Industrial Co., Ltd. | Image decoding apparatus and image decoding method |
JP2015109695A (en) | 2010-01-07 | 2015-06-11 | 株式会社東芝 | Moving image encoder and moving image decoder |
JP2013537771A (en) | 2010-08-17 | 2013-10-03 | オ,ス−ミ | Intra prediction decoding method |
WO2012077795A1 (en) | 2010-12-09 | 2012-06-14 | シャープ株式会社 | Image coding device, image decoding device, and data structure |
JP2012205288A (en) | 2011-03-28 | 2012-10-22 | Jvc Kenwood Corp | Image decoding device, image decoding method, and image decoding program |
JP2014161039A (en) | 2011-06-20 | 2014-09-04 | Electronics & Telecommunications Research Inst | Video encoding/decoding method and device of the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7343662B2 (en) | 2020-06-24 | 2023-09-12 | 日本放送協会 | Decoding device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022125265A (en) | 2022-08-26 |
JP2023159443A (en) | 2023-10-31 |
JP2020167729A (en) | 2020-10-08 |
JP7343662B2 (en) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2643504C1 (en) | Advanced intraframe prediction coding using planar representations | |
TWI706667B (en) | Implicit transform settings | |
KR102046521B1 (en) | Methods of decoding using skip mode and apparatuses for using the same | |
RU2559737C2 (en) | Method and device for coding/decoding of movement vector | |
JP5367098B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
US9648329B2 (en) | Method and apparatus for predictive encoding/decoding of motion vector | |
JP5306486B2 (en) | Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof | |
CN111133759B (en) | Method and apparatus for encoding or decoding video data | |
KR20080088040A (en) | Method and apparatus for video encoding and decoding | |
JP2023109986A (en) | Extended reference intra-picture prediction | |
WO2011125730A1 (en) | Image encoding device, image encoding method, image decoding device, and image decoding method | |
JP2023159443A (en) | Decoding device and program | |
CN108924551B (en) | Method for predicting video image coding mode and related equipment | |
JP5677576B2 (en) | Video decoding method and video encoding method | |
JP6956471B2 (en) | Coding device, decoding device and program | |
JP7228980B2 (en) | Predictive image correction device, image coding device, image decoding device, and program | |
JP6740534B2 (en) | Encoding device, decoding device and program | |
JP4865767B2 (en) | Scalable video encoding method, scalable video encoding device, scalable video encoding program, and computer-readable recording medium recording the program | |
JP7167212B2 (en) | Encoding device, decoding device and program | |
JP7476279B2 (en) | Encoding device, decoding device, and program | |
JP6646125B2 (en) | Video prediction decoding method and video prediction decoding device | |
JP7449690B2 (en) | Inter prediction device, image encoding device, image decoding device, and program | |
JP5957513B2 (en) | Video decoding method | |
JP6886825B2 (en) | Predictors, encoders, decoders, and programs | |
JP2021129148A (en) | Prediction device, encoding device, decoding device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200720 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7104101 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |