JP7279128B2 - Prediction device and program - Google Patents
Prediction device and program Download PDFInfo
- Publication number
- JP7279128B2 JP7279128B2 JP2021164113A JP2021164113A JP7279128B2 JP 7279128 B2 JP7279128 B2 JP 7279128B2 JP 2021164113 A JP2021164113 A JP 2021164113A JP 2021164113 A JP2021164113 A JP 2021164113A JP 7279128 B2 JP7279128 B2 JP 7279128B2
- Authority
- JP
- Japan
- Prior art keywords
- intra prediction
- predicted image
- prediction mode
- unit
- weighting factor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、符号化装置、復号装置及びプログラムに関する。 The present invention relates to an encoding device, a decoding device and a program.
H.265/HEVC(High Efficiency Video Coding)に代表される動画像(映像)符号化方式では、フレーム間の時間的相関を利用したインター予測及びフレーム内の空間的相関を利用したイントラ予測の2種類の予測を切り替えながら予測を行って残差信号を生成した後、直交変換処理やループフィルタ処理やエントロピー符号化処理を行い得られたストリームを出力するように構成されている。 In moving picture (video) coding systems represented by H.265/HEVC (High Efficiency Video Coding), there are two methods: inter prediction using temporal correlation between frames and intra prediction using spatial correlation within frames. After performing prediction while switching the type of prediction and generating a residual signal, it is configured to perform orthogonal transform processing, loop filter processing, and entropy coding processing and output the obtained stream.
HEVCにおけるイントラ予測では、Planar予測やDC予測や方向予測の計35種類のイントラ予測モードが用意されており、エンコーダで決定されたイントラ予測モードに従って、隣接する復号済み参照画素を用いてイントラ予測を行うように構成されている。以下、特に記載が無い場合には、「参照画素」という記載は、復号済み参照画素を示すものとする。 In intra prediction in HEVC, a total of 35 types of intra prediction modes, including planar prediction, DC prediction, and directional prediction, are prepared. According to the intra prediction mode determined by the encoder, intra prediction is performed using adjacent decoded reference pixels. configured to do so. Hereinafter, unless otherwise specified, the term "reference pixel" indicates a decoded reference pixel.
ここで、HEVCにおけるイントラ予測では、フレーム内で最も左上に位置する符号化対象ブロック(以下、「CU:Coding Unit」と呼ぶ)等、隣接する参照画素が存在しないCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されている。 Here, in intra prediction in HEVC, a specified value (10 It is configured to create reference pixels to be used when generating a predicted image by filling in "512" in the case of a bit moving image).
また、従来のHEVCでは、符号化処理が、左上からラスタースキャン順に行われるために、参照画素が復号済みでない場合がある。このような場合には、最も近い復号済み参照画素を0次外挿した値を用いて予測画像を生成するように構成されている。 In addition, in conventional HEVC, encoding processing is performed in raster scan order from the upper left, so there are cases where reference pixels have not been decoded. In such a case, a prediction image is generated using a value obtained by extrapolating the nearest decoded reference pixel to the 0th order.
とりわけ、従来のHEVCにおけるイントラ予測では、ラスタースキャン順による符号化処理により、CUの左下側や右上側に位置する参照画素が復号済みでない場合が多く、このような場合に、復号済みでない参照画素が存在する方向からの方向予測を行うと予測精度が低下し、符号化効率が低減してしまうという問題点があった。 In particular, in intra prediction in conventional HEVC, there are many cases where reference pixels located on the lower left side and upper right side of the CU have not been decoded due to encoding processing in raster scan order. However, there is a problem that the prediction accuracy is lowered and the coding efficiency is reduced when the direction prediction is performed from the direction in which there is a .
かかる問題点を解決するために、イントラ予測において、CU内に存在する複数の変換ブロック(以下、「TU:Transform Unit」と呼ぶ)に対する符号化処理順として、ラスタースキャン順(例えば、Z型)の他、U型やX型等の符号化順に自由度を持たせることによって予測精度の向上を図る技術が知られている(非特許文献1参照)。 In order to solve such a problem, in intra prediction, raster scan order (for example, Z type) is used as the encoding processing order for a plurality of transform blocks existing in a CU (hereinafter referred to as "TU: Transform Unit"). In addition, there is known a technique for improving the prediction accuracy by giving a degree of freedom to the order of encoding such as U type and X type (see Non-Patent Document 1).
また、HEVCで用いられているイントラ予測は、空間的に隣接する上側又は左側の参照画素を利用した予測であり、参照画素に近い位置の予測画素の精度が高く、参照画素から遠い位置の予測画素の精度が低くなる傾向にある。 In addition, the intra prediction used in HEVC is prediction using spatially adjacent upper or left reference pixels. Pixel accuracy tends to be low.
したがって、CU/TUのサイズが小さい場合には、イントラ予測の精度は高い傾向にあるが、CU/TUのサイズが大きくなるにつれて、参照画素から遠い位置にある予測画素の割合が増え、予測画像全体の予測精度が低下する。また、CU/TUのサイズが大きくなるにつれて、参照画素に含まれるブロック歪み等の符号化劣化が予測画像に伝搬する可能性が高くなる。 Therefore, when the size of the CU/TU is small, the accuracy of intra prediction tends to be high. Decrease in overall prediction accuracy. In addition, as the size of the CU/TU increases, the possibility of propagation of coding deterioration such as block distortion contained in reference pixels to the predicted image increases.
そこで、従来のHEVCでは、CU/TUのサイズやイントラ予測モードの方向に応じて、参照画素に平滑化フィルタを適用した上で予測画像を生成するように構成されている。 Therefore, conventional HEVC is configured to apply a smoothing filter to reference pixels according to the size of the CU/TU and the direction of the intra-prediction mode to generate a predicted image.
一般的に、予測画像のうち、参照画素に近い位置の予測画素は、予測すべき原画像の有する真値に近くなりやすく、予測精度が高くなる傾向にある一方、参照画素から遠い位置の予測画素は、予測すべき原画像の有する真値から外れやすく、予測精度が低くなる傾向にあるため、HEVCのように、平滑化された復号済み参照画素を用いたイントラ予測の方が、予測精度が高くなる傾向にある。 In general, prediction pixels at positions close to the reference pixels in the prediction image tend to be close to the true values of the original image to be predicted, and the prediction accuracy tends to be high. Pixels tend to deviate from the true values of the original image to be predicted, and the prediction accuracy tends to be low. tends to be higher.
そこで、非特許文献2では、予測精度を高めるために、平滑化処理を施す前の参照画素により生成された予測画像(非平滑予測画像)及び平滑化処理を施した後の参照画素により生成された予測画像(平滑予測画像)を生成し、イントラ予測モードの方向及びCU/TUのサイズに応じて予め規定された重み係数を用いて非平滑予測画像及び平滑予測画像を合成することで、より精度の高い予測画像を生成する手法を提案している。 Therefore, in Non-Patent Document 2, in order to increase the prediction accuracy, a predicted image (non-smoothed predicted image) generated by reference pixels before smoothing and a reference pixel after smoothing are generated. By generating a predicted image (smoothed predicted image) and combining the non-smoothed predicted image and the smoothed predicted image using a predetermined weighting factor according to the direction of the intra prediction mode and the size of CU/TU, We propose a method for generating highly accurate predicted images.
以下、図12及び図13に、かかる重み係数の一例について示す。 An example of such a weighting factor is shown below in FIGS. 12 and 13. FIG.
図12(a)及び図12(b)は、HEVCにおけるイントラ予測モードが2である場合の重み係数の分布の一例を示し、図13(a)及び図13(b)は、HEVCにおけるイントラ予測モードが18である場合の重み係数の分布の一例を示す。 FIGS. 12(a) and 12(b) show an example of distribution of weighting factors when the intra prediction mode in HEVC is 2, and FIGS. 13(a) and 13(b) show intra prediction in HEVC. An example of the weighting factor distribution when the mode is 18 is shown.
また、図12(a)及び図13(a)は、平滑化前参照画素を用いた予測画像(すなわち、非平滑予測画像)における重み係数の一例を示し、図12(b)及び図13(b)は、平滑化後参照画素を用いた予測画像(すなわち、平滑予測画像)における重み係数の一例を示す。 Also, FIGS. 12(a) and 13(a) show examples of weighting coefficients in a predicted image (that is, a non-smoothed predicted image) using pre-smoothing reference pixels, and FIGS. 12(b) and 13( b) shows an example of a weighting factor in a predicted image using smoothed reference pixels (that is, a smoothed predicted image).
なお、図12及び図13において、黒い部分の重み係数は「0」であり、白い部分の重み係数は「1」である。 In FIGS. 12 and 13, the weighting factor for the black portion is "0" and the weighting factor for the white portion is "1".
図12及び図13に示すように、参照画素に近い位置にある予測画素においては、非平滑予測画像の比重が高くなり、参照画素から遠い位置にある予測画素においては、平滑予測画像の比重が高くなる。 As shown in FIGS. 12 and 13, the weight of the non-smoothed predicted image is higher in the predicted pixels located closer to the reference pixels, and the weight of the smoothed predicted images is higher in the predicted pixels located farther from the reference pixels. get higher
非特許文献2の手法では、イントラ予測モード及びCU/TUのサイズに応じて重み係数の分布を予め規定し、符号化対象のCU/TUのサイズやイントラ予測モードに応じて重み係数を切り替えて適用するように規定されている。 In the method of Non-Patent Document 2, the distribution of weighting factors is defined in advance according to the intra prediction mode and the size of the CU/TU, and the weighting factor is switched according to the size of the CU/TU to be encoded and the intra prediction mode. prescribed to apply.
なお、本明細書の図において、イントラ予測モードの方向(予測方向)を示す矢印は、
HEVC規格書における記載と同様に、イントラ予測の対象の画素から参照画素に向かうものとする(以下同様)。
In the figures of this specification, the arrow indicating the direction of intra prediction mode (prediction direction) is
Similar to the description in the HEVC standard, it is assumed that the intra-prediction target pixel is directed to the reference pixel (the same applies hereinafter).
上述のように、非特許文献2の手法では、イントラ予測に用いる参照画素の位置を考慮しておらず、イントラ予測に用いる参照画素の位置に右側や下側を含む場合(すなわち、右側や下側の隣接する参照画素を用いて予測画像を生成する場合)であっても、イントラ予測モード及びCU/TUのサイズに応じて重み係数を決定してしまう。 As described above, the method of Non-Patent Document 2 does not consider the position of the reference pixel used for intra prediction, and when the position of the reference pixel used for intra prediction includes the right side and the bottom side (that is, the right side and the bottom side) Even in the case where a prediction image is generated using adjacent reference pixels on the side), the weighting factor is determined according to the intra prediction mode and the CU/TU size.
すなわち、非特許文献2の手法では、参照画素に近い位置においては、非平滑予測画像の方が、予測精度が高く、参照画素から遠い位置においては、平滑予測画像の方が、予測精度が高いにも関わらず、イントラ予測に用いる参照画素の位置によらずに、重み係数を決定してしまうため、予測精度が低下してしまい、符号化性能が低下してしまうという問題点があった。 That is, in the method of Non-Patent Document 2, the non-smoothed predicted image has higher prediction accuracy at positions close to the reference pixels, and the smoothed predicted image has higher prediction accuracy at positions far from the reference pixels. In spite of this, the weighting factor is determined regardless of the position of the reference pixel used for intra prediction, so there is a problem that the prediction accuracy is lowered and the encoding performance is lowered.
そこで、本発明は、上述した課題を解決するためになされたものであり、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる符号化装置、復号装置及びプログラムを提供することを目的とする。 Therefore, the present invention has been made to solve the above-described problems, and it is possible to prevent deterioration in prediction accuracy by appropriately synthesizing a non-smoothed predicted image and a smoothed predicted image when generating a predicted image. An object of the present invention is to provide an encoding device, a decoding device, and a program that can
本発明の第1の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して符号化するように構成されている符号化装置であって、イントラ予測モードを用いて予測画像を生成するように構成されているイントラ予測部を具備しており、前記イントラ予測部は、参照画素に対して平滑化処理を施すことなく前記イントラ予測モードを用いて非平滑予測画像を生成するように構成されている非平滑イントラ予測部と、前記参照画素に対して平滑化処理を施した後に前記イントラ予測モードを用いて平滑予測画像を生成するように構成されている平滑イントラ予測部と、前記イントラ予測モード及び前記参照画素の位置に応じて重み係数を決定するように構成されている重み係数決定部と、前記重み係数を用いて、前記非平滑予測画像及び前記平滑予測画像を合成して前記予測画像を生成するように構成されている予測画像生成部とを具備することを要旨とする。 A first feature of the present invention is an encoding device that is configured to divide and encode an original image in units of frames that constitute a moving image into encoding target blocks, and uses an intra prediction mode to encode An intra prediction unit configured to generate a predicted image, wherein the intra prediction unit generates a non-smoothed predicted image using the intra prediction mode without performing smoothing processing on reference pixels. and a smoothed intra prediction unit configured to generate a smoothed predicted image using the intra prediction mode after performing smoothing processing on the reference pixels a weighting factor determination unit configured to determine weighting factors according to the intra prediction mode and the position of the reference pixel; and using the weighting factors, the non-smoothed predicted image and the smoothed predicted image. and a predicted image generator configured to generate the predicted image by synthesizing the .
本発明の第2の特徴は、動画像を構成するフレーム単位の原画像を符号化対象ブロックに分割して復号するように構成されている復号装置であって、イントラ予測モードを用いて予測画像を生成するように構成されているイントラ予測部を具備しており、前記イントラ予測部は、参照画素に対して平滑化処理を施すことなく前記イントラ予測モードを用いて非平滑予測画像を生成するように構成されている非平滑イントラ予測部と、前記参照画素に対して平滑化処理を施した後に前記イントラ予測モードを用いて平滑予測画像を生成するように構成されている平滑イントラ予測部と、前記イントラ予測モード及び前記参照画素の位置に応じて重み係数を決定するように構成されている重み係数決定部と、前記重み係数を用いて、前記非平滑予測画像及び前記平滑予測画像を合成して前記予測画像を生
成するように構成されている予測画像生成部とを具備することを要旨とする。
A second feature of the present invention is a decoding device configured to divide an original image in units of frames that constitute a moving image into encoding target blocks and decode the predicted image using an intra prediction mode. wherein the intra prediction unit generates a non-smooth predicted image using the intra prediction mode without performing smoothing processing on reference pixels and a smooth intra prediction unit configured to generate a smooth predicted image using the intra prediction mode after performing smoothing processing on the reference pixels. a weighting factor determination unit configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel; and using the weighting factor, synthesize the non-smoothed predicted image and the smoothed predicted image. and a predicted image generation unit configured to generate the predicted image as described above.
本発明の第3の特徴は、コンピュータを、上述の第1の特徴に記載の符号化装置として機能させるためのプログラムであることを要旨とする。 A gist of a third aspect of the present invention is a program for causing a computer to function as the encoding device according to the first aspect.
本発明の第4の特徴は、コンピュータを、上述の第2の特徴に記載の復号装置として機能させるためのプログラムであることを要旨とする。 A gist of a fourth aspect of the present invention is a program for causing a computer to function as the decoding device according to the second aspect.
本発明によれば、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる符号化装置、復号装置及びプログラムを提供することができる。 According to the present invention, it is possible to provide an encoding device, a decoding device, and a program that can prevent a decrease in prediction accuracy by appropriately synthesizing a non-smoothed predicted image and a smoothed predicted image when generating a predicted image. can.
(第1の実施形態)
以下、図1~図11を参照して、本発明の第1の実施形態に係る符号化装置1及び復号装置3について説明する。
(First embodiment)
An
ここで、本実施形態に係る符号化装置1及び復号装置3は、HEVC等の動画像符号化方式におけるイントラ予測に対応するように構成されている。なお、本実施形態に係る符号化装置1及び復号装置3は、イントラ予測を行う動画像符号化方式であれば、任意の動画像符号化方式に対応することができるように構成されている。
Here, the
本実施形態に係る符号化装置1は、動画像を構成するフレーム単位の原画像をCUに分割して符号化するように構成されている。また、本実施形態に係る符号化装置1は、CUを複数のTUに分割することができるように構成されていてもよい。以下、本実施形態で
は、CUを複数のTUに分割するケースを例に挙げて説明するが、本発明は、CUを複数のTUに分割しないケースであって、当該CUの参照画素の位置が下側や右側を含む場合にも適用可能である。
The
なお、本実施形態では、フレーム内で最も左上に位置するCU等、隣接する復号済み参照画素が存在しない符号化対象のCUでは、規定した値(10ビットの動画像であれば「512」)を埋める処理により、予測画像を生成する際に用いる参照画素を作り出すように構成されているため、符号化対象のCUの左側に隣接する画素について全て参照画素とすることができるものとする。 Note that, in the present embodiment, a specified value (“512” for a 10-bit moving image) is set for a CU to be encoded that does not have an adjacent decoded reference pixel, such as the CU located at the upper leftmost position in a frame. is configured to generate reference pixels used when generating a predicted image by filling in, all pixels adjacent to the left side of the CU to be coded can be used as reference pixels.
図1に示すように、本実施形態に係る符号化装置1は、イントラ予測モード決定部11と、TU分割決定部12と、符号化順制御部13と、逐次局部復号画像生成部14と、メモリ15と、エントロピー符号化部16とを具備している。
As shown in FIG. 1, the
イントラ予測モード決定部11は、CUに適用する最適なイントラ予測モードを決定するように構成されている。
The intra-prediction
TU分割決定部12は、CUを複数のTUに分割するか否かについて決定するように構成されている。なお、本実施形態では、CUを複数のTUに分割する方法として、4分割のケースを例に挙げて説明しているが、CUを複数のTUに分割する際の分割数や分割形状については、かかるケースに制限されるものではない。
The TU
符号化順制御部13は、イントラ予測モード(例えば、イントラ予測モードの方向)に基づいてCU内のTUの符号化順を決定するように構成されている。
The coding
例えば、符号化順制御部13は、TU分割決定部12によってCUを複数のTUに分割することが決定された場合に、イントラ予測モード決定部11によって決定されたイントラ予測モードの方向が右上から左下に向かう方向(図3に示すイントラ予測モード2~9)である場合(すなわち、左下から右上に向かって方向予測が行われる場合)に、CU内のTUの符号化順として、従来のラスタースキャン順でなく、CU内の左下のTU→CU内の右下のTU→CU内の左上のTU→CU内の右上のTUという符号化順、或いは、CU内の左下のTU→CU内の左上のTU→CU内の右下のTU→CU内の右上のTUという符号化順のうち、予め規定した符号化順を採用するように構成されていてもよい。
For example, when the TU
逐次局部復号画像生成部14は、符号化順制御部13によって決定された符号化順及びCUのTUへの分割方法に基づいて局部復号画像(TUごとの復号画像)を生成するように構成されている。
The sequential locally decoded
具体的には、逐次局部復号画像生成部14は、TU分割決定部12によってCUを複数のTUに分割することが決定された場合に、符号化順制御部13により決定された符号化順に従って、逐次、局部復号画像を生成するように構成されている。
Specifically, when the TU
図1に示すように、逐次局部復号画像生成部14は、イントラ予測部14aと、残差信号生成部14bと、直交変換・量子化部14cと、逆量子化部・逆直交変換部14dと、局部復号画像生成部14eとを具備している。
As shown in FIG. 1, the sequential local decoded
イントラ予測部14aは、イントラ予測モード決定部11により決定されたイントラ予測モードを用いて予測画像を生成するように構成されている。すなわち、イントラ予測部14aは、かかるイントラ予測モードに応じて予測画像を生成する際に用いる参照画素の位置を決定し、かかる参照画素を用いて予測画像を生成するように構成されている。
The
さらに、イントラ予測部14aは、符号化順制御部13によって決定された符号化順で、予測画像を生成するように構成されていてもよい。
Furthermore, the
図2に示すように、イントラ予測部14aは、非平滑イントラ予測部14a1と、平滑イントラ予測部14a2と、重み係数決定部14a3と、予測画像生成部14a4とを具備している。
As shown in FIG. 2, the
非平滑イントラ予測部14a1は、参照画素に対して平滑化処理を施すことなくイントラ予測モードを用いて非平滑予測画像を生成するように構成されている。 The non-smoothed intra prediction unit 14a1 is configured to generate a non-smoothed predicted image using an intra prediction mode without smoothing the reference pixels.
平滑イントラ予測部14a2は、参照画素に対して平滑化処理を施した後にイントラ予測モードを用いて平滑予測画像を生成するように構成されている。 The smooth intra prediction unit 14a2 is configured to generate a smooth predicted image using an intra prediction mode after performing smoothing processing on reference pixels.
重み係数決定部14a3は、イントラ予測モード及び参照画素の位置に応じて重み係数を決定するように構成されている。 The weighting factor determination unit 14a3 is configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel.
図3に、本実施形態において用いられるイントラ予測モードの一例について示す。図3に示すように、本実施形態では、イントラ予測モード2~9は、カテゴリAに分類され、イントラ予測モード10~26は、カテゴリBに分類され、イントラ予測モード27~34は、カテゴリCに分類されるものとする。
FIG. 3 shows an example of intra prediction modes used in this embodiment. As shown in FIG. 3, in the present embodiment, intra prediction modes 2 to 9 are classified into category A,
ここで、重み係数決定部14a3は、参照画素の位置として下側及び右側の少なくとも一方が含まれている場合、イントラ予測モードの方向に応じて予め規定される重み係数を変換した係数を、重み係数として決定するように構成されていてもよい。 Here, when at least one of the lower side and the right side is included as the position of the reference pixel, the weighting factor determination unit 14a3 converts the weighting factor predetermined according to the direction of the intra prediction mode to the weighting factor. It may be configured to be determined as a coefficient.
具体的には、重み係数決定部14a3は、参照画素の位置として下側及び右側が含まれていない場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Specifically, when the lower side and the right side are not included as the position of the reference pixel, the weighting factor determination unit 14a3 determines to use the weighting factor defined in advance according to the direction of the intra prediction mode. may be configured.
すなわち、重み係数決定部14a3は、イントラ予測モードがカテゴリBに属している場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 That is, when the intra prediction mode belongs to category B, the weighting factor determination unit 14a3 may be configured to use a weighting factor defined in advance according to the direction of the intra prediction mode.
例えば、重み係数決定部14a3は、イントラ予測モードが18である場合、図13(a)及び(b)に示す重み係数の分布を用いるように構成されていてもよい。ここで、非平滑予測画像に対して適用する重み係数の分布を「α」とすると、平滑予測画像に対して適用する重み係数の分布は「1-α」となる。 For example, when the intra prediction mode is 18, the weighting factor determination unit 14a3 may be configured to use the weighting factor distributions shown in FIGS. Here, if the distribution of the weighting factors applied to the non-smoothed predicted image is "α", the distribution of the weighting factors applied to the smoothed predicted image is "1-α".
或いは、重み係数決定部14a3は、イントラ予測モードがカテゴリAに属している場合で、且つ、参照画素の位置として下側が含まれていない場合(左側の隣接する参照画素のみを用いて予測画像を生成する場合)、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Alternatively, when the intra prediction mode belongs to category A and the position of the reference pixel does not include the lower side (the predicted image is calculated using only the adjacent reference pixels on the left side). generated), it may be configured to determine to use a predetermined weighting factor according to the direction of the intra prediction mode.
例えば、重み係数決定部14a3は、イントラ予測モードが2であり、参照画素の位置として下側が含まれていない場合、図12(a)及び(b)に示す重み係数の分布を用いるように構成されていてもよい。ここで、非平滑予測画像に対して適用する重み係数の分布を「α」とすると、平滑予測画像に対して適用する重み係数の分布は「1-α」となる。 For example, the weighting factor determination unit 14a3 is configured to use the weighting factor distribution shown in FIGS. may have been Here, if the distribution of the weighting factors applied to the non-smoothed predicted image is "α", the distribution of the weighting factors applied to the smoothed predicted image is "1-α".
或いは、重み係数決定部14a3は、イントラ予測モードがカテゴリCに属している場合で、且つ、参照画素の位置として右側が含まれていない場合、イントラ予測モードの方向に応じて予め規定される重み係数を用いるように決定するように構成されていてもよい。 Alternatively, when the intra prediction mode belongs to category C and the right side is not included as the position of the reference pixel, the weight factor determination unit 14a3 determines the weight predetermined according to the direction of the intra prediction mode. It may be configured to determine using coefficients.
一方、重み係数決定部14a3は、参照画素の位置として下側が含まれている場合(下側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を垂直方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 On the other hand, when the lower side is included as the position of the reference pixel (when generating the predicted image using the adjacent reference pixels on the lower side), the weighting factor determination unit 14a3 reverses the direction of the intra prediction mode in the vertical direction. It may be configured to determine a weighting factor obtained by vertically inverting a weighting factor defined in advance according to the direction of the movement.
例えば、重み係数決定部14a3は、イントラ予測モードがカテゴリAに属している場合で、且つ、参照画素の位置として左側及び下側が含まれている場合(左側及び下側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を垂直方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 For example, if the intra prediction mode belongs to category A and the positions of the reference pixels include the left side and the bottom side (the adjacent reference pixels on the left side and the bottom side are used, the weighting factor determination unit 14a3 when the prediction image is generated by using the intra-prediction mode), a weighting factor obtained by vertically inverting a weighting factor that is predetermined according to the direction in which the direction of the intra prediction mode is vertically inverted is determined as the weighting factor. may
ここで、「イントラ予測モードの方向を垂直方向に反転する」とは、図3の例では、イントラ予測モード2~9の方向とイントラ予測モード18~11の方向との間でそれぞれ変換することを意味する、すなわち、イントラ予測モード10の方向を基準にして各イントラ予測モードの方向を線対称な位置関係にあるイントラ予測モードの方向に変換することを意味する。
Here, "reversing the direction of the intra prediction mode in the vertical direction" means converting between the directions of intra prediction modes 2 to 9 and the directions of
図4(a)及び図4(b)は、イントラ予測モードが2である場合で且つ参照画素の位置として左側及び下側が含まれている場合の重み係数の分布の一例を示し、図5(a)及び図5(b)は、イントラ予測モードが18である場合の重み係数の分布の例を示す。 FIGS. 4(a) and 4(b) show an example of the distribution of weighting factors when the intra prediction mode is 2 and the reference pixel positions include the left side and the lower side, and FIG. a) and FIG. 5(b) show an example of weighting factor distribution when the intra prediction mode is 18. FIG.
また、図4(a)及び図5(a)は、平滑化前参照画素を用いた予測画像(すなわち、非平滑予測画像)における重み係数の一例を示し、図4(b)及び図5(b)は、平滑化後参照画素を用いた予測画像(すなわち、平滑予測画像)における重み係数の一例を示す。 4(a) and 5(a) show an example of weighting coefficients in a predicted image (that is, a non-smoothed predicted image) using reference pixels before smoothing, and FIGS. 4(b) and 5( b) shows an example of a weighting factor in a predicted image using smoothed reference pixels (that is, a smoothed predicted image).
なお、図4及び図5において、黒い部分の重み係数は「0」であり、白い部分の重み係数は「1」である。 In addition, in FIGS. 4 and 5, the weighting coefficient of the black portion is "0" and the weighting coefficient of the white portion is "1".
ここで、「重み係数を垂直方向に反転する」とは、図4及び図5に示す重み係数の分布を垂直方向Vに反転することによって各参照画素に対応する重み係数を変換することを意味する。 Here, "inverting the weighting factors in the vertical direction" means converting the weighting factors corresponding to each reference pixel by inverting the distribution of the weighting factors shown in FIGS. 4 and 5 in the vertical direction V. do.
例えば、図4(a)に示す重み係数の分布を垂直方向Vに反転すると図5(b)に示す重み係数の分布となり、図4(b)に示す重み係数の分布を垂直方向Vに反転すると図5(a)に示す重み係数の分布となる。 For example, if the weighting factor distribution shown in FIG. 4A is inverted in the vertical direction V, the weighting factor distribution shown in FIG. 5B is obtained, and the weighting factor distribution shown in FIG. Then, the weighting factor distribution shown in FIG. 5(a) is obtained.
すなわち、イントラ予測モードが2である場合で且つ参照画素の位置として左側及び下側が含まれている場合の重み係数の分布を垂直方向に反転すると、イントラ予測モードが18である場合の重み係数の分布となる。 That is, when the distribution of the weighting factors is vertically inverted when the intra prediction mode is 2 and the reference pixel positions include the left side and the lower side, the weighting factors when the intra prediction mode is 18 are distribution.
換言すると、重み係数決定部14a3は、イントラ予測モードが2であり、参照画素の位置として左側及び下側が含まれている場合、図12(a)及び(b)に示す重み係数の分布を用いる代わりに、図5に示すイントラ予測モードが18である場合の重み係数の分布を垂直方向に反転した重み係数の分布(図4に示す重み係数の分布)を用いるように構
成されている。
In other words, when the intra prediction mode is 2 and the positions of the reference pixels include the left side and the lower side, the weighting factor determination unit 14a3 uses the weighting factor distributions shown in FIGS. Instead, it is configured to use a weighting factor distribution obtained by vertically inverting the weighting factor distribution when the intra prediction mode is 18 shown in FIG. 5 (the weighting factor distribution shown in FIG. 4).
また、「重み係数を垂直方向に反転する」とは、以下の(式1)及び(式2)に示すように、重み係数の分布をαとα’との間で変換することを意味する。 In addition, "inverting the weighting factor in the vertical direction" means converting the distribution of the weighting factor between α and α' as shown in (Equation 1) and (Equation 2) below. .
ここで、α及びα’の各要素である「α11」~「αmn」が各参照画素に対応する重み係数を示す。 Here, "α11" to "αmn", which are the elements of α and α', indicate weighting factors corresponding to respective reference pixels.
さらに、重み係数決定部14a3は、参照画素の位置として右側が含まれている場合(右側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を水平方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 Furthermore, when the right side is included as the position of the reference pixel (when generating the predicted image using the adjacent reference pixels on the right side), the weighting factor determination unit 14a3 horizontally reverses the direction of the intra prediction mode. It may be configured such that a weighting factor that is horizontally inverted from a weighting factor that is predetermined according to the direction is determined as the weighting factor.
例えば、重み係数決定部14a3は、イントラ予測モードがカテゴリCに属している場合で、且つ、参照画素の位置として上側及び右側が含まれている場合(上側及び右側の隣接する参照画素を用いて予測画像を生成する場合)、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を水平方向に反転した係数を、かかる重み係数として決定するように構成されていてもよい。 For example, when the intra prediction mode belongs to category C and the upper and right sides are included as the reference pixel positions (using the upper and right adjacent reference pixels, the weighting factor determination unit 14a3 when generating a prediction image), a weighting factor that is horizontally inverted from a weighting factor that is predetermined according to the direction in which the direction of the intra prediction mode is horizontally inverted is determined as the weighting factor. good too.
ここで、「イントラ予測モードの方向を水平方向に反転する」とは、図3の例では、イントラ予測モード18~25の方向とイントラ予測モード34~27の方向との間でそれぞれ変換することを意味する、すなわち、イントラ予測モード26の方向を基準にして各イントラ予測モードの方向を線対称な位置関係にあるイントラ予測モードの方向に変換することを意味する。
Here, "reversing the direction of the intra prediction mode horizontally" means converting between the direction of the
また、「重み係数を水平方向に反転する」とは、図4及び図5に示す重み係数の分布を垂直方向Hに反転することによって各参照画素に対応する重み係数を変換することを意味する。 Further, "reversing the weighting coefficients in the horizontal direction" means that the weighting coefficients corresponding to each reference pixel are converted by reversing the distribution of the weighting coefficients shown in FIGS. 4 and 5 in the vertical direction H. .
或いは、「重み係数を水平方向に反転する」とは、以下の(式3)及び(式4)に示すように、重み係数の分布をαとα’’との間で変換することを意味する。 Alternatively, "horizontally inverting the weighting factors" means transforming the distribution of the weighting factors between α and α'' as shown in the following (Equation 3) and (Equation 4). do.
ここで、α及びα’’の各要素である「α11」~「αmn」が各参照画素に対応する重み係数を示す。 Here, “α11” to “αmn”, which are elements of α and α″, indicate weighting factors corresponding to respective reference pixels.
予測画像生成部14a4は、重み係数決定部14a3によって決定された重み係数を用いて、非平滑予測画像及び平滑予測画像を合成して予測画像を生成するように構成されている。 The predicted image generator 14a4 is configured to generate a predicted image by combining the non-smoothed predicted image and the smoothed predicted image using the weighting factor determined by the weighting factor determining part 14a3.
残差信号生成部14bは、イントラ予測部14aによって生成された予測画像と原画像との差分により残差信号を生成するように構成されている。
The residual
直交変換・量子化部14cは、残差信号生成部14bによって生成された残差信号に対して直交変換処理及び量子化処理を施し、量子化された変換係数を生成するように構成されている。
The orthogonal transformation/
逆量子化部・逆直交変換部14dは、直交変換・量子化部14cによって生成された量子化された変換係数に対して、再び逆量子化処理及び逆直交変換処理を施して残差信号を生成するように構成されている。
The inverse quantization unit/inverse
局部復号画像生成部14eは、逆量子化部・逆直交変換部14dによって生成された残差信号に対してイントラ予測部14aによって生成された予測画像を加えることで局部復号画像を生成するように構成されている。
The local decoded
メモリ15は、逐次局部復号画像生成部14によって生成された局部復号画像を参照画像として利用可能に保持するように構成されている。
The
エントロピー符号化部16は、イントラ予測モード決定部11によって決定されたイントラ予測モード等を含むフラグ情報や量子化された変換係数に対してエントロピー符号化処理を施してストリーム出力するように構成されている。
The
図6~図9に、本実施形態に係る符号化装置1において予測画像を生成する動作の一例について説明するためのフローチャートについて示す。
6 to 9 show flowcharts for explaining an example of the operation of generating a predicted image in the
図6に示すように、ステップS101において、CUを複数のTUに分割される場合に
は、本動作は、ステップS102に進む。一方、ステップS101において、CUを複数のTUに分割されない場合には、本動作は、ステップS104に進む。
As shown in FIG. 6, in step S101, when the CU is divided into a plurality of TUs, the operation proceeds to step S102. On the other hand, if the CU is not split into a plurality of TUs in step S101, the operation proceeds to step S104.
ステップS102において、イントラ予測モードがカテゴリAに属している場合には、本動作は、図7に進み、イントラ予測モードがカテゴリAに属していない場合には、本動作は、ステップS103に進む。 In step S102, when the intra prediction mode belongs to category A, the operation proceeds to FIG. 7, and when the intra prediction mode does not belong to category A, the operation proceeds to step S103.
ステップS103において、イントラ予測モードがカテゴリBに属している場合には、本動作は、図8に進み、イントラ予測モードがカテゴリBに属していない場合(すなわち、イントラ予測モードがカテゴリCに属している場合)には、本動作は、図9に進む。 In step S103, if the intra prediction mode belongs to category B, the operation proceeds to FIG. 8, and if the intra prediction mode does not belong to category B If yes), the operation proceeds to FIG.
ステップS104において、符号化装置1は、左側及び上側の参照画素を用いて予測画像を生成する。
In step S104, the
図7に示すように、ステップS201において、参照画素の位置として左側及び下側が含まれている場合には、本動作は、ステップS202に進み、参照画素の位置として下側が含まれていない場合には、本動作は、ステップS204に進む。 As shown in FIG. 7, in step S201, if the left side and the lower side are included as the reference pixel positions, the operation proceeds to step S202, and if the lower side is not included as the reference pixel positions, , the operation proceeds to step S204.
ステップS202において、符号化装置1は、イントラ予測モードの方向を垂直方向に反転した方向に応じて予め規定される重み係数を算出する。
In step S<b>202 , the
ステップS203において、符号化装置1は、算出した重み係数を垂直方向に反転した重み係数を用いて予測画像を生成する。
In step S203, the
ステップS204において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。
In step S204, the
ステップS205において、符号化装置1は、算出した重み係数を用いて予測画像を生成する。
In step S205, the
図8に示すように、ステップS301において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。
As shown in FIG. 8, in step S301, the
ステップS302において、符号化装置1は、算出した重み係数を用いて予測画像を生成する。
In step S302, the
図9に示すように、ステップS401において、参照画素の位置として上側及び右側が含まれている場合には、本動作は、ステップS402に進み、参照画素の位置として右側が含まれていない場合には、本動作は、ステップS404に進む。 As shown in FIG. 9, in step S401, if the upper and right sides are included as the reference pixel positions, the operation proceeds to step S402, and if the right side is not included as the reference pixel positions, , the operation proceeds to step S404.
ステップS402において、符号化装置1は、イントラ予測モードの方向を水平方向に反転した方向に応じて予め規定される重み係数を算出する。
In step S402, the
ステップS403において、符号化装置1は、算出した重み係数を水平方向に反転した重み係数を用いて予測画像を生成する。
In step S403, the
ステップS404において、符号化装置1は、イントラ予測モードの方向に応じて予め規定される重み係数を算出する。
In step S404, the
ステップS405において、符号化装置1は、算出した重み係数を用いて予測画像を生
成する。
In step S405, the
本実施形態に係る符号化装置1によれば、イントラ予測モードやCU/TUのサイズだけでなく参照画素の位置を考慮して重み係数を決定することができるので、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる。
According to the
例えば、図4に示すように、イントラ予測モード2を用いて予測画像を生成する場合、参照画素に近い左側及び下側に位置する予測画素については、非平滑予測画像の予測精度が高くなると考えられる一方、参照画素から遠い右上に位置する予測画素については、平滑予測画像の予測精度が高くなると考えられる。 For example, as shown in FIG. 4, when a predicted image is generated using intra prediction mode 2, the prediction accuracy of the non-smoothed predicted image is considered to be high for the predicted pixels located on the left side and the lower side near the reference pixel. On the other hand, it is considered that the prediction accuracy of the smoothed prediction image is high for the prediction pixel positioned on the upper right far from the reference pixel.
したがって、本実施形態に係る符号化装置1によれば、参照画素の位置として左側及び右側が含まれている場合には、図12に示す重み係数の分布を用いる代わりに、図4に示す重み係数の分布を用いることで、予測精度を向上させることができる。
Therefore, according to the
また、本実施形態に係る復号装置3は、動画像を構成するフレーム単位の原画像をCUに分割して復号するように構成されている。また、本実施形態に係る復号装置3は、本実施形態に係る符号化装置1と同様に、CUを複数のTUに分割することができるように構成されている。
Further, the
図10に示すように、本実施形態に係る復号装置3は、エントロピー復号部31と、復号順制御部32と、逐次復号画像生成部33と、メモリ34とを具備している。
As shown in FIG. 10 , the
エントロピー復号部31は、符号化装置1から出力されたストリームに対してエントロピー復号処理を施すことによって、符号化装置1から出力されたストリームから、変換係数やフラグ情報等を復号するように構成されている。ここで、変換係数は、符号化装置1によって、フレーム単位の原画像をCUに分割して符号化された信号として得られた量子化された変換係数である。
The
復号順制御部32は、イントラ予測モードに基づいてCU内のTUの復号順を決定するように構成されている。
The decoding
具体的には、復号順制御部32は、エントロピー復号部31によって出力されたTU分割が行われた否か(CUが複数のTUに分割されているか否か)について示すフラグ及びイントラ予測モードの方向に応じて、CU内のTUの復号順を決定するように構成されている。
Specifically, the decoding
例えば、復号順制御部32は、符号化順制御部13と同様に、CUが複数のTUに分割されている場合で、且つ、イントラ予測モードの方向が右上から左下に向かう方向(すなわち、左下から右上に向かって方向予測が行われる場合)である場合、CU内の左下のTU→CU内の右下のTU→CU内の左上のTU→CU内の右上のTUという復号順、或いは、CU内の左下のTU→CU内の左上のTU→CU内の右下のTU→CU内の右上のTUという復号順のうち、予め規定した復号順で、復号処理を行うように構成されていてもよい。
For example, similar to the encoding
逐次復号画像生成部33は、復号順制御部32によって決定された復号順及びCUのTUへの分割方法に基づいてTUごとの復号画像を生成するように構成されている。
The sequentially decoded
具体的には、逐次復号画像生成部33は、CUが複数のTUに分割されている場合に、
復号順制御部32によって決定された復号順に従って、エントロピー復号部31によって出力された量子化された変換係数に対して、逐次、イントラ予測や逆量子化処理や逆直交変換処理を行うことによって、復号画像を生成するように構成されている。
Specifically, when the CU is divided into a plurality of TUs, the sequentially decoded
By sequentially performing intra prediction, inverse quantization processing, and inverse orthogonal transformation processing on the quantized transform coefficients output by the
図10に示すように、逐次復号画像生成部33は、イントラ予測部33aと、逆量子化・逆変換部33bと、復号画像生成部33cとを具備している。
As shown in FIG. 10, the sequentially decoded
イントラ予測部33aは、復号順制御部32によって決定した復号順に従って、エントロピー復号部31によって出力されたイントラ予測モードを用いて、予測画像を生成するように構成されていてもよい。
The
図11に示すように、イントラ予測部33aは、非平滑イントラ予測部33a1と、平滑イントラ予測部33a2と、重み係数決定部33a3と、予測画像生成部33a4とを具備している。
As shown in FIG. 11, the
非平滑イントラ予測部33a1は、非平滑イントラ予測部14a1と同様に、参照画素に対して平滑化処理を施すことなくイントラ予測モードを用いて非平滑予測画像を生成するように構成されている。 The non-smoothed intra prediction unit 33a1 is configured to generate a non-smoothed predicted image using the intra prediction mode without smoothing the reference pixels, similarly to the non-smoothed intra prediction unit 14a1.
平滑イントラ予測部33a2は、平滑イントラ予測部14a2と同様に、参照画素に対して平滑化処理を施した後にイントラ予測モードを用いて平滑予測画像を生成するように構成されている。 The smoothed intra prediction unit 33a2, like the smoothed intra prediction unit 14a2, is configured to perform smoothing processing on reference pixels and then generate a smoothed predicted image using the intra prediction mode.
重み係数決定部33a3は、重み係数決定部14a3と同様に、イントラ予測モード及び参照画素の位置に応じて重み係数を決定するように構成されている。 The weighting factor determination unit 33a3 is configured to determine a weighting factor according to the intra prediction mode and the position of the reference pixel, similarly to the weighting factor determination unit 14a3.
予測画像生成部33a4は、予測画像生成部14a4と同様に、重み係数決定部14a3によって決定された重み係数を用いて、非平滑予測画像及び平滑予測画像を合成して予測画像を生成するように構成されている。 Like the predicted image generator 14a4, the predicted image generator 33a4 uses the weighting factors determined by the weighting factor determining unit 14a3 to combine the non-smoothed predicted image and the smoothed predicted image to generate a predicted image. It is configured.
逆量子化・逆変換部33bは、エントロピー復号部31によって出力された量子化された変換係数に対して逆量子化処理及び逆変換処理(例えば、逆直交変換処理)を施すことによって、残差信号を生成するように構成されている。
The inverse quantization/inverse transform unit 33b performs inverse quantization processing and inverse transform processing (for example, inverse orthogonal transform processing) on the quantized transform coefficients output from the
復号画像生成部33cは、イントラ予測部33aによって生成された予測画像と逆量子化・逆変換部33bによって生成された残差信号とを加えることで復号画像を生成するように構成されている。
The decoded
メモリ34は、逐次復号画像生成部33によって生成された復号画像を、イントラ予測及びインター予測のための参照画像として利用可能に保持するように構成されている。
The
なお、本実施形態に係る復号装置3において予測画像を生成する動作は、図6~図9に示す本実施形態に係る符号化装置1において予測画像を生成する動作と同一であるため、説明を省略する。
Note that the operation of generating a predicted image in the
本実施形態に係る復号装置3によれば、イントラ予測モードやCU/TUのサイズだけでなく参照画素の位置を考慮して重み係数を決定することができるので、予測画像を生成する際に非平滑予測画像及び平滑予測画像を適切に合成することで予測精度の低下を防ぐことができる。
According to the
(その他の実施形態)
上述のように、本発明について、上述した実施形態によって説明したが、かかる実施形態における開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。かかる開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As noted above, the present invention has been described through the above-described embodiments, but the statements and drawings forming part of the disclosure in such embodiments should not be understood to limit the present invention. From such disclosure, various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art.
また、上述の実施形態では特に触れていないが、上述の符号化装置1及び復号装置3によって行われる各処理をコンピュータに実行させるプログラムが提供されてもよい。また、かかるプログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、かかるプログラムをコンピュータにインストールすることが可能である。ここで、かかるプログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。
Moreover, although not particularly mentioned in the above-described embodiment, a program may be provided that causes a computer to execute each process performed by the above-described
或いは、上述の符号化装置1及び復号装置3内の少なくとも一部の機能を実現するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。
Alternatively, a chip configured by a memory storing a program for realizing at least part of the functions in the
1…符号化装置
11…イントラ予測モード決定部
12…TU分割決定部
13…符号化順制御部
14…逐次局部復号画像生成部
14a…イントラ予測部
14a1…非平滑イントラ予測部
14a2…平滑イントラ予測部
14a3…重み係数決定部
14a4…予測画像生成部
14b…残差信号生成部
14c…直交変換・量子化部
14d…逆量子化部・逆直交変換部
14e…局部復号画像生成部
15…メモリ
16…エントロピー符号化部
3…復号装置
31…エントロピー復号部
32…復号順制御部
33…逐次復号画像生成部
33a…イントラ予測部
33a1…非平滑イントラ予測部
33a2…平滑イントラ予測部
33a3…重み係数決定部
33a4…予測画像生成部
33b…逆量子化・逆変換部
33c…復号画像生成部
34…メモリ
1 Encoding
Claims (2)
イントラ予測モードを用いて、平滑化処理を施した参照画素からイントラ予測により予測画像を生成する第1生成部と、
前記イントラ予測モードに基づいて、前記平滑化処理を用いずに参照画素から合成用画像を生成する第2生成部と、
前記予測画像と前記合成用画像との重み付き合成処理を行う重み付き合成部と、を具備し、
前記重み付き合成部は、
前記イントラ予測モードが水平方向のモードよりも小さい場合であって、且つ、前記参照画素の位置が、前記対象ブロックの左側に隣接する画素ラインに含まれる位置のみであるという条件が満たされた場合には、所定の重み係数を決定する処理を行い、当該条件が満たされない場合には、当該処理と異なる処理を行い、
前記イントラ予測モードが垂直方向のモードよりも大きい場合であって、且つ、前記参照画素の位置が、前記対象ブロックの上側に隣接する画素ラインに含まれる位置のみであるという条件が満たされた場合には、所定の重み係数を決定する処理を行い、当該条件が満たされない場合には、当該処理と異なる処理を行うことを特徴とする予測装置。 A prediction device that predicts a target block of an original image by intra prediction,
A first generation unit that generates a predicted image by intra prediction from reference pixels that have undergone smoothing processing using an intra prediction mode;
a second generating unit that generates an image for synthesis from reference pixels without using the smoothing process based on the intra prediction mode;
a weighted synthesis unit that performs weighted synthesis processing of the predicted image and the synthesis image ,
The weighted combining unit
When the intra prediction mode is smaller than the horizontal mode, and when the position of the reference pixel is only a position included in a pixel line adjacent to the left side of the target block is satisfied. , a process for determining a predetermined weighting factor is performed, and if the condition is not satisfied, a process different from the process is performed,
When the intra prediction mode is larger than the vertical mode, and when the position of the reference pixel is only the position included in the pixel line adjacent to the upper side of the target block is satisfied. performs a process of determining a predetermined weighting factor, and performs a process different from the process if the condition is not satisfied.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021164113A JP7279128B2 (en) | 2016-05-13 | 2021-10-05 | Prediction device and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016097486A JP6956471B2 (en) | 2016-05-13 | 2016-05-13 | Coding device, decoding device and program |
JP2021164113A JP7279128B2 (en) | 2016-05-13 | 2021-10-05 | Prediction device and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016097486A Division JP6956471B2 (en) | 2016-05-13 | 2016-05-13 | Coding device, decoding device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022017254A JP2022017254A (en) | 2022-01-25 |
JP7279128B2 true JP7279128B2 (en) | 2023-05-22 |
Family
ID=87888666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021164113A Active JP7279128B2 (en) | 2016-05-13 | 2021-10-05 | Prediction device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7279128B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6956471B2 (en) | 2016-05-13 | 2021-11-02 | 日本放送協会 | Coding device, decoding device and program |
-
2021
- 2021-10-05 JP JP2021164113A patent/JP7279128B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6956471B2 (en) | 2016-05-13 | 2021-11-02 | 日本放送協会 | Coding device, decoding device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022017254A (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6886528B2 (en) | Video decoding method and equipment by intra-prediction in video coding system | |
US11665337B2 (en) | Method and apparatus for encoding/decoding an image signal | |
KR102635983B1 (en) | Methods of decoding using skip mode and apparatuses for using the same | |
RU2603542C2 (en) | Method and apparatus for encoding video and method and apparatus for decoding video | |
US11750822B2 (en) | Encoding device, decoding device, and program | |
KR101653039B1 (en) | An appratus for scaling a resoltion using decoding information and a method thereof | |
US20180376150A1 (en) | Encoding device, decoding device, and program | |
KR20200005648A (en) | Intra prediction mode based image processing method and apparatus therefor | |
JP2023072035A (en) | Decoder and program | |
JP6956471B2 (en) | Coding device, decoding device and program | |
JP2023159443A (en) | Decoding device and program | |
JP7279128B2 (en) | Prediction device and program | |
JP7093152B2 (en) | Encoding device, decoding device and program | |
JP7167212B2 (en) | Encoding device, decoding device and program | |
JP7092455B2 (en) | Encoding device, decoding device and program | |
JP7166743B2 (en) | Encoding device, decoding device and program | |
JP7476279B2 (en) | Encoding device, decoding device, and program | |
JP7449253B2 (en) | Encoding device, decoding device and program | |
WO2023197998A1 (en) | Extended block partition types for video coding | |
WO2024022144A1 (en) | Intra prediction based on multiple reference lines | |
JP6740534B2 (en) | Encoding device, decoding device and program | |
JP2017139758A (en) | Coding apparatus, decoding apparatus, and program | |
JP2023024721A (en) | Coding device, decoding device, and program | |
CN116530084A (en) | Video codec using block-based deep learning model | |
KR20180040827A (en) | Video coding method and apparatus using grouped coding uinit syntax |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230502 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7279128 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |