JP7483422B2 - Intra prediction device, image decoding device, and program - Google Patents

Intra prediction device, image decoding device, and program Download PDF

Info

Publication number
JP7483422B2
JP7483422B2 JP2020043399A JP2020043399A JP7483422B2 JP 7483422 B2 JP7483422 B2 JP 7483422B2 JP 2020043399 A JP2020043399 A JP 2020043399A JP 2020043399 A JP2020043399 A JP 2020043399A JP 7483422 B2 JP7483422 B2 JP 7483422B2
Authority
JP
Japan
Prior art keywords
prediction
image
unit
pixel
intra prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020043399A
Other languages
Japanese (ja)
Other versions
JP2020156087A (en
Inventor
慎平 根本
俊輔 岩村
和久 井口
敦郎 市ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Publication of JP2020156087A publication Critical patent/JP2020156087A/en
Application granted granted Critical
Publication of JP7483422B2 publication Critical patent/JP7483422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、イントラ予測装置、画像符号化装置、画像復号装置、及びプログラムに関する。 The present invention relates to an intra prediction device, an image encoding device, an image decoding device, and a program.

従来から、伝送時や保存時の静止画像や動画像のデータ量を圧縮するため映像符号化方式の研究が行われている。近年、映像符号化技術では8K-SHVに代表されるような超高解像度映像の普及が進んでおり、膨大なデータ量の動画像を伝送するための手法としてAVC/H.264やHEVC/H.265などの符号化方式が知られている。 Research has been conducted into video coding methods to compress the amount of data for still and moving images during transmission and storage. In recent years, video coding technology has seen the spread of ultra-high resolution video, such as 8K-SHV, and coding methods such as AVC/H.264 and HEVC/H.265 are known as methods for transmitting huge amounts of video data.

MPEG及びITUが合同で標準化を行っている次世代映像符号化方式であるVVC(The Next-Next Generation Codec)の評価用ソフトウェア(VTM)では、フレーム内の空間的な相関を利用したイントラ予測(フレーム間予測)が利用されている(非特許文献1参照)。符号化対象ブロック(Coding Unit)周辺の復号済み参照画素を利用し、Planar予測、DC予測、及び65通りの方向性予測からなる計67通りの予測モードの中から、エンコーダ側で最適なモードが選択され、選択された情報がデコーダ側へ送られる。 The evaluation software (VTM) for VVC (The Next-Next Generation Codec), a next-generation video coding method being standardized jointly by MPEG and ITU, uses intra-prediction (inter-frame prediction) that takes advantage of spatial correlation within a frame (see non-patent document 1). Using decoded reference pixels around the coding target block (coding unit), the encoder selects the optimal mode from a total of 67 prediction modes consisting of planar prediction, DC prediction, and 65 directional predictions, and the selected information is sent to the decoder.

イントラ予測の予測精度を高めるための手法として、2つのイントラ予測モードによりそれぞれ予測画像を生成し、2つの予測画像の各画素を足し合わせて新しい予測画像を生成する予測画像合成手法が提案されている(非特許文献2参照)。具体的には、上述の65通りの方向性予測のうちいずれかのモードによって生成した予測画像である方向性予測画像と、Planarモードによって生成した予測画像であるPlanar予測画像とを足し合わせて予測画像を生成する。 As a method for improving the prediction accuracy of intra prediction, a prediction image synthesis method has been proposed in which a prediction image is generated using two intra prediction modes and each pixel of the two prediction images is added together to generate a new prediction image (see Non-Patent Document 2). Specifically, a prediction image is generated by adding a directional prediction image, which is a prediction image generated using one of the above-mentioned 65 directional prediction modes, and a planar prediction image, which is a prediction image generated using the planar mode.

JVET-M1001 “Versatile Video Coding (Draft 4)”JVET-M1001 "Versatile Video Coding (Draft 4)" JVET-M0458 “Non-CE3: Combined-Hypothesis Intra-Prediction”JVET-M0458 "Non-CE3: Combined-Hypothesis Intra-Prediction"

ところで、方向性予測は、参照画素に近い位置の画素の予測精度が高いものの、参照画素から遠ざかるにつれて予測の精度が低くなりうるという欠点を有する。 However, directional prediction has the drawback that while the prediction accuracy is high for pixels close to the reference pixel, the prediction accuracy can decrease as the pixel moves away from the reference pixel.

しかしながら、非特許文献2に記載の予測画像合成手法は、方向性予測画像とPlanar予測画像とを単に画素単位で平均化するに過ぎないものであって、方向性予測の欠点について考慮しておらず、イントラ予測の予測精度をさらに高める点において改善の余地があった。 However, the predicted image synthesis method described in Non-Patent Document 2 merely averages the directional predicted image and the planar predicted image on a pixel-by-pixel basis, and does not take into account the shortcomings of directional prediction, leaving room for improvement in terms of further improving the prediction accuracy of intra prediction.

そこで、本発明は、予測画像合成手法によりイントラ予測の予測精度をさらに高めるイントラ予測装置、画像符号化装置、画像復号装置、及びプログラムを提供することを目的とする。 The present invention aims to provide an intra prediction device, an image encoding device, an image decoding device, and a program that further improve the prediction accuracy of intra prediction using a prediction image synthesis technique.

第1の態様に係るイントラ予測装置は、原画像を分割して得た画像ブロックに対するイントラ予測を行うイントラ予測装置であって、方向性予測である第1イントラ予測モードにより前記画像ブロックを予測して第1予測画像を生成する第1予測画像生成部と、非方向性予測である第2イントラ予測モードにより前記画像ブロックを予測して第2予測画像を生成する第2予測画像生成部と、前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する際に用いる重み係数を、当該画素の位置に基づいて決定する重み係数決定部と、前記重み係数決定部により画素ごとに決定された前記重み係数を用いて、前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する画像合成部とを備えることを要旨とする。 The intra prediction device according to the first aspect is an intra prediction device that performs intra prediction on an image block obtained by dividing an original image, and includes a first predicted image generation unit that predicts the image block using a first intra prediction mode, which is a directional prediction, to generate a first predicted image, a second predicted image generation unit that predicts the image block using a second intra prediction mode, which is a non-directional prediction, to generate a second predicted image, a weighting factor determination unit that determines a weighting factor used when weighting and synthesizing the first predicted image and the second predicted image for each pixel based on the position of the pixel, and an image synthesis unit that weights and synthesizes the first predicted image and the second predicted image for each pixel using the weighting factor determined for each pixel by the weighting factor determination unit.

第2の態様に係る画像符号化装置は、第1の態様に係るイントラ予測装置を備えることを要旨とする。 The image encoding device according to the second aspect is characterized in that it includes the intra prediction device according to the first aspect.

第3の態様に係る画像復号装置は、第1の態様に係るイントラ予測装置を備えることを要旨とする。 The image decoding device according to the third aspect is characterized in that it includes the intra prediction device according to the first aspect.

第4の態様に係るプログラムは、コンピュータを第1の態様に係るイントラ予測装置として機能させることを要旨とする。 The program according to the fourth aspect is intended to cause a computer to function as the intra prediction device according to the first aspect.

本発明によれば、予測画像合成手法によりイントラ予測の予測精度をさらに高めるイントラ予測装置、画像符号化装置、画像復号装置、及びプログラムを提供できる。 The present invention provides an intra prediction device, an image encoding device, an image decoding device, and a program that further improve the prediction accuracy of intra prediction using a prediction image synthesis technique.

実施形態に係る画像符号化装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image encoding device according to an embodiment. 実施形態に係るイントラ予測の予測モードを示す図である。FIG. 1 is a diagram showing prediction modes of intra prediction according to an embodiment. 実施形態に係る画像符号化装置のイントラ予測部の構成を示す図である。FIG. 2 is a diagram showing a configuration of an intra-prediction unit of an image encoding device according to an embodiment. 実施形態に係るイントラ予測部の動作例を示す図である。FIG. 11 is a diagram illustrating an example of the operation of an intra prediction unit according to the embodiment. 実施形態に係る重み係数決定部の動作例1を示す図である。FIG. 11 is a diagram illustrating a first example of an operation of a weighting coefficient determination unit according to the embodiment. 実施形態に係る重み係数決定部の動作例2を示す図である。FIG. 11 is a diagram illustrating a second example of the operation of the weighting coefficient determination unit according to the embodiment. 実施形態に係る画像復号装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of an image decoding device according to an embodiment. 実施形態に係る画像復号装置のイントラ予測部の構成を示す図である。FIG. 2 is a diagram showing a configuration of an intra-prediction unit of an image decoding device according to an embodiment. 実施形態に係るイントラ予測部の動作フロー例を示す図である。FIG. 11 is a diagram illustrating an example of an operation flow of an intra prediction unit according to the embodiment.

図面を参照して、実施形態に係る画像符号化装置及び画像復号装置について説明する。実施形態に係る画像符号化装置及び画像復号装置は、MPEGに代表される動画の符号化及び復号をそれぞれ行う。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。 An image encoding device and an image decoding device according to an embodiment will be described with reference to the drawings. The image encoding device and the image decoding device according to the embodiment respectively encode and decode moving images such as MPEG. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

<画像符号化装置の構成>
まず、本実施形態に係る画像符号化装置について説明する。図1は、本実施形態に係る画像符号化装置1の構成を示す図である。
<Configuration of Image Encoding Device>
First, an image encoding device according to this embodiment will be described. Fig. 1 is a diagram showing the configuration of an image encoding device 1 according to this embodiment.

図1に示すように、画像符号化装置1は、ブロック分割部100と、減算部110と、変換・量子化部120と、エントロピー符号化部130と、逆量子化・逆変換部140と、合成部150と、メモリ160と、予測部170とを有する。 As shown in FIG. 1, the image coding device 1 includes a block division unit 100, a subtraction unit 110, a transformation and quantization unit 120, an entropy coding unit 130, an inverse quantization and inverse transformation unit 140, a synthesis unit 150, a memory 160, and a prediction unit 170.

ブロック分割部100は、動画像を構成するフレーム(或いはピクチャ)単位の入力画像である原画像を複数の画像ブロックに分割し、分割により得た画像ブロックを減算部1
10に出力する。画像ブロックのサイズは、例えば32×32画素、16×16画素、8×8画素、又は4×4画素等である。画像ブロックの形状は正方形に限らず長方形(矩形)であってもよい。画像ブロックは、画像符号化装置1が符号化を行う単位(符号化対象ブロック)であり、且つ画像復号装置が復号を行う単位(復号対象ブロック)である。かかる画像ブロックはCU(Coding Unit)と呼ばれることがある。
The block division unit 100 divides an original image, which is an input image in units of frames (or pictures) constituting a moving image, into a plurality of image blocks, and outputs the image blocks obtained by the division to the subtraction unit 1.
The image data is output to the image decoder 10. The size of the image block is, for example, 32×32 pixels, 16×16 pixels, 8×8 pixels, or 4×4 pixels. The shape of the image block is not limited to a square and may be a rectangle (rectangle). The image block is a unit (block to be coded) for coding by the image coding device 1 and a unit (block to be coded) for decoding by the image decoding device. Such an image block is sometimes called a CU (Coding Unit).

減算部110は、ブロック分割部100から入力された符号化対象ブロックと、符号化対象ブロックを予測部170が予測して得た予測画像との差分(誤差)を表す予測残差を算出する。具体的には、減算部110は、ブロックの各画素値から予測画像の各画素値を減算することにより予測残差を算出し、算出した予測残差を変換・量子化部120に出力する。 The subtraction unit 110 calculates a prediction residual that represents the difference (error) between the encoding target block input from the block division unit 100 and a predicted image obtained by predicting the encoding target block by the prediction unit 170. Specifically, the subtraction unit 110 calculates the prediction residual by subtracting each pixel value of the predicted image from each pixel value of the block, and outputs the calculated prediction residual to the transformation/quantization unit 120.

変換・量子化部120は、ブロック単位で直交変換処理及び量子化処理を行う。変換・量子化部120は、変換部121と、量子化部122とを有する。 The transform/quantization unit 120 performs orthogonal transform processing and quantization processing on a block-by-block basis. The transform/quantization unit 120 has a transform unit 121 and a quantization unit 122.

変換部121は、減算部110から入力された予測残差に対して直交変換処理を行って直交変換係数を算出し、算出した直交変換係数を量子化部122に出力する。直交変換とは、例えば、離散コサイン変換(DCT:Discrete Cosine Transform)や離散サイン変換(DST:Discrete Sine Transform)、カルーネンレーブ変換(KLT: Karhunen-Loeve Transform)等をいう。 The transform unit 121 performs an orthogonal transform process on the prediction residual input from the subtraction unit 110 to calculate an orthogonal transform coefficient, and outputs the calculated orthogonal transform coefficient to the quantization unit 122. Examples of orthogonal transform include discrete cosine transform (DCT), discrete sine transform (DST), and Karhunen-Loeve transform (KLT).

量子化部122は、変換部121から入力された直交変換係数を量子化パラメータ(Qp)及び量子化行列を用いて量子化し、量子化した直交変換係数をエントロピー符号化部130及び逆量子化・逆変換部140に出力する。なお、量子化パラメータ(Qp)は、ブロック内の各直交変換係数に対して共通して適用されるパラメータであって、量子化の粗さを定めるパラメータである。量子化行列は、各直交変換係数を量子化する際の量子化値を要素として有する行列である。 The quantization unit 122 quantizes the orthogonal transform coefficients input from the transformation unit 121 using a quantization parameter (Qp) and a quantization matrix, and outputs the quantized orthogonal transform coefficients to the entropy coding unit 130 and the inverse quantization and inverse transform unit 140. Note that the quantization parameter (Qp) is a parameter that is commonly applied to each orthogonal transform coefficient in a block, and is a parameter that determines the coarseness of quantization. The quantization matrix is a matrix whose elements are the quantization values used when quantizing each orthogonal transform coefficient.

エントロピー符号化部130は、量子化部122から入力された直交変換係数に対してエントロピー符号化を行い、データ圧縮を行って符号化データ(ビットストリーム)を生成し、符号化データを画像符号化装置1の外部に出力する。エントロピー符号化には、ハフマン符号やCABAC(Context-based Adaptive Binary Arithmetic Coding;コンテキスト適応型2値算術符号)等を用いることができる。なお、エントロピー符号化部130は、予測部170から予測に関するシンタックス等の情報が入力され、入力された情報のエントロピー符号化も行う。 The entropy coding unit 130 performs entropy coding on the orthogonal transform coefficients input from the quantization unit 122, performs data compression to generate coded data (bit stream), and outputs the coded data to the outside of the image coding device 1. For entropy coding, Huffman codes, CABAC (Context-based Adaptive Binary Arithmetic Coding), etc. can be used. Note that the entropy coding unit 130 receives information such as syntax related to prediction from the prediction unit 170, and also performs entropy coding on the input information.

逆量子化・逆変換部140は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部140は、逆量子化部141と、逆変換部142とを有する。 The inverse quantization and inverse transform unit 140 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 140 includes an inverse quantization unit 141 and an inverse transform unit 142.

逆量子化部141は、量子化部122が行う量子化処理に対応する逆量子化処理を行う。具体的には、逆量子化部141は、量子化部122から入力された直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより直交変換係数を復元し、復元した直交変換係数を逆変換部142に出力する。 The inverse quantization unit 141 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122. Specifically, the inverse quantization unit 141 restores the orthogonal transform coefficients by inverse quantizing the orthogonal transform coefficients input from the quantization unit 122 using a quantization parameter (Qp) and a quantization matrix, and outputs the restored orthogonal transform coefficients to the inverse transform unit 142.

逆変換部142は、変換部121が行う直交変換処理に対応する逆直交変換処理を行う。例えば、変換部121が離散コサイン変換を行った場合には、逆変換部142は逆離散コサイン変換を行う。逆変換部142は、逆量子化部141から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差である復元予測残差を合成部150に出力する。 The inverse transform unit 142 performs an inverse orthogonal transform process corresponding to the orthogonal transform process performed by the transform unit 121. For example, if the transform unit 121 performs a discrete cosine transform, the inverse transform unit 142 performs an inverse discrete cosine transform. The inverse transform unit 142 performs an inverse orthogonal transform process on the orthogonal transform coefficients input from the inverse quantization unit 141 to restore the prediction residual, and outputs the restored prediction residual, which is the restored prediction residual, to the synthesis unit 150.

合成部150は、逆変換部142から入力された復元予測残差を、予測部170から入力された予測画像と画素単位で合成する。合成部150は、復元予測残差の各画素値と予測画像の各画素値を加算して符号化対象ブロックを再構成(復号)し、復号したブロック単位の復号画像をメモリ160に出力する。かかる復号画像は、再構成画像と呼ばれることがある。 The synthesis unit 150 synthesizes the reconstructed prediction residual input from the inverse transform unit 142 with the predicted image input from the prediction unit 170 on a pixel-by-pixel basis. The synthesis unit 150 adds each pixel value of the reconstructed prediction residual to each pixel value of the predicted image to reconstruct (decode) the block to be coded, and outputs the decoded image on a block-by-block basis to the memory 160. Such a decoded image is sometimes called a reconstructed image.

メモリ160は、合成部150から入力された復号画像を記憶する。メモリ160は、復号画像をフレーム単位で記憶する。メモリ160は、記憶している復号画像を予測部170に出力する。なお、合成部150とメモリ160との間にループフィルタが設けられてもよい。なお、メモリ160の一部は、予測部170に含まれていてもよい。 The memory 160 stores the decoded image input from the synthesis unit 150. The memory 160 stores the decoded image on a frame-by-frame basis. The memory 160 outputs the stored decoded image to the prediction unit 170. Note that a loop filter may be provided between the synthesis unit 150 and the memory 160. Note that a part of the memory 160 may be included in the prediction unit 170.

予測部170は、ブロック単位で予測を行う。予測部170は、インター予測部171と、イントラ予測部172と、切替部173とを有する。 The prediction unit 170 performs prediction on a block-by-block basis. The prediction unit 170 has an inter prediction unit 171, an intra prediction unit 172, and a switching unit 173.

インター予測部171は、メモリ160に記憶された復号画像を参照画像として用いて、ブロックマッチングなどの手法により動きベクトルを算出し、符号化対象ブロックを予測してインター予測画像を生成し、生成したインター予測画像を切替部173に出力する。 The inter prediction unit 171 uses the decoded image stored in the memory 160 as a reference image to calculate a motion vector using a technique such as block matching, predicts the block to be coded, generates an inter prediction image, and outputs the generated inter prediction image to the switching unit 173.

インター予測部171は、複数の参照画像を用いるインター予測(典型的には、双予測)や、1つの参照画像を用いるインター予測(片方向予測)の中から最適なインター予測方法を選択し、選択したインター予測方法を用いてインター予測を行う。インター予測部171は、インター予測に関する情報(動きベクトル等)をエントロピー符号化部130に出力する。 The inter prediction unit 171 selects an optimal inter prediction method from among inter prediction using multiple reference images (typically bi-prediction) and inter prediction using one reference image (unidirectional prediction), and performs inter prediction using the selected inter prediction method. The inter prediction unit 171 outputs information related to the inter prediction (motion vectors, etc.) to the entropy coding unit 130.

イントラ予測部172は、メモリ160に記憶された復号画像のうち、符号化対象ブロックの周辺にある復号画素値を参照してイントラ予測画像を生成し、生成したイントラ予測画像を切替部173に出力する。また、イントラ予測部172は、選択した予測モードに関するシンタックスをエントロピー符号化部130に出力する。以下において、イントラ予測の対象となる画像ブロックをイントラ予測対象ブロックと呼ぶ。 The intra prediction unit 172 generates an intra prediction image by referring to decoded pixel values in the vicinity of the block to be coded among the decoded images stored in the memory 160, and outputs the generated intra prediction image to the switching unit 173. The intra prediction unit 172 also outputs syntax related to the selected prediction mode to the entropy coding unit 130. Hereinafter, the image block to be subjected to intra prediction is referred to as the intra prediction target block.

イントラ予測部172は、複数の予測モードの中から、イントラ予測対象ブロックに適用する最適な予測モードを選択し、選択した予測モードを用いてイントラ予測対象ブロックを予測する。 The intra prediction unit 172 selects an optimal prediction mode to be applied to the intra prediction target block from among multiple prediction modes, and predicts the intra prediction target block using the selected prediction mode.

図2は、本実施形態に係るイントラ予測の予測モードを示す図である。図2に示すように、0から66までの67通りの予測モードがある。予測モードのモード「0」はPlanar予測であり、予測モードのモード「1」はDC予測であり、予測モードのモード「2」乃至「66」は方向性予測である。方向性予測において、矢印の方向は予測方向を示し、矢印の起点は予測対象の画素の位置を示し、矢印の終点はこの予測対象画素の予測に用いる参照画素の位置を示す。モード「2」乃至「18」は、イントラ予測の対象ブロックの左側のみの参照画素を参照する予測モードである。一方で、モード「50」乃至「66」は、イントラ予測の対象ブロックの上側のみの参照画素を参照する予測モードである。 Figure 2 is a diagram showing prediction modes of intra prediction according to this embodiment. As shown in Figure 2, there are 67 prediction modes from 0 to 66. Prediction mode mode "0" is planar prediction, prediction mode mode "1" is DC prediction, and prediction modes "2" to "66" are directional prediction. In directional prediction, the direction of the arrow indicates the prediction direction, the starting point of the arrow indicates the position of the pixel to be predicted, and the end point of the arrow indicates the position of the reference pixel used to predict this pixel to be predicted. Modes "2" to "18" are prediction modes that refer to reference pixels only on the left side of the target block for intra prediction. On the other hand, modes "50" to "66" are prediction modes that refer to reference pixels only on the upper side of the target block for intra prediction.

切替部173は、インター予測部171から入力されるインター予測画像とイントラ予測部172から入力されるイントラ予測画像とを切り替えて、いずれかの予測画像を減算部110及び合成部150に出力する。 The switching unit 173 switches between the inter-prediction image input from the inter-prediction unit 171 and the intra-prediction image input from the intra-prediction unit 172, and outputs one of the predicted images to the subtraction unit 110 and the synthesis unit 150.

図3は、本実施形態に係るイントラ予測部172の構成を示す図である。イントラ予測部172は、画像符号化装置1に設けられるイントラ予測装置に相当する。 FIG. 3 is a diagram showing the configuration of the intra prediction unit 172 according to this embodiment. The intra prediction unit 172 corresponds to an intra prediction device provided in the image encoding device 1.

図3に示すように、イントラ予測部172は、メモリ160aと、第1予測画像生成部172aと、第2予測画像生成部172bと、重み係数決定部172cと、画像合成部172dとを有する。 As shown in FIG. 3, the intra prediction unit 172 includes a memory 160a, a first predicted image generation unit 172a, a second predicted image generation unit 172b, a weighting coefficient determination unit 172c, and an image synthesis unit 172d.

メモリ160aは、図1に示すメモリ160の一部である。メモリ160aは、イントラ予測の際に参照される復号済み画素である参照画素を記憶する。 Memory 160a is part of memory 160 shown in FIG. 1. Memory 160a stores reference pixels, which are decoded pixels that are referenced during intra prediction.

第1予測画像生成部172aは、方向性予測である第1イントラ予測モードによりイントラ予測対象ブロックを予測して方向性予測画像(第1予測画像)を生成し、生成した方向性予測画像を画像合成部172dに出力する。具体的には、第1予測画像生成部172aは、メモリ160aに記憶された参照画素を参照し、65通りの方向性予測のうちいずれかのモードによって方向性予測画像を生成する。 The first predicted image generating unit 172a predicts the intra prediction target block using a first intra prediction mode, which is a directional prediction, to generate a directional predicted image (first predicted image), and outputs the generated directional predicted image to the image synthesis unit 172d. Specifically, the first predicted image generating unit 172a refers to the reference pixels stored in the memory 160a, and generates a directional predicted image using one of 65 directional prediction modes.

第2予測画像生成部172bは、非方向性予測である第2イントラ予測モードによりイントラ予測対象ブロックを予測して予測画像(第2予測画像)を生成し、生成した予測画像を画像合成部172dに出力する。具体的には、第2予測画像生成部172bは、メモリ160aに記憶された参照画素を参照し、予め定められた非方向性の第2イントラ予測モードによって方向性予測画像を生成する。 The second predicted image generating unit 172b predicts the intra prediction target block using a second intra prediction mode, which is a non-directional prediction, to generate a predicted image (second predicted image), and outputs the generated predicted image to the image synthesis unit 172d. Specifically, the second predicted image generating unit 172b refers to the reference pixels stored in the memory 160a, and generates a directional predicted image using a predetermined non-directional second intra prediction mode.

第2イントラ予測モードは、非方向性の予測モードであればどのような予測モードであってもよいが、本実施形態において第2イントラ予測モードがPlanar予測である一例について説明する。 The second intra prediction mode may be any non-directional prediction mode, but in this embodiment, an example will be described in which the second intra prediction mode is planar prediction.

重み係数決定部172cは、イントラ予測対象ブロックの画素位置(座標)ごとに重み係数を決定し、決定した重み係数を画像合成部172dに出力する。重み係数決定部172cが出力する重み係数は、第1予測画像生成部172aが生成する方向性予測画像及び第2予測画像生成部172bが生成するPlanar予測画像を重み付け合成する際に用いられる。具体的には、重み係数決定部172cは、方向性予測画像及びPlanar予測画像を画素ごとに重み付け合成する際に用いる重み係数を、当該画素の位置に基づいて決定する。 The weighting coefficient determination unit 172c determines a weighting coefficient for each pixel position (coordinates) of the block to be intra-predicted, and outputs the determined weighting coefficient to the image synthesis unit 172d. The weighting coefficients output by the weighting coefficient determination unit 172c are used when weighting and synthesizing the directional prediction image generated by the first prediction image generation unit 172a and the planar prediction image generated by the second prediction image generation unit 172b. Specifically, the weighting coefficient determination unit 172c determines the weighting coefficient to be used when weighting and synthesizing the directional prediction image and the planar prediction image for each pixel, based on the position of the pixel.

画像合成部172dは、重み係数決定部172cから入力された重み係数を用いて、第1予測画像生成部172aから入力された方向性予測画像及び第2予測画像生成部172bから入力されたPlanar予測画像を画素ごとに重み付け合成し、重み付け合成後の予測画像をイントラ予測画像として出力する。 The image synthesis unit 172d uses the weighting coefficients input from the weighting coefficient determination unit 172c to weight-synthesize the directional prediction image input from the first prediction image generation unit 172a and the planar prediction image input from the second prediction image generation unit 172b for each pixel, and outputs the prediction image after weighting synthesis as an intra-prediction image.

図4は、本実施形態に係るイントラ予測部172の動作例を示す図である。図4において、イントラ予測対象ブロックが8×8画素の正方形状である一例を例示しているが、イントラ予測対象ブロックは正方形でなくてもよい。また、図4において丸で示す画素は参照画素(復号済み参照画素)を表す。 Figure 4 is a diagram showing an example of the operation of the intra prediction unit 172 according to this embodiment. In Figure 4, an example is shown in which the intra prediction target block is a square of 8 x 8 pixels, but the intra prediction target block does not have to be a square. Also, the pixels indicated by circles in Figure 4 represent reference pixels (decoded reference pixels).

図4(a)に示すように、第2予測画像生成部172bは、Planar予測によりイントラ予測対象ブロックを予測してPlanar予測画像を生成する。具体的には、Planar予測は、図4(a)において4つの矢印の始点にある上下左右の4つの参照画素を用いて内挿予測により予測画素値を生成するものである。 As shown in FIG. 4A, the second predicted image generating unit 172b predicts the intra-prediction target block by planar prediction to generate a planar predicted image. Specifically, planar prediction generates a predicted pixel value by interpolation prediction using four reference pixels at the starting points of the four arrows on the top, bottom, left, and right in FIG. 4A.

図4(b)に示すように、第1予測画像生成部172aは、方向性予測モードによりイ
ントラ予測対象ブロックを予測して方向性予測画像を生成する。方向性予測は、参照画素を予測方向に沿って外挿して予測画素値を生成するものであるため、参照画素に近い位置の画素については予測の精度が高いものの、参照画素から遠ざかるにつれて予測の精度が低くなりうるという欠点を有する。
As shown in Fig. 4B, the first predicted image generating unit 172a predicts the intra prediction target block in a directional prediction mode to generate a directional predicted image. Since directional prediction generates a predicted pixel value by extrapolating a reference pixel along a prediction direction, the prediction accuracy is high for pixels located close to the reference pixel, but the prediction accuracy may decrease as the pixel moves away from the reference pixel.

重み係数決定部172cは、方向性予測画像及びPlanar予測画像を画素ごとに重み付け合成する際に用いる重み係数を、当該画素の位置に基づいて決定する。本実施形態において、重み係数決定部172cは、Planar予測画像に適用する重み係数α(第2重み係数)と、方向性予測画像に適用する重み係数β(第1重み係数)とを決定する。 The weighting factor determination unit 172c determines the weighting factor used when weighting and synthesizing the directional prediction image and the planar prediction image for each pixel based on the position of the pixel. In this embodiment, the weighting factor determination unit 172c determines the weighting factor α (second weighting factor) to be applied to the planar prediction image and the weighting factor β (first weighting factor) to be applied to the directional prediction image.

図4(c)に示すように、画像合成部172dは、第1予測画像生成部172aが生成した方向性予測画像の画素(x,y)ごとに重み係数β(x,y)を適用するとともに、第2予測画像生成部172bが生成したPlanar予測画像の画素(x,y)ごとに重み係数α(x,y)を適用し、且つ、方向性予測画像及びPlanar予測画像を画素単位で合成し、合成後の予測画像をイントラ予測画像として出力する。ここで、予測対象ブロックの左上の頂点を基準として、xが水平方向の座標位置を示し、yが垂直方向の座標位置を示す。 As shown in FIG. 4(c), the image synthesis unit 172d applies a weighting factor β(x, y) to each pixel (x, y) of the directional prediction image generated by the first predicted image generation unit 172a, and applies a weighting factor α(x, y) to each pixel (x, y) of the planar prediction image generated by the second predicted image generation unit 172b, synthesizes the directional prediction image and the planar prediction image on a pixel-by-pixel basis, and outputs the synthesized prediction image as an intra-prediction image. Here, with the top left vertex of the prediction target block as a reference, x indicates the horizontal coordinate position, and y indicates the vertical coordinate position.

本実施形態において、画像合成部172dは、下記の式(1)により、Planar予測画像の画素predα(x,y)に重み係数α(x,y)を乗算し、方向性予測画像の画素predβ(x,y)に重み係数β(x,y)を乗算し、それらを合成した予測画像をイントラ予測画像の画素pred(x,y)として出力する。 In this embodiment, the image synthesis unit 172d multiplies the pixel pred α (x, y) of the planar predicted image by a weighting coefficient α(x, y) and multiplies the pixel pred β (x, y) of the directional predicted image by a weighting coefficient β(x, y) according to the following equation (1), and outputs the synthesized predicted image as the pixel pred(x, y) of the intra predicted image.

pred(x,y)=(α(x,y)×predα(x,y) + β(x,y)×predβ(x,y) + 32) >> 6
・・・(1)
pred(x,y)=(α(x,y)×pred α (x,y) + β(x,y)×pred β (x,y) + 32) >> 6
... (1)

図5は、本実施形態に係る重み係数決定部172cの動作例1を示す図である。図5において、イントラ予測対象ブロックが4×4画素の正方形状である一例を例示しているが、イントラ予測対象ブロックは正方形でなくてもよい。また、図5において丸で示す画素は参照画素(復号済み参照画素)を表す。 Fig. 5 is a diagram showing a first example of the operation of the weighting coefficient determination unit 172c according to this embodiment. In Fig. 5, an example is shown in which the intra-prediction target block is a square of 4x4 pixels, but the intra-prediction target block does not have to be a square. Also, the pixels indicated by circles in Fig. 5 represent reference pixels (decoded reference pixels).

図5に示すように、重み係数決定部172cは、Planar予測画像に適用する重み係数α(x,y)と、方向性予測画像に適用する重み係数β(x,y)とを、画素位置(x,y)に基づいて決定する。具体的には、重み係数決定部172cは、画素位置(x,y)が参照画素に近いほど、α(x,y)に対するβ(x,y)の比を大きくする。言い換えると、重み係数決定部172cは、画素位置(x,y)が参照画素から離れるにつれて、α(x,y)に対するβ(x,y)の比を小さくする。 As shown in FIG. 5, the weighting coefficient determination unit 172c determines the weighting coefficient α(x, y) to be applied to the planar predicted image and the weighting coefficient β(x, y) to be applied to the directional predicted image based on the pixel position (x, y). Specifically, the weighting coefficient determination unit 172c increases the ratio of β(x, y) to α(x, y) as the pixel position (x, y) is closer to the reference pixel. In other words, the weighting coefficient determination unit 172c decreases the ratio of β(x, y) to α(x, y) as the pixel position (x, y) is farther from the reference pixel.

方向性予測は、参照画素から遠ざかるにつれて予測の精度が低くなりうるという欠点を有する。本実施形態によれば、参照画素から遠ざかるにつれてPlanar予測画像の画素の重み係数α(x,y)に対する方向性予測画像の画素の重み係数β(x,y)の比を小さくしているため、方向性予測の欠点をPlanar予測により補うことができる。 Directional prediction has the disadvantage that the accuracy of prediction can decrease as the pixel moves away from the reference pixel. According to this embodiment, the ratio of the weighting coefficient β(x, y) of a pixel in the directional predicted image to the weighting coefficient α(x, y) of a pixel in the planar predicted image is decreased as the pixel moves away from the reference pixel, so that the disadvantage of directional prediction can be compensated for by planar prediction.

また、方向性予測は、参照画素に近い位置の画素については予測の精度が高いという利点を有する。本実施形態によれば、参照画素に近づくにつれてPlanar予測画像の画素の重み係数α(x,y)に対する方向性予測画像の画素の重み係数β(x,y)の比を大きくしているため、方向性予測の利点を活かすことができる。 Directional prediction also has the advantage that it has high prediction accuracy for pixels located close to the reference pixel. According to this embodiment, the ratio of the weighting coefficient β(x, y) of a pixel in the directional predicted image to the weighting coefficient α(x, y) of a pixel in the planar predicted image is increased as the pixel approaches the reference pixel, making it possible to take advantage of the advantages of directional prediction.

例えば、重み係数決定部172cは、下記の式(2)により重み係数α(x,y)及びβ(x,y)を決定する。 For example, the weighting coefficient determination unit 172c determines the weighting coefficients α(x, y) and β(x, y) using the following formula (2):

α(x,y)= 64 - β(x,y)
β(x,y) = 32 - (z << 5) >> shift
z=min(x,y)
shift = (log2(width) + log2(height) + 1) >> 1
・・・(2)
α(x,y) = 64 - β(x,y)
β(x,y) = 32 - (z << 5) >> shift
z=min(x,y)
shift = ( log2 (width) + log2 (height) + 1) >> 1
... (2)

但し、widthは予測対象ブロックの幅を示し、heightは予測対象ブロックの高さを示す。 where width indicates the width of the block to be predicted, and height indicates the height of the block to be predicted.

式(2)に示すように、画素位置(x,y)に応じてzの値が変化し、zの値の変化に応じて重み係数α(x,y)及び重み係数β(x,y)の値が変化することになる。具体的には、x、yの値が大きくなるほどzの値が大きくなり、それに応じて重み係数β(x,y)の値が小さくなるとともに重み係数α(x,y)の値が大きくなる。 As shown in formula (2), the value of z changes according to the pixel position (x, y), and the values of weighting coefficients α(x, y) and β(x, y) change according to the change in the value of z. Specifically, the larger the values of x and y, the larger the value of z becomes, and accordingly the value of weighting coefficient β(x, y) becomes smaller and the value of weighting coefficient α(x, y) becomes larger.

図5の例では、x=1である場合及びy=1である場合、すなわち、参照画素に最も近い画素位置において、α:β=32:32であり、Planar予測画像の画素値と方向性予測画像の画素値とが等しい割合で合成される一例を示している。しかしながら、参照画素に最も近い画素位置において各画素の画素値が同比率で合成される必要はなく、参照画素に最も近い画素位置において方向性予測画像の画素値の割合が大きくなるように決定してもよい。 The example in FIG. 5 shows a case where x = 1 and y = 1, i.e., at the pixel position closest to the reference pixel, α:β = 32:32, and the pixel values of the planar predicted image and the pixel values of the directional predicted image are combined in equal proportions. However, it is not necessary for the pixel values of each pixel to be combined in the same ratio at the pixel position closest to the reference pixel, and it may be determined that the proportion of the pixel values of the directional predicted image is larger at the pixel position closest to the reference pixel.

図6は、本実施形態に係る重み係数決定部172cの動作例2を示す図である。図6において、イントラ予測対象ブロックが4×4画素の正方形状である一例を例示しているが、イントラ予測対象ブロックは正方形でなくてもよい。また、図6において丸で示す画素は参照画素(復号済み参照画素)を表す。 Fig. 6 is a diagram showing a second operation example of the weighting coefficient determination unit 172c according to this embodiment. In Fig. 6, an example is shown in which the intra-prediction target block is a square shape of 4x4 pixels, but the intra-prediction target block does not have to be a square. Also, the pixels indicated by circles in Fig. 6 represent reference pixels (decoded reference pixels).

図6に示すように、重み係数決定部172cは、Planar予測画像に適用する重み係数α(x,y)と、方向性予測画像に適用する重み係数β(x,y)とを、画素位置(x,y)だけではなく、方向性予測における予測方向(すなわち、方向性予測の予測モード)も考慮して決定する。 As shown in FIG. 6, the weighting coefficient determination unit 172c determines the weighting coefficient α(x, y) to be applied to the planar predicted image and the weighting coefficient β(x, y) to be applied to the directional predicted image, taking into consideration not only the pixel position (x, y) but also the prediction direction in the directional prediction (i.e., the prediction mode of the directional prediction).

具体的には、重み係数決定部172cは、第1予測画像生成部172aが方向性予測画像を生成する際に用いる予測モードを取得し、この予測モードに応じて重み係数α(x,y)及びβ(x,y)の決定方法を異ならせる。 Specifically, the weighting coefficient determination unit 172c obtains the prediction mode used by the first predicted image generation unit 172a when generating a directional predicted image, and determines the weighting coefficients α(x, y) and β(x, y) in a different manner depending on the prediction mode.

図6(a)に示すように、重み係数決定部172cは、イントラ予測対象ブロックの左側の参照画素を参照する予測モード「2」乃至「18」について、左側の参照画素から遠ざかるにつれてPlanar予測画像の画素の重み係数α(x,y)に対する方向性予測画像の画素の重み係数β(x,y)の比を小さくする。 As shown in FIG. 6(a), for prediction modes "2" to "18" that reference pixels on the left side of a block to be intra-predicted, the weighting factor determination unit 172c reduces the ratio of the weighting factor β(x, y) of a pixel of the directional prediction image to the weighting factor α(x, y) of a pixel of the planar prediction image as the pixel moves away from the left reference pixel.

例えば、重み係数決定部172cは、予測モードが「2」乃至「18」のいずれかである場合、下記の式(3)により重み係数α(x,y)及びβ(x,y)を決定する。 For example, when the prediction mode is one of "2" to "18", the weighting coefficient determination unit 172c determines the weighting coefficients α(x, y) and β(x, y) according to the following formula (3).

α(x,y) = 64 - β(x,y)
β(x,y) = 32 - (x << 5) >> shift
shift = (log2(width) + log2(height) + 1) >> 1
・・・(3)
α(x,y) = 64 - β(x,y)
β(x,y) = 32 - (x << 5) >> shift
shift = ( log2 (width) + log2 (height) + 1) >> 1
...(3)

式(3)に示すように、水平方向の画素位置xの値が大きくなるほど、重み係数β(x
,y)の値が小さくなるとともに、重み係数α(x,y)の値が大きくなる。
As shown in equation (3), the weighting coefficient β(x
, y) becomes smaller, the value of the weighting factor α(x, y) becomes larger.

図6(c)に示すように、重み係数決定部172cは、イントラ予測対象ブロックの上側の参照画素を参照する予測モード「50」乃至「66」について、上側の参照画素から遠ざかるにつれてPlanar予測画像の画素の重み係数α(x,y)に対する方向性予測画像の画素の重み係数β(x,y)の比を小さくする。 As shown in FIG. 6(c), for prediction modes "50" to "66" that reference upper reference pixels of the intra prediction target block, the weighting factor determination unit 172c decreases the ratio of the weighting factor β(x, y) of the pixel of the directional prediction image to the weighting factor α(x, y) of the pixel of the planar prediction image as the pixel moves away from the upper reference pixel.

例えば、重み係数決定部172cは、予測モードが「50」乃至「66」のいずれかである場合、下記の式(4)により重み係数α(x,y)及びβ(x,y)を決定する。 For example, when the prediction mode is one of "50" to "66", the weighting coefficient determination unit 172c determines the weighting coefficients α(x, y) and β(x, y) according to the following formula (4).

α(x,y) = 64 - β(x,y)
β(x,y) = 32 - (y << 5) >> shift
shift = (log2(width) + log2(height) + 1) >> 1
・・・(4)
α(x,y) = 64 - β(x,y)
β(x,y) = 32 - (y << 5) >> shift
shift = ( log2 (width) + log2 (height) + 1) >> 1
...(4)

式(4)に示すように、水平方向の画素位置yの値が大きくなるほど、重み係数β(x,y)の値が小さくなるとともに、重み係数α(x,y)の値が大きくなる。 As shown in equation (4), the larger the value of the horizontal pixel position y, the smaller the value of the weighting coefficient β(x, y) and the larger the value of the weighting coefficient α(x, y).

図6(b)に示すように、重み係数決定部172cは、イントラ予測対象ブロックの左側の参照画素及び上側の参照画素を参照する予測モード「19」乃至「49」について、上述した式(2)により重み係数α(x,y)及びβ(x,y)を決定する。すなわち、予測モードが「50」乃至「66」のいずれかである場合、重み係数α(x,y)及びβ(x,y)の決定方法は動作例1と同じである。 As shown in FIG. 6(b), the weighting factor determination unit 172c determines the weighting factors α(x,y) and β(x,y) by the above-mentioned formula (2) for prediction modes "19" to "49" that refer to the reference pixels on the left and above of the intra-prediction target block. That is, when the prediction mode is any of "50" to "66", the method of determining the weighting factors α(x,y) and β(x,y) is the same as that of the operation example 1.

動作例2では、方向性予測の予測方向に応じて3パターンに場合分けし、方向性予測において実際に参照する参照画素から離れるにつれてPlanar予測画像の画素値の割合を大きくする一例について説明した。しかしながら、3パターンよりも多くのパターンに場合分けしてもよい。また、重み係数α(x,y)及びβ(x,y)を決定するための計算式が方向性予測の数だけ定義されてもよい。 In the second operation example, three patterns are used depending on the prediction direction of the directional prediction, and an example is described in which the proportion of pixel values of the planar predicted image increases as the pixel moves away from the reference pixel actually referenced in the directional prediction. However, the case may be divided into more than three patterns. In addition, the number of calculation formulas for determining the weighting coefficients α(x, y) and β(x, y) may be defined in the same number as the number of directional predictions.

<画像復号装置の構成>
次に、本実施形態に係る画像復号装置について説明する。図7は、本実施形態に係る画像復号装置2の構成を示す図である。
<Configuration of Image Decoding Device>
Next, an image decoding device according to this embodiment will be described below. Fig. 7 is a diagram showing the configuration of an image decoding device 2 according to this embodiment.

図7に示すように、画像復号装置2は、エントロピー復号部200と、逆量子化・逆変換部210と、合成部220と、メモリ230と、予測部240とを有する。 As shown in FIG. 7, the image decoding device 2 has an entropy decoding unit 200, an inverse quantization/inverse transform unit 210, a synthesis unit 220, a memory 230, and a prediction unit 240.

エントロピー復号部200は、画像符号化装置1により生成された符号化データを復号し、量子化された直交変換係数を逆量子化・逆変換部210に出力する。また、エントロピー復号部200は、予測(イントラ予測及びインター予測)に関するシンタックスを取得し、取得したシンタックスを予測部240に出力する。 The entropy decoding unit 200 decodes the encoded data generated by the image encoding device 1, and outputs the quantized orthogonal transform coefficients to the inverse quantization and inverse transform unit 210. The entropy decoding unit 200 also acquires syntax related to prediction (intra prediction and inter prediction), and outputs the acquired syntax to the prediction unit 240.

逆量子化・逆変換部210は、ブロック単位で逆量子化処理及び逆直交変換処理を行う。逆量子化・逆変換部210は、逆量子化部211と、逆変換部212とを有する。 The inverse quantization and inverse transform unit 210 performs inverse quantization processing and inverse orthogonal transform processing on a block-by-block basis. The inverse quantization and inverse transform unit 210 includes an inverse quantization unit 211 and an inverse transform unit 212.

逆量子化部211は、画像符号化装置1の量子化部122が行う量子化処理に対応する逆量子化処理を行う。逆量子化部211は、エントロピー復号部200から入力された量子化直交変換係数を、量子化パラメータ(Qp)及び量子化行列を用いて逆量子化することにより、復号対象ブロックの直交変換係数を復元し、復元した直交変換係数を逆変換部212に出力する。 The inverse quantization unit 211 performs an inverse quantization process corresponding to the quantization process performed by the quantization unit 122 of the image encoding device 1. The inverse quantization unit 211 restores the orthogonal transform coefficients of the block to be decoded by inverse quantizing the quantized orthogonal transform coefficients input from the entropy decoding unit 200 using a quantization parameter (Qp) and a quantization matrix, and outputs the restored orthogonal transform coefficients to the inverse transform unit 212.

逆変換部212は、画像符号化装置1の変換部121が行う直交変換処理に対応する逆直交変換処理を行う。逆変換部212は、逆量子化部211から入力された直交変換係数に対して逆直交変換処理を行って予測残差を復元し、復元した予測残差(復元予測残差)を合成部220に出力する。 The inverse transform unit 212 performs inverse orthogonal transform processing corresponding to the orthogonal transform processing performed by the transform unit 121 of the image encoding device 1. The inverse transform unit 212 performs inverse orthogonal transform processing on the orthogonal transform coefficients input from the inverse quantization unit 211 to restore the prediction residual, and outputs the restored prediction residual (restored prediction residual) to the synthesis unit 220.

合成部220は、逆変換部212から入力された予測残差と、予測部240から入力された予測画像とを画素単位で合成することにより、元のブロックを再構成(復号)し、ブロック単位の復号画像をメモリ230に出力する。 The synthesis unit 220 reconstructs (decodes) the original block by synthesizing the prediction residual input from the inverse transform unit 212 and the prediction image input from the prediction unit 240 on a pixel-by-pixel basis, and outputs the decoded image on a block-by-block basis to the memory 230.

メモリ230は、合成部220から入力された復号画像を記憶する。メモリ230は、復号画像をフレーム単位で記憶する。メモリ230は、フレーム単位の復号画像を画像復号装置2の外部に出力する。なお、合成部220とメモリ230との間にループフィルタが設けられてもよい。また、メモリ230の一部は、予測部240に含まれていてもよい。 The memory 230 stores the decoded image input from the synthesis unit 220. The memory 230 stores the decoded image on a frame-by-frame basis. The memory 230 outputs the decoded image on a frame-by-frame basis to the outside of the image decoding device 2. Note that a loop filter may be provided between the synthesis unit 220 and the memory 230. Also, a part of the memory 230 may be included in the prediction unit 240.

予測部240は、ブロック単位で予測を行う。予測部240は、インター予測部241と、イントラ予測部242と、切替部243とを有する。 The prediction unit 240 performs prediction on a block-by-block basis. The prediction unit 240 has an inter prediction unit 241, an intra prediction unit 242, and a switching unit 243.

インター予測部241は、メモリ230に記憶された復号画像を参照画像として用いて、復号対象ブロックをインター予測により予測する。インター予測部241は、エントロピー復号部200から入力されたシンタックス及び動きベクトル等に従ってインター予測を行うことによりインター予測画像を生成し、生成したインター予測画像を切替部243に出力する。 The inter prediction unit 241 predicts the block to be decoded by inter prediction using the decoded image stored in the memory 230 as a reference image. The inter prediction unit 241 generates an inter prediction image by performing inter prediction according to the syntax, motion vectors, etc. input from the entropy decoding unit 200, and outputs the generated inter prediction image to the switching unit 243.

イントラ予測部242は、メモリ230に記憶された復号画像を参照し、エントロピー復号部200から入力されたシンタックスに基づいて、復号対象ブロックをイントラ予測により予測することによりイントラ予測画像を生成し、生成したイントラ予測画像を切替部243に出力する。 The intra prediction unit 242 references the decoded image stored in the memory 230, and generates an intra prediction image by predicting the block to be decoded using intra prediction based on the syntax input from the entropy decoding unit 200, and outputs the generated intra prediction image to the switching unit 243.

切替部243は、インター予測部241から入力されるインター予測画像とイントラ予測部242から入力されるイントラ予測画像とを切り替えて、いずれかの予測画像を合成部220に出力する。 The switching unit 243 switches between the inter-prediction image input from the inter-prediction unit 241 and the intra-prediction image input from the intra-prediction unit 242, and outputs one of the predicted images to the synthesis unit 220.

図8は、本実施形態に係るイントラ予測部242の構成を示す図である。イントラ予測部242は、画像復号装置2に設けられるイントラ予測装置に相当する。イントラ予測部242は、画像符号化装置1に設けられるイントラ予測部172と同様な動作を行う。 FIG. 8 is a diagram showing the configuration of the intra prediction unit 242 according to this embodiment. The intra prediction unit 242 corresponds to the intra prediction device provided in the image decoding device 2. The intra prediction unit 242 performs the same operation as the intra prediction unit 172 provided in the image encoding device 1.

図8に示すように、イントラ予測部242は、メモリ230aと、第1予測画像生成部242aと、第2予測画像生成部242bと、重み係数決定部242cと、画像合成部242dとを有する。 As shown in FIG. 8, the intra prediction unit 242 has a memory 230a, a first predicted image generation unit 242a, a second predicted image generation unit 242b, a weighting coefficient determination unit 242c, and an image synthesis unit 242d.

メモリ230aは、図7に示すメモリ230の一部である。メモリ230aは、イントラ予測の際に参照される復号済み画素である参照画素を記憶する。 Memory 230a is part of memory 230 shown in FIG. 7. Memory 230a stores reference pixels, which are decoded pixels that are referenced during intra prediction.

第1予測画像生成部242aは、方向性予測である第1イントラ予測モードによりイントラ予測対象ブロックを予測して方向性予測画像(第1予測画像)を生成し、生成した方向性予測画像を画像合成部242dに出力する。具体的には、第1予測画像生成部242aは、メモリ230aに記憶された参照画素を参照し、エントロピー復号部200から入力されたシンタックスが示す方向性予測モードによって方向性予測画像を生成する。 The first predicted image generating unit 242a predicts the intra prediction target block using a first intra prediction mode, which is a directional prediction, to generate a directional predicted image (first predicted image), and outputs the generated directional predicted image to the image synthesis unit 242d. Specifically, the first predicted image generating unit 242a refers to the reference pixels stored in the memory 230a, and generates a directional predicted image using the directional prediction mode indicated by the syntax input from the entropy decoding unit 200.

第2予測画像生成部242bは、非方向性予測である第2イントラ予測モードによりイントラ予測対象ブロックを予測して予測画像(第2予測画像)を生成し、生成した予測画像を画像合成部242dに出力する。具体的には、第2予測画像生成部242bは、メモリ230aに記憶された参照画素を参照し、予め定められた非方向性の第2イントラ予測モードによって方向性予測画像を生成する。本実施形態において第2イントラ予測モードはPlanar予測である。 The second predicted image generating unit 242b predicts the intra prediction target block using a second intra prediction mode, which is a non-directional prediction, to generate a predicted image (second predicted image), and outputs the generated predicted image to the image synthesis unit 242d. Specifically, the second predicted image generating unit 242b refers to the reference pixels stored in the memory 230a, and generates a directional predicted image using a predetermined non-directional second intra prediction mode. In this embodiment, the second intra prediction mode is planar prediction.

重み係数決定部242cは、方向性予測画像及びPlanar予測画像を画素ごとに重み付け合成する際に用いる重み係数を、当該画素の位置に基づいて決定し、決定した重み係数を画像合成部242dに出力する。重み係数決定部242cの動作は、上述した動作例1及び2と同じ動作である。 The weighting coefficient determination unit 242c determines a weighting coefficient to be used when weighting and synthesizing the directional prediction image and the planar prediction image for each pixel based on the position of the pixel, and outputs the determined weighting coefficient to the image synthesis unit 242d. The operation of the weighting coefficient determination unit 242c is the same as the operation examples 1 and 2 described above.

画像合成部242dは、重み係数決定部242cから入力された重み係数を用いて、第1予測画像生成部242aから入力された方向性予測画像及び第2予測画像生成部242bから入力されたPlanar予測画像を重み付け合成し、重み付け合成後の予測画像をイントラ予測画像として出力する。画像合成部242dは、上述した式(1)により重み付け合成の処理を行う。 The image synthesis unit 242d uses the weighting coefficients input from the weighting coefficient determination unit 242c to weight-synthesize the directional prediction image input from the first prediction image generation unit 242a and the planar prediction image input from the second prediction image generation unit 242b, and outputs the prediction image after weighting synthesis as an intra-prediction image. The image synthesis unit 242d performs the weighting synthesis process according to the above-mentioned formula (1).

<イントラ予測の動作フロー例>
次に、本実施形態に係るイントラ予測の動作フロー例について説明する。画像符号化装置1及び画像復号装置2でイントラ予測の動作は同じであるが、ここでは画像復号装置2におけるイントラ予測(イントラ予測部242)の動作を説明する。図9は、イントラ予測部242の動作フロー例を示す図である。なお、以下で説明するフローは一例に過ぎないものであって、フラグ(シンタックス)の種類や送る順番については適宜変更可能である。
<Example of intra prediction operation flow>
Next, an example of an operation flow of intra prediction according to this embodiment will be described. The operation of intra prediction is the same in the image encoding device 1 and the image decoding device 2, but here, the operation of intra prediction (intra prediction unit 242) in the image decoding device 2 will be described. Fig. 9 is a diagram showing an example of the operation flow of the intra prediction unit 242. Note that the flow described below is merely an example, and the type of flag (syntax) and the order of sending can be changed as appropriate.

第1に、エントロピー復号部200は、画像符号化装置1により選択されたイントラ予測モードを示すシンタックスを復号する。このシンタックスが方向性予測モード以外のモード(DC予測又はPlanar予測)を示す場合(ステップS1:NO)、イントラ予測部242は、従来と同様なイントラ予測を行う(ステップS7)。 First, the entropy decoding unit 200 decodes syntax indicating the intra prediction mode selected by the image encoding device 1. If this syntax indicates a mode other than the directional prediction mode (DC prediction or planar prediction) (step S1: NO), the intra prediction unit 242 performs intra prediction similar to the conventional method (step S7).

第2に、エントロピー復号部200は、予測画像合成手法を適用するか否かを示すシンタックスを復号する。このシンタックスが予測画像合成手法を適用しないことを示す場合(ステップS2:NO)、イントラ予測部242は、従来と同様なイントラ予測を行う。但し、画像符号化装置1により選択されたイントラ予測モードが方向性予測モードである場合、常に予測画像合成手法を適用するとしてもよい。この場合、予測画像合成手法を適用するか否かを示すシンタックスのシグナリングは不要である。 Secondly, the entropy decoding unit 200 decodes syntax indicating whether or not to apply a predictive image synthesis method. If this syntax indicates that a predictive image synthesis method is not to be applied (step S2: NO), the intra prediction unit 242 performs intra prediction similar to conventional methods. However, if the intra prediction mode selected by the image encoding device 1 is a directional prediction mode, the predictive image synthesis method may always be applied. In this case, there is no need to signal syntax indicating whether or not to apply a predictive image synthesis method.

第3に、画像符号化装置1により選択されたイントラ予測モードが方向性予測であり(ステップS1:YES)、且つ、予測画像合成手法を適用する場合(ステップS2:YES)、重み係数決定部242cは、イントラ予測対象ブロック内の画素位置(x,y)ごとに重み係数α(x,y)及びβ(x,y)を決定する(ステップS3)。 Thirdly, when the intra prediction mode selected by the image encoding device 1 is directional prediction (step S1: YES) and a predictive image synthesis method is applied (step S2: YES), the weighting factor determination unit 242c determines weighting factors α(x, y) and β(x, y) for each pixel position (x, y) in the intra prediction target block (step S3).

第4に、第1予測画像生成部242aは、画像符号化装置1により選択された方向性予測モードによりイントラ予測対象ブロックを予測して方向性予測画像を生成する(ステップS4)。また、第2予測画像生成部242bは、Planar予測によりイントラ予測対象ブロックを予測してPlanar予測画像を生成する(ステップS5)。 Fourthly, the first predicted image generating unit 242a predicts the intra-prediction target block using the directional prediction mode selected by the image encoding device 1 to generate a directional predicted image (step S4). Also, the second predicted image generating unit 242b predicts the intra-prediction target block using planar prediction to generate a planar predicted image (step S5).

第5に、画像合成部242dは、ステップS3で決定された重み係数α(x,y)及び
β(x,y)を用いて、ステップS4で生成された方向性予測画像とステップS5で生成されたPlanar予測画像とを画素位置(x,y)ごとに重み付け合成し、重み付け合成後の予測画像をイントラ予測画像として出力する(ステップS6)。
Fifth, the image synthesis unit 242d uses the weighting coefficients α(x, y) and β(x, y) determined in step S3 to weight-synthesize the directional prediction image generated in step S4 and the planar prediction image generated in step S5 for each pixel position (x, y), and outputs the prediction image after weighted synthesis as an intra-prediction image (step S6).

<実施形態のまとめ>
本実施形態に係る画像符号化装置1及び画像復号装置2は、イントラ予測対象ブロック内の画素位置(x,y)に基づいて重み係数α(x,y)及びβ(x,y)を決定し、決定した重み係数α(x,y)及びβ(x,y)を用いて方向性予測画像及びPlanar予測画像を画素位置(x,y)ごとに重み付け合成する。これにより、予測画像合成手法において、方向性予測画像とPlanar予測画像とを単に平均化する場合に比べて、イントラ予測の予測精度を高めることができる。
Summary of the embodiment
The image encoding device 1 and the image decoding device 2 according to the present embodiment determine weighting coefficients α(x,y) and β(x,y) based on pixel positions (x,y) in an intra prediction target block, and weight and synthesize a directional prediction image and a planar prediction image for each pixel position (x,y) using the determined weighting coefficients α(x,y) and β(x,y). This makes it possible to improve the prediction accuracy of intra prediction in a prediction image synthesis technique compared to a case where a directional prediction image and a planar prediction image are simply averaged.

<その他の実施形態>
上述した実施形態において、第2イントラ予測モードがPlanar予測である一例について主として説明した。しかしながら、第2イントラ予測モードは、H.264規格で規定されているようなPlane予測であってもよい。第2イントラ予測モードがPlane予測である場合、上述した実施形態における「Planar予測」を「Plane予測」と読み替えればよい。
<Other embodiments>
In the above-described embodiment, an example in which the second intra prediction mode is planar prediction has been mainly described. However, the second intra prediction mode may be planar prediction as defined in the H.264 standard. When the second intra prediction mode is planar prediction, the "planar prediction" in the above-described embodiment may be read as "planar prediction."

或いは、第2イントラ予測モードは、DC予測であってもよい。第2イントラ予測モードがDC予測である場合、上述した実施形態における「Planar予測」を「DC予測」と読み替えればよい。 Alternatively, the second intra prediction mode may be DC prediction. When the second intra prediction mode is DC prediction, the "Planar prediction" in the above-described embodiment may be read as "DC prediction."

画像符号化装置1が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。画像復号装置2が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 A program may be provided that causes a computer to execute each process performed by the image encoding device 1. A program may be provided that causes a computer to execute each process performed by the image decoding device 2. The program may be recorded on a computer-readable medium. Using a computer-readable medium, it is possible to install the program on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transient recording medium. The non-transient recording medium is not particularly limited, and may be, for example, a recording medium such as a CD-ROM or a DVD-ROM.

画像符号化装置1が行う各処理を実行する回路を集積化し、画像符号化装置1を半導体集積回路(チップセット、SoC)により構成してもよい。画像復号装置2が行う各処理を実行する回路を集積化し、画像復号装置2を半導体集積回路(チップセット、SoC)により構成してもよい。 The circuits that execute the processes performed by the image encoding device 1 may be integrated, and the image encoding device 1 may be configured as a semiconductor integrated circuit (chip set, SoC). The circuits that execute the processes performed by the image decoding device 2 may be integrated, and the image decoding device 2 may be configured as a semiconductor integrated circuit (chip set, SoC).

以上、図面を参照して実施形態について詳しく説明したが、具体的な構成は上述のものに限られることはなく、要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 The above describes the embodiment in detail with reference to the drawings, but the specific configuration is not limited to the above, and various design changes can be made without departing from the spirit of the invention.

1 :画像符号化装置
2 :画像復号装置
100 :ブロック分割部
110 :減算部
120 :変換・量子化部
121 :変換部
122 :量子化部
130 :エントロピー符号化部
140 :逆量子化・逆変換部
141 :逆量子化部
142 :逆変換部
150 :合成部
160 :メモリ
160a :メモリ
170 :予測部
171 :インター予測部
172 :イントラ予測部
172a :第1予測画像生成部
172b :第2予測画像生成部
172c :重み係数決定部
172d :画像合成部
173 :切替部
200 :エントロピー復号部
210 :逆量子化・逆変換部
211 :逆量子化部
212 :逆変換部
220 :合成部
230 :メモリ
230a :メモリ
240 :予測部
241 :インター予測部
242 :イントラ予測部
242a :第1予測画像生成部
242b :第2予測画像生成部
242c :重み係数決定部
242d :画像合成部
243 :切替部
1: Image encoding device 2: Image decoding device 100: Block division unit 110: Subtraction unit 120: Transformation and quantization unit 121: Transformation unit 122: Quantization unit 130: Entropy encoding unit 140: Inverse quantization and inverse transformation unit 141: Inverse quantization unit 142: Inverse transformation unit 150: Synthesis unit 160: Memory 160a: Memory 170: Prediction unit 171: Inter prediction unit 172: Intra prediction unit 172a: First predicted image generation unit 172b: Second predicted image generation unit 172c: Weighting coefficient determination unit 172d: Image synthesis unit 173: Switching unit 200: Entropy decoding unit 210: Inverse quantization and inverse transformation unit 211: Inverse quantization unit 212: Inverse transformation unit 220: Synthesis unit 230: Memory 230a: Memory 240 : Prediction unit 241 : Inter prediction unit 242 : Intra prediction unit 242a : First predicted image generation unit 242b : Second predicted image generation unit 242c : Weighting coefficient determination unit 242d : Image synthesis unit 243 : Switching unit

Claims (7)

画像復号装置に設けられ、原画像を分割して得た画像ブロックに対するイントラ予測を行うイントラ予測装置であって、
第1予測モードにより前記画像ブロックを予測して第1予測画像を生成する第1予測画像生成部と、
第2予測モードにより前記画像ブロックを予測して第2予測画像を生成する第2予測画像生成部と、
前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する際に用いる重み係数を、当該画素の位置に基づいて決定する重み係数決定部と、
前記重み係数決定部により画素ごとに決定された前記重み係数を用いて、前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する画像合成部と、を備え、
前記画像合成部は、前記重み付け合成を行うことを示すシンタックスが符号化側からシグナリングされない場合でも、所定の条件が満たされたことに応じて常に前記重み付け合成を行うことを特徴とするイントラ予測装置。
An intra prediction device provided in an image decoding device, which performs intra prediction on image blocks obtained by dividing an original image, comprising:
a first predicted image generating unit that predicts the image block in a first prediction mode to generate a first predicted image;
a second predicted image generating unit that predicts the image block in a second prediction mode to generate a second predicted image;
a weighting coefficient determination unit that determines a weighting coefficient used when weighting and synthesizing the first predicted image and the second predicted image for each pixel based on a position of the pixel;
an image synthesis unit that weights and synthesizes the first predicted image and the second predicted image for each pixel by using the weighting coefficient determined for each pixel by the weighting coefficient determination unit,
The intra prediction device is characterized in that the image synthesis unit always performs the weighting synthesis when a specified condition is satisfied, even if syntax indicating that the weighting synthesis is to be performed is not signaled from the encoding side.
前記所定の条件は、前記第1予測モードが方向性イントラ予測であるという条件である
請求項1に記載のイントラ予測装置。
The intra prediction device according to claim 1 , wherein the predetermined condition is that the first prediction mode is directional intra prediction.
前記第2予測モードは、Planar予測又はPlane予測又はDC予測であることを特徴とする請求項1又は2に記載のイントラ予測装置。 The intra prediction device according to claim 1 , wherein the second prediction mode is planar prediction, plane prediction or DC prediction. 前記重み係数決定部は、
前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する際に、当該画素の位置と前記画像ブロックに隣接する復号済み参照画素との距離が離れるにつれて、前記第1予測画像の画素の重み係数に対する前記第2予測画像の画素の重み係数の比を大きくするように前記重み係数を決定することを特徴とする請求項1乃至3のいずれか1項に記載のイントラ予測装置。
The weighting coefficient determination unit
4. The intra prediction device according to claim 1, wherein when the first predicted image and the second predicted image are weighted and synthesized for each pixel, the weighting coefficients are determined so that the ratio of the weighting coefficient of the pixel of the second predicted image to the weighting coefficient of the pixel of the first predicted image increases as the distance between the position of the pixel and a decoded reference pixel adjacent to the image block increases.
前記重み係数決定部は、
前記第1予測画像及び前記第2予測画像を画素ごとに重み付け合成する際に用いる前記重み係数を、当該画素の位置と、前記方向性イントラ予測における予測方向とに基づいて決定することを特徴とする請求項に記載のイントラ予測装置。
The weighting coefficient determination unit
3. The intra prediction device according to claim 2, wherein the weighting coefficient used when weighting and synthesizing the first predicted image and the second predicted image for each pixel is determined based on the position of the pixel and the prediction direction in the directional intra prediction.
請求項1乃至5のいずれか1項に記載のイントラ予測装置を備えることを特徴とする画像復号装置。 An image decoding device comprising an intra prediction device according to any one of claims 1 to 5. コンピュータを請求項1乃至5のいずれか1項に記載のイントラ予測装置として機能させることを特徴とするプログラム。 A program that causes a computer to function as an intra prediction device according to any one of claims 1 to 5.
JP2020043399A 2019-03-15 2020-03-12 Intra prediction device, image decoding device, and program Active JP7483422B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019049075 2019-03-15
JP2019049075 2019-03-15

Publications (2)

Publication Number Publication Date
JP2020156087A JP2020156087A (en) 2020-09-24
JP7483422B2 true JP7483422B2 (en) 2024-05-15

Family

ID=72560046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020043399A Active JP7483422B2 (en) 2019-03-15 2020-03-12 Intra prediction device, image decoding device, and program

Country Status (1)

Country Link
JP (1) JP7483422B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070896A1 (en) 2016-10-14 2018-04-19 Huawei Technologies Co., Ltd. Distance weighted bi-directional intra prediction
US20190007688A1 (en) 2017-06-30 2019-01-03 Qualcomm Incorporated Intra prediction in video coding
US20190037213A1 (en) 2016-01-12 2019-01-31 Telefonaktiebolaget Lm Ericsson (Publ) Video coding using hybrid intra prediction
JP2020137119A (en) 2019-02-12 2020-08-31 日本放送協会 Intra prediction device, image coding device, image decoding device, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190037213A1 (en) 2016-01-12 2019-01-31 Telefonaktiebolaget Lm Ericsson (Publ) Video coding using hybrid intra prediction
WO2018070896A1 (en) 2016-10-14 2018-04-19 Huawei Technologies Co., Ltd. Distance weighted bi-directional intra prediction
US20190007688A1 (en) 2017-06-30 2019-01-03 Qualcomm Incorporated Intra prediction in video coding
JP2020137119A (en) 2019-02-12 2020-08-31 日本放送協会 Intra prediction device, image coding device, image decoding device, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Geert Van der Auwera, et al.,CE3: Simplified PDPC (Test 2.4.1),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0063-v2,11th Meeting: Ljubljana, SI,2018年07月,pp.1-6
Gosala Kulupana, Andre Seixas Dias, and Saverio Blasi,Non-CE3: Combined-Hypothesis Intra-Prediction,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0458-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-4

Also Published As

Publication number Publication date
JP2020156087A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
WO2020036132A1 (en) Image encoding device, image decoding device, and program
US20210014489A1 (en) Intra prediction device, image encoding device, image decoding device and program
JP2023168518A (en) Prediction block generation device, image encoder, image decoder, and program
JP2024053019A (en) Encoding device, decoding device, and program
JP2020137119A (en) Intra prediction device, image coding device, image decoding device, and program
JP2023138826A (en) Intra prediction device, image coding device, image decoding device, and program
JP7415067B2 (en) Intra prediction device, image decoding device, and program
JP7483422B2 (en) Intra prediction device, image decoding device, and program
JP7412343B2 (en) Image encoding device, image decoding device, and program
JP2021129148A (en) Prediction device, encoding device, decoding device, and program
JP7228980B2 (en) Predictive image correction device, image coding device, image decoding device, and program
JP7361498B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7229413B2 (en) Image encoding device, image decoding device, and program
JP2020028066A (en) Color difference intra prediction candidate generation device, image coding device, image decoding device, and program
JP7444599B2 (en) Intra prediction device, image encoding device, image decoding device, and program
JP7449690B2 (en) Inter prediction device, image encoding device, image decoding device, and program
JP2021093634A (en) Coding device, decoding device and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200529

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150