JP6885883B2 - イントラ予測およびイントラモードコーディング - Google Patents
イントラ予測およびイントラモードコーディング Download PDFInfo
- Publication number
- JP6885883B2 JP6885883B2 JP2017564705A JP2017564705A JP6885883B2 JP 6885883 B2 JP6885883 B2 JP 6885883B2 JP 2017564705 A JP2017564705 A JP 2017564705A JP 2017564705 A JP2017564705 A JP 2017564705A JP 6885883 B2 JP6885883 B2 JP 6885883B2
- Authority
- JP
- Japan
- Prior art keywords
- intra
- prediction
- block
- prediction mode
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 225
- 238000006243 chemical reaction Methods 0.000 claims description 62
- 238000003860 storage Methods 0.000 claims description 21
- 239000000523 sample Substances 0.000 description 142
- 238000012545 processing Methods 0.000 description 67
- 241000023320 Luma <angiosperm> Species 0.000 description 62
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 62
- 230000008569 process Effects 0.000 description 60
- 230000009466 transformation Effects 0.000 description 29
- 238000013139 quantization Methods 0.000 description 25
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 11
- 230000011664 signaling Effects 0.000 description 10
- 230000000903 blocking effect Effects 0.000 description 9
- 239000013074 reference sample Substances 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 238000009795 derivation Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 101150039623 Clip1 gene Proteins 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000985610 Forpus Species 0.000 description 2
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 108010012137 spleen derived immunosuppressive peptide Proteins 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)である。
1. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
2. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。
3. x=0...2であるcandModeList[x]が次のように導出される。
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
- それ以外の場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
candModeList[1]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定される。
- prev_intra_luma_pred_flag[xPb][yPb]が1としてシグナリングされる場合、すなわち3つのMPMのうちの1つが現在のPUをコーディングするために選択される場合、どのMPMが現在のPUをコーディングするために選択されるかを示す、インデックスmpm_idx(0、1、または2に等しいことがある)がさらにシグナリングされる。mpm_idxは、切捨て単項符号を使用してバイナリ化され、コンテキストモデリングを使用せずにバイパスコーディングされる。
- それ以外の場合(prev_intra_luma_pred_flag[xPb][yPb]が0としてシグナリングされる)、すなわち非MPMが現在のPUのために使用される場合、どの非MPMが現在のPUのために選択されるかを示す、インデックスrem_intra_luma_pred_mode[xPb][yPb]がさらにシグナリングされる。rem_intra_luma_pred_mode[xPb][yPb]の値は0、1、...、31であることがあり、固定長(5ビット)のバイナリ化がバイパスコーディングとともに使用される。
pxy=(1-α)・L+α・R
ここでpxyはそれぞれのサンプルの計算された値であり、LおよびRは2つの再構築された隣接サンプルの値であり、αは決定された小数位置である。
このプロセスへの入力は、シンタックス要素rem_intra_luma_pred_modeのバイナリ化に対する要求である。
このプロセスの出力は、シンタックス要素のバイナリ化である。
- rem_intra_luma_pred_modeが28に等しい場合、バイナリ化文字列は「111」である。
- それ以外の場合、バイナリ化は5つのビンを有する固定長符号である。
9.3.4.x.x シンタックス要素mpm_idxのためのctxIncの導出プロセス
このプロセスへの入力は、左の隣接ブロックのイントラモードcandIntraPredModeAおよび上の隣接ブロックのイントラモードcandIntraPredModeBである。
このプロセスの出力は変数ctxIncである。
変数csbfCtxが、現在の場所(xS, yS)、走査順序におけるシンタックス要素coded_sub_block_flagの2つの以前に復号されたビン、および変換ブロックサイズlog2TrafoSizeを使用して、次のように導出される。
- candIntraPredModeAがcandIntraPredModeBに等しいとき、ctxIncは次のように導出される
ctxInc=candIntraPredModeA>1?0:1
- それ以外の場合
ctxInc=(candIntraPredModeA && candIntraPredModeB)?2:3</ins>
8.4.2 ルーマイントラ予測モードの導出プロセス
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)、<ins>予測ブロックサイズnPbs</ins>である。
このプロセスにおいて、ルーマイントラ予測モードIntraPredModeY[xPb][yPb]が導出される。
Table 8-1(表4)は、イントラ予測モードの値および関連する名称を規定する。
IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
4. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
5. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
<ins>
- candIntraPredModeXがINTRA_DCとして初期化される。
- イントラモード使用のカウントを0として初期化する: cntIntraPredModeX[i]=0, i=0, 1, …, 34
- イントラモード使用の最大カウントを0として初期化する: cntMaxIntraPredModeX=0
- x=0..nPbS - 1に対して、以下が適用される。
- (xCurr, yCurr)=(X==A)?(xNbA+x, yNbA)?(xNbA, yNbA +x)
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- availableXがTRUEに等しく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しい場合、以下が適用される。
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]++
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]>cntMaxIntraPredModeXである場合、以下が適用される。
- cntMaxIntraPredModeX=cntIntraPredModeX[CuPredMode[xCurr][yCurr]];
- candIntraPredModeX=CuPredMode[xCurr][yCurr] </ins>
<dlt>
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。</dlt>
6. x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
- <ins>idxPlanarが0として設定され、idxDCが1として設定される;</ins>
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
<ins>candModeList[3]=INTRA_ANGULAR10 (8-17)
candModeList[4]=INTRA_ANGULAR2 (8-17)
candModeList[5]=INTRA_ANGULAR18 (8-17)</ins>
- それ以外の場合、x=0...5であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
<dlt>candModeList[2]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)</dlt>
<ins>candModeList[1]=INTRA_PLANAR (8-20)
candModeList[2]=2+((candIntraPredModeA-1)%32) (8-19)
candModeList[3]=2+((candIntraPredModeA+29)%32) (8-20)
candModeList[4]=2+((candModeList[2]-1)%32) (8-20)
candModeList[5]=INTRA_DC (8-20)
idxPlanar=1
idxDC=5</ins>
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、<ins>以下が適用される。
- maxDir=max(candModeList[0], candModeList[1] )
- minDir=min(candModeList[0], candModeList[1] )
- idxPlanar=2
- candModeList[0]とcandModeList[1]のいずれかがINTRA_DCに等しい場合、以下が適用される。
candModeList[3]=2+((maxDir+29)%32) (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
candModeList[5]=2+((candModeList[4]-1)%32) (8-22)
idxDC=(candModeList[0]==INTRA_DC)?0:1
- それ以外の場合、
candModeList[3]=INTRA_DC (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
- candModeList[4]がminDirに等しい場合、candModeList[4]++
candModeList[5]=2+((candModeList[4]+29)%32) (8-22)
- candModeList[5]がmaxDirに等しい場合、candModeList[5]--
- candModeList[5]がcandModeList[4]に等しい場合、candModeList[5]=minDir+1
idxDC=3</ins>
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、<ins>以下が適用される。
candModeList[3]=2+((candIntraPredModeA+29)%32)
candModeList[4]=2+((candIntraPredModeA-1)%32)
candModeList[5]=2+((candModeList[4]-1)%32)
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=2</ins>
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定され、以下が適用される。
<ins>candModeList[3]=INTRA_ANGULAR10
candModeList[4]=INTRA_ANGULAR2
candModeList[5]=INTRA_ANGULAR18
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=1-idxPlanar</ins>
7. IntraPredModeY[xPb][yPb]は以下の手順を適用することによって導出される。
- prev_intra_luma_pred_flag[xPb][yPb]が1に等しい場合、IntraPredModeY[xPb][yPb]はcandModeList[mpm_idx]に等しく設定される。
- それ以外の場合、IntraPredModeY[xPb][yPb]は以下の順序付けられたステップを適用することによって導出される。
1) x=0...<dlt>2</dlt><ins>5</ins>であるアレイcandModeList[x]は以下の順序付けられたステップとして修正される。<ins>
i. candModeList[idxPlanar]=candModeList[0]
ii. candModeList[idxDC]=candModeList[1]
iii. candModeList[0]=INTRA_PLANAR
iv. candModeList[1]=INTRA_DC</ins>
v. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[ dlt>1</dlt><ins>3</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>]) (8-23)
vi. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[<dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-24)
vii. <ins>candModeList[2]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[2], candModeList[5])=Swap(candModeList[2], candModeList[5])</ins>
viii. candModeList[<dlt>1</dlt><ins>3</ins>]がcandModeList[ dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-25)
ix. <ins>candModeList[3]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[3], candModeList[5])=Swap(candModeList[3], candModeList[5])
candModeList[4]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[4], candModeList[5])=Swap(candModeList[4], candModeList[5])</ins>
2) IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
i. IntraPredModeY[xPb][yPb]がrem_intra_luma_pred_mode[xPb][yPb]に等しく設定される。
両端を含めて0から<dlt>2</dlt><ins>5</ins>に等しいiに対して、IntraPredModeY[xPb][yPb]がcandModeList[i]以上であるとき、IntraPredModeY[xPb][yPb]の値は1だけインクリメントされる。
2+((candIntraPredModeA-1)%32)、
2+((candIntraPredModeA+29)%32)、および
2+((candModeList[2]-1)%32)
上の式において、%は剰余演算を示す。
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
本開示の図9である図8-2は、33個すべてのイントラ角度を示しており、Table 8-4(表5)は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
c. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
Table 8-5(表8)はさらに、predModeIntraと逆角度パラメータinvAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
......
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
Table 8-3 - 様々な変換ブロックサイズに対するintraHorVerDistThres[nTbS]の規定
...
<ins>x.x.x イントラ補間フィルタ係数初期化プロセス</ins>
このプロセスの出力は、アレイfilterCubic[sFrac][pos]である。sFracのアレイインデックスは0から31にわたる小数位置を指定し、posはpos番目のサンプルのフィルタ係数を指定する。アレイfilterCubicおよびfilterGaussianが次のように導出される。
<ins>filterCubic[32][4]={
{
{ 0, 256, 0, 0 }, // 0
{ -3, 252, 8, -1 }, // 1
{ -5, 247, 17, -3 }, // 2
{ -7, 242, 25, -4 }, // 3
{ -9, 236, 34, -5 }, // 4
{ -10, 230, 43, -7 }, // 5
{ -12, 224, 52, -8 }, // 6
{ -13, 217, 61, -9 }, // 7
{ -14, 210, 70, -10 }, // 8
{ -15, 203, 79, -11 }, // 9
{ -16, 195, 89, -12 }, // 10
{ -16, 187, 98, -13 }, // 11
{ -16, 179, 107, -14 }, // 12
{ -16, 170, 116, -14 }, // 13
{ -17, 162, 126, -15 }, // 14
{ -16, 153, 135, -16 }, // 15
{ -16, 144, 144, -16 }, // 16
},
};
sigma=0.9
for(i=0; i<17; i++)
{
for(c=0; c<4; c++ )
{
filterGaussian [b][i][c]=(256.0*exp(-((c-delta)/sigma)2)/sum+0.5);
}
}
for(i=17; i<32; i++)
{
for(c=0; c<4; c++ )
{
filterCubic[b][i][c]=filterCubic[b][32-i][3-c];
filterGaussian[b][i][c]=filterGaussian[b][32-i][3-c];
}
}
</ins>
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
...
x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
</dlt>predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)</dlt>
<ins>p=0,...,3に対して、pF[p]=(cIdx==0&&nTbS<=8)?filterCubic[iFact][p]:filterGaussian[iFact][p]
P[1]=ref[x+iIdx+1]
P[2]=ref[x+iIdx2]
P[0]=(x==0)?ref[x+iIdx+1]:ref[x+iIdx]
P[3]=(x==nTbS-1)?ref[x+iIdx2]:ref[x+iIdx+3]
predSamples[x][y]=
(pF[0]*P[0]+pF[1]*P[1]+pF[2]*P[2]+pF[3]*P[3]+128)>>8 (8-52)</ins>
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
d. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
e. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
f. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
12 ソースデバイス
14 宛先デバイス
16 チャネル
18 ビデオソース
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 ディスプレイデバイス
40 画像ブロック
42 矢印
50 右上の再構築されたサンプル
52 左下の再構築されたサンプル
54 再構築されたサンプル
56 再構築されたサンプル
100 予測処理ユニット
101 ビデオデータメモリ
102 残差生成ユニット
104 変換処理ユニット
106 量子化ユニット
108 逆量子化ユニット
110 逆変換処理ユニット
112 再構築ユニット
114 フィルタユニット
116 復号ピクチャバッファ
118 エントロピー符号化ユニット
120 インター予測処理ユニット
122 MEユニット
124 MCユニット
126 イントラ予測処理ユニット
150 エントロピー復号ユニット
151 ビデオデータメモリ
152 予測処理ユニット
154 逆量子化ユニット
156 逆変換処理ユニット
158 再構築ユニット
160 フィルタユニット
162 復号ピクチャバッファ
164 動き補償ユニット
166 イントラ予測処理ユニット
Claims (16)
- ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)を復号する方法であって、
前記現在のCUの1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、複数のイントラ予測モードの中から33個の角度イントラ予測モードの部分集合を選択するステップであって、前記複数のイントラ予測モードが65個の角度イントラ予測モードを含む、ステップと、
33個の角度イントラ予測モードの前記部分集合の中から、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードを示すシンタックス情報を復号するステップと、
前記選択されたイントラ予測モードに基づいて前記現在のCUを、1/32ペル補間精度を使用して再構築するステップとを備え、前記現在のCUを再構築するステップが、
前記現在のPUの予測ブロックの各それぞれのサンプルに対して、
前記現在のピクチャの2つの隣接する再構築されたサンプルの間の小数位置を、前記選択されたイントラ予測モードと関連付けられる予測方向に沿って、前記それぞれのサンプルの座標を前記2つの隣接する再構築されたサンプルを含む隣接する再構築されたサンプルの行または列へと投影することによって決定するステップであって、前記2つの隣接する再構築されたサンプルが前記現在のPUに隣接する、ステップ、および、
前記2つの隣接する再構築されたサンプルの値を使用して前記決定された小数位置における値を補間する補間フィルタを使用して前記それぞれのサンプルの値を計算するステップであって、前記補間が1/32ペル精度であり、前記補間フィルタは、前記予測ブロックのサイズと、前記予測ブロック内部の相対的な前記サンプルの位置に少なくとも基づいて選択されたフィルタである、ステップと、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUのコーディングブロックを再構築するステップと
を備える、方法。 - 65個の角度イントラ予測モードを含む前記複数のイントラ予測モードの中から選択された前記33個の角度イントラ予測モードは、左および上の隣接ブロックからの情報を使用して、前記65個の角度イントラ予測モードから適応的に選択される、請求項1に記載の方法。
- コーディング単位サイズまたは予測単位サイズのうちの少なくとも1つに基づいて、前記複数のイントラ予測モードにおけるイントラ予測モードの総数を決定するステップをさらに備える、請求項1に記載の方法。
- 前記複数のイントラ予測モードにおけるイントラ予測モードの総数が、シーケンスパラメータセット、ピクチャパラメータセット、またはスライスヘッダのうちの少なくとも1つにおいてシグナリングされる、請求項1に記載の方法。
- 前記補間フィルタが2タップの双線形補間フィルタである、請求項1に記載の方法。
- 前記補間フィルタが、
pxy=(1-α)・L+α・R
として定式化され、pxyが前記それぞれのサンプルの計算された値であり、LおよびRが前記2つの再構築された隣接サンプルの値であり、αが前記決定された小数位置である、請求項1に記載の方法。 - ビデオデータのブロックを符号化する方法であって、
ビデオデータの前記ブロックの1つまたは複数の隣接ブロックを符号化するために使用されるイントラ予測モードに基づいて、複数のイントラ予測モードの中から33個の角度イントラ予測モードの部分集合を選択するステップであって、前記複数のイントラ予測モードが65個の角度イントラ予測モードを含む、ステップと、
33個の角度イントラ予測モードの前記部分集合の中から、ビデオデータの前記ブロックの現在の予測単位(PU)のための選択されたイントラ予測モードを示すシンタックス情報を符号化するステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを、1/32ペル補間精度を使用して符号化するステップとを備え、ビデオデータの前記ブロックを符号化するステップが、
前記現在のPUの予測ブロックの各それぞれのサンプルに対して、
前記現在のピクチャの2つの隣接する再構築されたサンプルの間の小数位置を、前記選択されたイントラ予測モードと関連付けられる予測方向に沿って、前記それぞれのサンプルの座標を前記2つの隣接する再構築されたサンプルを含む隣接する再構築されたサンプルの行または列へと投影することによって決定するステップであって、前記2つの隣接する再構築されたサンプルが前記現在のPUに隣接する、ステップ、および、
前記2つの隣接する再構築されたサンプルの値を使用して前記決定された小数位置における値を補間する補間フィルタを使用して前記それぞれのサンプルの予測値を計算するステップであって、前記補間が1/32ペル精度であり、前記補間フィルタは、前記予測ブロックのサイズと、前記予測ブロック内部の相対的な前記サンプルの位置に少なくとも基づいて選択されたフィルタである、ステップと、
ビデオデータの前記ブロックと前記予測ブロックとの間のピクセル差分を表す残差データを生成するステップと
を備える、方法。 - 65個の角度イントラ予測モードを含む前記複数のイントラ予測モードの中から選択された前記33個の角度イントラ予測モードは、左および上の隣接ブロックからの情報を使用して、前記65個の角度予測モードから適応的に選択される、請求項7に記載の方法。
- コーディング単位サイズまたは予測単位サイズのうちの少なくとも1つに基づいて、前記複数のイントラ予測モードにおけるイントラ予測モードの総数を決定するステップをさらに備える、請求項7に記載の方法。
- 前記複数のイントラ予測モードにおけるイントラ予測モードの総数が、シーケンスパラメータセット、ピクチャパラメータセット、またはスライスヘッダのうちの少なくとも1つにおいてシグナリングされる、請求項7に記載の方法。
- 前記補間フィルタが2タップの双線形補間フィルタである、請求項7に記載の方法。
- 前記補間フィルタが、
pxy=(1-α)・L+α・R
として定式化され、pxyが前記それぞれのサンプルの計算された値であり、LおよびRが前記2つの再構築された隣接サンプルの値であり、αが前記決定された小数位置である、請求項7に記載の方法。 - ビデオデータを復号するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)の1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、複数のイントラ予測モードの中から33個の角度イントラ予測モードの部分集合を選択することであって、前記複数のイントラ予測モードが65個の角度イントラ予測モードを含む、選択することと、
33個の角度イントラ予測モードの前記部分集合の中から、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードを示すシンタックス情報を復号することと、
前記選択されたイントラ予測モードに基づいて前記現在のCUを再構築することであって、補間が1/32ペル精度で実行されるように前記角度イントラ予測モードが定義される、再構築することと
を行うように構成され、前記現在のCUを再構築することが、
前記現在のPUの予測ブロックの各それぞれのサンプルに対して、
前記現在のピクチャの2つの隣接する再構築されたサンプルの間の小数位置を、前記選択されたイントラ予測モードと関連付けられる予測方向に沿って、前記それぞれのサンプルの座標を前記2つの隣接する再構築されたサンプルを含む隣接する再構築されたサンプルの行または列へと投影することによって決定することであって、前記2つの隣接する再構築されたサンプルが前記現在のPUに隣接する、決定すること、および、
前記2つの隣接する再構築されたサンプルの値を使用して前記決定された小数位置における値を補間する補間フィルタを使用して前記それぞれのサンプルの値を計算することであって、前記補間が1/32ペル精度であり、前記補間フィルタは、前記予測ブロックのサイズと、前記予測ブロック内部の相対的な前記サンプルの位置に少なくとも基づいて選択されたフィルタである、計算することと、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUのコーディングブロックを再構築することとを備える、デバイス。 - ビデオデータのブロックを符号化するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
ビデオデータの前記ブロックの1つまたは複数の隣接ブロックを符号化するために使用されるイントラ予測モードに基づいて、複数のイントラ予測モードの中から33個の角度イントラ予測モードの部分集合を選択することであって、前記複数のイントラ予測モードが65個の角度イントラ予測モードを含む、選択することと、
33個の角度イントラ予測モードの前記部分集合の中から、前記ビデオデータの前記ブロックの現在の予測単位(PU)のための選択されたイントラ予測モードを示すシンタックス情報を符号化することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを、1/32ペル補間精度を使用して符号化することと
を行うように構成され、
ビデオデータの前記ブロックを符号化することは、
前記現在のPUの予測ブロックの各それぞれのサンプルに対して、
前記現在のピクチャの2つの隣接する再構築されたサンプルの間の小数位置を、前記選択されたイントラ予測モードと関連付けられる予測方向に沿って、前記それぞれのサンプルの座標を前記2つの隣接する再構築されたサンプルを含む隣接する再構築されたサンプルの行または列へと投影することによって決定することであって、前記2つの隣接する再構築されたサンプルが前記現在のPUに隣接する、決定すること、および、
前記2つの隣接する再構築されたサンプルの値を使用して前記決定された小数位置における値を補間する補間フィルタを使用して前記それぞれのサンプルの予測値を計算することであって、前記補間が1/32ペル精度であり、前記補間フィルタは、前記予測ブロックのサイズと、前記予測ブロック内部の相対的な前記サンプルの位置に少なくとも基づいて選択されたフィルタである、計算することと、
ビデオデータの前記ブロックと前記予測ブロックとの間のピクセル差分を表す残差データを生成することとを備える、デバイス。 - 命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、請求項1乃至6のいずれか1項に記載の前記方法を実行させる、コンピュータ可読記憶媒体。
- 命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、請求項7乃至12のいずれか1項に記載の前記方法を実行させる、コンピュータ可読記憶媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562181744P | 2015-06-18 | 2015-06-18 | |
US62/181,744 | 2015-06-18 | ||
US201562192310P | 2015-07-14 | 2015-07-14 | |
US62/192,310 | 2015-07-14 | ||
US15/184,103 | 2016-06-16 | ||
US15/184,103 US20160373770A1 (en) | 2015-06-18 | 2016-06-16 | Intra prediction and intra mode coding |
PCT/US2016/038182 WO2016205712A1 (en) | 2015-06-18 | 2016-06-17 | Intra prediction and intra mode coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021032518A Division JP2021083122A (ja) | 2015-06-18 | 2021-03-02 | イントラ予測およびイントラモードコーディング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523372A JP2018523372A (ja) | 2018-08-16 |
JP2018523372A5 JP2018523372A5 (ja) | 2019-07-04 |
JP6885883B2 true JP6885883B2 (ja) | 2021-06-16 |
Family
ID=56345224
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564705A Active JP6885883B2 (ja) | 2015-06-18 | 2016-06-17 | イントラ予測およびイントラモードコーディング |
JP2021032518A Pending JP2021083122A (ja) | 2015-06-18 | 2021-03-02 | イントラ予測およびイントラモードコーディング |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021032518A Pending JP2021083122A (ja) | 2015-06-18 | 2021-03-02 | イントラ予測およびイントラモードコーディング |
Country Status (10)
Country | Link |
---|---|
US (1) | US20160373770A1 (ja) |
EP (1) | EP3311569B1 (ja) |
JP (2) | JP6885883B2 (ja) |
KR (1) | KR102430839B1 (ja) |
CN (1) | CN107743705B (ja) |
AU (1) | AU2016278991A1 (ja) |
BR (1) | BR112017027269A2 (ja) |
ES (1) | ES2895717T3 (ja) |
TW (1) | TW201717626A (ja) |
WO (1) | WO2016205712A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021083122A (ja) * | 2015-06-18 | 2021-05-27 | クアルコム,インコーポレイテッド | イントラ予測およびイントラモードコーディング |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10841593B2 (en) | 2015-06-18 | 2020-11-17 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10142627B2 (en) | 2015-06-18 | 2018-11-27 | Qualcomm Incorporated | Intra prediction and intra mode coding |
WO2017138393A1 (en) | 2016-02-08 | 2017-08-17 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
CN113810700B (zh) * | 2016-04-29 | 2024-07-02 | 世宗大学校产学协力团 | 用于对图像信号进行编码和解码的方法和装置 |
US10440391B2 (en) * | 2016-08-05 | 2019-10-08 | Mediatek Inc. | Method and apparatus of video coding |
HUE062025T2 (hu) * | 2016-12-23 | 2023-09-28 | Huawei Tech Co Ltd | Kódoló berendezés egy kiterjesztési irányú intra-predikciós mód jelzésére irányított intra-predikciós módok csoportján belül |
TWI616090B (zh) * | 2017-06-26 | 2018-02-21 | 元智大學 | 使用運算資料共用的高效率視訊編碼畫面內預測方法及其架構 |
JP7147145B2 (ja) * | 2017-09-26 | 2022-10-05 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
CN111316640B (zh) * | 2017-11-17 | 2023-09-26 | 鸿颖创新有限公司 | 基于调整的帧内模式列表以编码视频数据的设备及方法 |
US20190268611A1 (en) * | 2018-02-26 | 2019-08-29 | Mediatek Inc. | Intelligent Mode Assignment In Video Coding |
US11611757B2 (en) * | 2018-04-02 | 2023-03-21 | Qualcomm Incorproated | Position dependent intra prediction combination extended with angular modes |
WO2019199149A1 (ko) * | 2018-04-14 | 2019-10-17 | 엘지전자 주식회사 | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US10645381B2 (en) * | 2018-04-30 | 2020-05-05 | Google Llc | Intra-prediction for smooth blocks in image/video |
CN110213576B (zh) * | 2018-05-03 | 2023-02-28 | 腾讯科技(深圳)有限公司 | 视频编码方法、视频编码装置、电子设备及存储介质 |
KR102519380B1 (ko) * | 2018-06-29 | 2023-04-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 이미지의 예측 블록의 인트라 예측을 위한 장치 및 방법 |
US11277644B2 (en) | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
US10638161B2 (en) | 2018-07-13 | 2020-04-28 | Tencent America LLC | Methods and apparatus for most probable mode derivation |
US10630979B2 (en) * | 2018-07-16 | 2020-04-21 | Tencent America LLC | Reference sample padding and filtering for intra prediction in video compression |
WO2020055291A1 (en) * | 2018-09-13 | 2020-03-19 | Huawei Technologies Co., Ltd. | Method and apparatus for wide-angle intra-prediction |
CN112040228B (zh) * | 2018-09-16 | 2021-08-03 | 华为技术有限公司 | 用于预测的方法,装置和存储介质 |
US10469845B1 (en) | 2018-09-21 | 2019-11-05 | Tencent America, Llc | Method and apparatus for intra mode coding |
WO2020061784A1 (zh) * | 2018-09-25 | 2020-04-02 | 北京大学 | 编码方法、解码方法、编码设备和解码设备 |
CN117939122A (zh) * | 2018-10-07 | 2024-04-26 | 三星电子株式会社 | 用于编码或解码视频信号的视频信号处理方法和设备 |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
US20200162737A1 (en) * | 2018-11-16 | 2020-05-21 | Qualcomm Incorporated | Position-dependent intra-inter prediction combination in video coding |
US11438583B2 (en) * | 2018-11-27 | 2022-09-06 | Tencent America LLC | Reference sample filter selection in intra prediction |
CN116668674A (zh) * | 2018-12-07 | 2023-08-29 | 华为技术有限公司 | 视频译码的约束预测模式 |
CN111435993B (zh) * | 2019-01-14 | 2022-08-26 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
WO2020171647A1 (ko) * | 2019-02-21 | 2020-08-27 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측을 사용하는 영상 디코딩 방법 및 그 장치 |
CA3131031C (en) * | 2019-03-21 | 2024-06-11 | Beijing Bytedance Network Technology Co., Ltd. | Improved weighting processing of combined intra-inter prediction |
US11496748B2 (en) * | 2019-03-21 | 2022-11-08 | Tencent America LLC | Method and apparatus for improved planar and DC modes for non-zero reference lines |
EP3944616B1 (en) | 2019-03-22 | 2024-02-07 | Lg Electronics Inc. | Image decoding method and device and image encoding method and device in image coding system |
CA3134410A1 (en) * | 2019-03-23 | 2020-10-01 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods for intra prediction |
WO2020197445A1 (en) * | 2019-03-24 | 2020-10-01 | Huawei Technologies Co., Ltd. | Method and apparatus for chroma intra prediction in video coding |
CN113678440B (zh) | 2019-04-12 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测与其它编码工具之间的交互 |
JP7403555B2 (ja) * | 2019-04-16 | 2023-12-22 | 北京字節跳動網絡技術有限公司 | イントラコーディングモードにおけるマトリクスの導出 |
WO2020216302A1 (en) | 2019-04-23 | 2020-10-29 | Beijing Bytedance Network Technology Co., Ltd. | Intra Prediction and Residual Coding |
CN113796086B (zh) * | 2019-04-25 | 2023-06-06 | 寰发股份有限公司 | 编码或解码视频数据的方法和装置 |
CN113841410B (zh) * | 2019-05-12 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 多种帧内预测方法的编解码 |
WO2020228761A1 (en) * | 2019-05-14 | 2020-11-19 | Beijing Bytedance Network Technology Co., Ltd. | Filter selection for intra video coding |
JP2022533190A (ja) * | 2019-05-22 | 2022-07-21 | 北京字節跳動網絡技術有限公司 | アップサンプリングを使用した行列ベースのイントラ予測 |
CN114051735B (zh) * | 2019-05-31 | 2024-07-05 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测中的一步下采样过程 |
EP3963885A4 (en) * | 2019-06-05 | 2022-12-14 | Beijing Bytedance Network Technology Co., Ltd. | DETERMINING CONTEXT FOR MATRIX-BASED INTRAPREDICTION |
CN113068032B (zh) | 2019-06-25 | 2022-07-26 | Oppo广东移动通信有限公司 | 图像编解码方法、编码器、解码器以及存储介质 |
CN117376556A (zh) * | 2019-08-14 | 2024-01-09 | 北京字节跳动网络技术有限公司 | 位置相关帧内预测样点滤波 |
CN114287131A (zh) * | 2019-08-19 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 基于计数器的帧内预测模式的更新 |
WO2021110568A1 (en) * | 2019-12-05 | 2021-06-10 | Interdigital Vc Holdings France, Sas | Intra sub partitions for video encoding and decoding combined with multiple transform selection, matrix weighted intra prediction or multi-reference-line intra prediction |
US11375231B2 (en) * | 2020-01-14 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
CN116671103A (zh) * | 2021-03-11 | 2023-08-29 | Oppo广东移动通信有限公司 | 帧内预测方法、编码器、解码器以及存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0813904B1 (pt) * | 2007-06-29 | 2020-12-08 | Velos Media International Limited | dispositivo de codificação de imagem para codificar imagens de entrada e dispositivo de decodificação de imagem para decodificar dados de imagens codificados |
US8750378B2 (en) * | 2008-09-23 | 2014-06-10 | Qualcomm Incorporated | Offset calculation in switched interpolation filters |
US20130215963A1 (en) * | 2010-10-26 | 2013-08-22 | Humax Co., Ltd. | Adaptive intra-prediction encoding and decoding method |
KR101383775B1 (ko) * | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
CN108282659B (zh) * | 2011-06-28 | 2022-02-25 | 三星电子株式会社 | 用于使用帧内预测进行图像编码和解码的方法和设备 |
JP2013058939A (ja) * | 2011-09-08 | 2013-03-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
KR20140129423A (ko) * | 2013-04-29 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
CN103248892A (zh) * | 2013-05-07 | 2013-08-14 | 北京大学 | 一种帧内预测方法及装置 |
WO2015000168A1 (en) * | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
KR101700410B1 (ko) * | 2015-02-10 | 2017-01-26 | 주식회사 아리스케일 | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 |
CN104702962B (zh) * | 2015-03-03 | 2019-04-16 | 华为技术有限公司 | 帧内编解码方法、编码器和解码器 |
US20160373770A1 (en) * | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
-
2016
- 2016-06-16 US US15/184,103 patent/US20160373770A1/en not_active Abandoned
- 2016-06-17 CN CN201680034751.2A patent/CN107743705B/zh active Active
- 2016-06-17 EP EP16734804.4A patent/EP3311569B1/en active Active
- 2016-06-17 WO PCT/US2016/038182 patent/WO2016205712A1/en active Application Filing
- 2016-06-17 TW TW105119249A patent/TW201717626A/zh unknown
- 2016-06-17 JP JP2017564705A patent/JP6885883B2/ja active Active
- 2016-06-17 KR KR1020177036161A patent/KR102430839B1/ko active IP Right Grant
- 2016-06-17 AU AU2016278991A patent/AU2016278991A1/en not_active Abandoned
- 2016-06-17 ES ES16734804T patent/ES2895717T3/es active Active
- 2016-06-17 BR BR112017027269A patent/BR112017027269A2/pt not_active Application Discontinuation
-
2021
- 2021-03-02 JP JP2021032518A patent/JP2021083122A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021083122A (ja) * | 2015-06-18 | 2021-05-27 | クアルコム,インコーポレイテッド | イントラ予測およびイントラモードコーディング |
Also Published As
Publication number | Publication date |
---|---|
US20160373770A1 (en) | 2016-12-22 |
JP2018523372A (ja) | 2018-08-16 |
EP3311569A1 (en) | 2018-04-25 |
KR20180019565A (ko) | 2018-02-26 |
EP3311569B1 (en) | 2021-10-06 |
KR102430839B1 (ko) | 2022-08-08 |
CN107743705B (zh) | 2021-03-19 |
TW201717626A (zh) | 2017-05-16 |
AU2016278991A1 (en) | 2017-11-30 |
ES2895717T3 (es) | 2022-02-22 |
WO2016205712A1 (en) | 2016-12-22 |
BR112017027269A2 (pt) | 2018-09-04 |
JP2021083122A (ja) | 2021-05-27 |
CN107743705A (zh) | 2018-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7033179B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6885883B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6777657B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6770001B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6724046B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6543736B2 (ja) | イントラ予測およびイントラモードコーディング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200622 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210302 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210302 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20210315 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210323 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6885883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |