JP2018523376A - イントラ予測およびイントラモードコーディング - Google Patents
イントラ予測およびイントラモードコーディング Download PDFInfo
- Publication number
- JP2018523376A JP2018523376A JP2017564713A JP2017564713A JP2018523376A JP 2018523376 A JP2018523376 A JP 2018523376A JP 2017564713 A JP2017564713 A JP 2017564713A JP 2017564713 A JP2017564713 A JP 2017564713A JP 2018523376 A JP2018523376 A JP 2018523376A
- Authority
- JP
- Japan
- Prior art keywords
- intra prediction
- prediction mode
- block
- decode
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)である。
1. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
2. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。
3. x=0...2であるcandModeList[x]が次のように導出される。
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
- それ以外の場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
candModeList[1]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定される。
- prev_intra_luma_pred_flag[xPb][yPb]が1としてシグナリングされる場合、すなわち3つのMPMのうちの1つが現在のPUをコーディングするために選択される場合、どのMPMが現在のPUをコーディングするために選択されるかを示す、インデックスmpm_idx(0、1、または2に等しいことがある)がさらにシグナリングされる。mpm_idxは、切捨て単項符号を使用してバイナリ化され、コンテキストモデリングを使用せずにバイパスコーディングされる。
- それ以外の場合(prev_intra_luma_pred_flag[xPb][yPb]が0としてシグナリングされる)、すなわち非MPMが現在のPUのために使用される場合、どの非MPMが現在のPUのために選択されるかを示す、インデックスrem_intra_luma_pred_mode[xPb][yPb]がさらにシグナリングされる。rem_intra_luma_pred_mode[xPb][yPb]の値は0、1、...、31であることがあり、固定長(5ビット)のバイナリ化がバイパスコーディングとともに使用される。
pxy=(1-α)・L+α・R
ここでpxyはそれぞれのサンプルの計算された値であり、LおよびRは2つの再構築された隣接サンプルの値であり、αは決定された小数位置である。
このプロセスへの入力は、シンタックス要素rem_intra_luma_pred_modeのバイナリ化に対する要求である。
このプロセスの出力は、シンタックス要素のバイナリ化である。
- rem_intra_luma_pred_modeが28に等しい場合、バイナリ化文字列は「111」である。
- それ以外の場合、バイナリ化は5つのビンを有する固定長符号である。
9.3.4.x.x シンタックス要素mpm_idxのためのctxIncの導出プロセス
このプロセスへの入力は、左の隣接ブロックのイントラモードcandIntraPredModeAおよび上の隣接ブロックのイントラモードcandIntraPredModeBである。
このプロセスの出力は変数ctxIncである。
変数csbfCtxが、現在の場所(xS, yS)、走査順序におけるシンタックス要素coded_sub_block_flagの2つの以前に復号されたビン、および変換ブロックサイズlog2TrafoSizeを使用して、次のように導出される。
- candIntraPredModeAがcandIntraPredModeBに等しいとき、ctxIncは次のように導出される
ctxInc=candIntraPredModeA>1?0:1
- それ以外の場合
ctxInc=(candIntraPredModeA && candIntraPredModeB)?2:3</ins>
8.4.2 ルーマイントラ予測モードの導出プロセス
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)、<ins>予測ブロックサイズnPbs</ins>である。
このプロセスにおいて、ルーマイントラ予測モードIntraPredModeY[xPb][yPb]が導出される。
Table 8-1(表4)は、イントラ予測モードの値および関連する名称を規定する。
IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
4. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
5. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
<ins>
- candIntraPredModeXがINTRA_DCとして初期化される。
- イントラモード使用のカウントを0として初期化する: cntIntraPredModeX[i]=0, i=0, 1, …, 34
- イントラモード使用の最大カウントを0として初期化する: cntMaxIntraPredModeX=0
- x=0..nPbS - 1に対して、以下が適用される。
- (xCurr, yCurr)=(X==A)?(xNbA+x, yNbA)?(xNbA, yNbA +x)
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- availableXがTRUEに等しく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しい場合、以下が適用される。
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]++
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]>cntMaxIntraPredModeXである場合、以下が適用される。
- cntMaxIntraPredModeX=cntIntraPredModeX[CuPredMode[xCurr][yCurr]];
- candIntraPredModeX=CuPredMode[xCurr][yCurr] </ins>
<dlt>
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。</dlt>
6. x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
- <ins>idxPlanarが0として設定され、idxDCが1として設定される;</ins>
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
<ins>candModeList[3]=INTRA_ANGULAR10 (8-17)
candModeList[4]=INTRA_ANGULAR2 (8-17)
candModeList[5]=INTRA_ANGULAR18 (8-17)</ins>
- それ以外の場合、x=0...5であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
<dlt>candModeList[2]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)</dlt>
<ins>candModeList[1]=INTRA_PLANAR (8-20)
candModeList[2]=2+((candIntraPredModeA-1)%32) (8-19)
candModeList[3]=2+((candIntraPredModeA+29)%32) (8-20)
candModeList[4]=2+((candModeList[2]-1)%32) (8-20)
candModeList[5]=INTRA_DC (8-20)
idxPlanar=1
idxDC=5</ins>
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、<ins>以下が適用される。
- maxDir=max(candModeList[0], candModeList[1] )
- minDir=min(candModeList[0], candModeList[1] )
- idxPlanar=2
- candModeList[0]とcandModeList[1]のいずれかがINTRA_DCに等しい場合、以下が適用される。
candModeList[3]=2+((maxDir+29)%32) (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
candModeList[5]=2+((candModeList[4]-1)%32) (8-22)
idxDC=(candModeList[0]==INTRA_DC)?0:1
- それ以外の場合、
candModeList[3]=INTRA_DC (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
- candModeList[4]がminDirに等しい場合、candModeList[4]++
candModeList[5]=2+((candModeList[4]+29)%32) (8-22)
- candModeList[5]がmaxDirに等しい場合、candModeList[5]--
- candModeList[5]がcandModeList[4]に等しい場合、candModeList[5]=minDir+1
idxDC=3</ins>
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、<ins>以下が適用される。
candModeList[3]=2+((candIntraPredModeA+29)%32)
candModeList[4]=2+((candIntraPredModeA-1)%32)
candModeList[5]=2+((candModeList[4]-1)%32)
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=2</ins>
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定され、以下が適用される。
<ins>candModeList[3]=INTRA_ANGULAR10
candModeList[4]=INTRA_ANGULAR2
candModeList[5]=INTRA_ANGULAR18
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=1-idxPlanar</ins>
7. IntraPredModeY[xPb][yPb]は以下の手順を適用することによって導出される。
- prev_intra_luma_pred_flag[xPb][yPb]が1に等しい場合、IntraPredModeY[xPb][yPb]はcandModeList[mpm_idx]に等しく設定される。
- それ以外の場合、IntraPredModeY[xPb][yPb]は以下の順序付けられたステップを適用することによって導出される。
1) x=0...<dlt>2</dlt><ins>5</ins>であるアレイcandModeList[x]は以下の順序付けられたステップとして修正される。<ins>
i. candModeList[idxPlanar]=candModeList[0]
ii. candModeList[idxDC]=candModeList[1]
iii. candModeList[0]=INTRA_PLANAR
iv. candModeList[1]=INTRA_DC</ins>
v. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[ dlt>1</dlt><ins>3</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>]) (8-23)
vi. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[<dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-24)
vii. <ins>candModeList[2]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[2], candModeList[5])=Swap(candModeList[2], candModeList[5])</ins>
viii. candModeList[<dlt>1</dlt><ins>3</ins>]がcandModeList[ dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-25)
ix. <ins>candModeList[3]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[3], candModeList[5])=Swap(candModeList[3], candModeList[5])
candModeList[4]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[4], candModeList[5])=Swap(candModeList[4], candModeList[5])</ins>
2) IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
i. IntraPredModeY[xPb][yPb]がrem_intra_luma_pred_mode[xPb][yPb]に等しく設定される。
両端を含めて0から<dlt>2</dlt><ins>5</ins>に等しいiに対して、IntraPredModeY[xPb][yPb]がcandModeList[i]以上であるとき、IntraPredModeY[xPb][yPb]の値は1だけインクリメントされる。
2+((candIntraPredModeA-1)%32)、
2+((candIntraPredModeA+29)%32)、および
2+((candModeList[2]-1)%32)
上の式において、%は剰余演算を示す。
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
本開示の図9である図8-2は、33個すべてのイントラ角度を示しており、Table 8-4(表5)は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
c. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
Table 8-5(表8)はさらに、predModeIntraと逆角度パラメータinvAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
......
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
Table 8-3 - 様々な変換ブロックサイズに対するintraHorVerDistThres[nTbS]の規定
...
<ins>x.x.x イントラ補間フィルタ係数初期化プロセス</ins>
このプロセスの出力は、アレイfilterCubic[sFrac][pos]である。sFracのアレイインデックスは0から31にわたる小数位置を指定し、posはpos番目のサンプルのフィルタ係数を指定する。アレイfilterCubicおよびfilterGaussianが次のように導出される。
<ins>filterCubic[32][4]={
{
{ 0, 256, 0, 0 }, // 0
{ -3, 252, 8, -1 }, // 1
{ -5, 247, 17, -3 }, // 2
{ -7, 242, 25, -4 }, // 3
{ -9, 236, 34, -5 }, // 4
{ -10, 230, 43, -7 }, // 5
{ -12, 224, 52, -8 }, // 6
{ -13, 217, 61, -9 }, // 7
{ -14, 210, 70, -10 }, // 8
{ -15, 203, 79, -11 }, // 9
{ -16, 195, 89, -12 }, // 10
{ -16, 187, 98, -13 }, // 11
{ -16, 179, 107, -14 }, // 12
{ -16, 170, 116, -14 }, // 13
{ -17, 162, 126, -15 }, // 14
{ -16, 153, 135, -16 }, // 15
{ -16, 144, 144, -16 }, // 16
},
};
sigma=0.9
for(i=0; i<17; i++)
{
for(c=0; c<4; c++ )
{
filterGaussian [b][i][c]=(256.0*exp(-((c-delta)/sigma)2)/sum+0.5);
}
}
for(i=17; i<32; i++)
{
for(c=0; c<4; c++ )
{
filterCubic[b][i][c]=filterCubic[b][32-i][3-c];
filterGaussian[b][i][c]=filterGaussian[b][32-i][3-c];
}
}
</ins>
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
...
x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
</dlt>predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)</dlt>
<ins>p=0,...,3に対して、pF[p]=(cIdx==0&&nTbS<=8)?filterCubic[iFact][p]:filterGaussian[iFact][p]
P[1]=ref[x+iIdx+1]
P[2]=ref[x+iIdx2]
P[0]=(x==0)?ref[x+iIdx+1]:ref[x+iIdx]
P[3]=(x==nTbS-1)?ref[x+iIdx2]:ref[x+iIdx+3]
predSamples[x][y]=
(pF[0]*P[0]+pF[1]*P[1]+pF[2]*P[2]+pF[3]*P[3]+128)>>8 (8-52)</ins>
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
d. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
e. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
f. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
12 ソースデバイス
14 宛先デバイス
16 チャネル
18 ビデオソース
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 ディスプレイデバイス
40 画像ブロック
42 矢印
50 右上の再構築されたサンプル
52 左下の再構築されたサンプル
54 再構築されたサンプル
56 再構築されたサンプル
100 予測処理ユニット
101 ビデオデータメモリ
102 残差生成ユニット
104 変換処理ユニット
106 量子化ユニット
108 逆量子化ユニット
110 逆変換処理ユニット
112 再構築ユニット
114 フィルタユニット
116 復号ピクチャバッファ
118 エントロピー符号化ユニット
120 インター予測処理ユニット
122 MEユニット
124 MCユニット
126 イントラ予測処理ユニット
150 エントロピー復号ユニット
151 ビデオデータメモリ
152 予測処理ユニット
154 逆量子化ユニット
156 逆変換処理ユニット
158 再構築ユニット
160 フィルタユニット
162 復号ピクチャバッファ
164 動き補償ユニット
166 イントラ予測処理ユニット
Claims (32)
- ビデオデータのブロックを復号する方法であって、
複数のイントラ予測モードの中から、ビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きい、ステップと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号するステップであって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択するステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを再構築するステップとを備える、方法。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、前記方法が、
前記MPMインデックスの前記1つまたは複数のコンテキストモデリングされたビンの各々に対して、前記コンテキストモデリングされたビンの前記選択されたコンテキストインデックスを使用して前記MPMインデックスの前記コンテキストモデリングされたビンのコンテキスト適応バイナリ算術コーディング(CABAC)復号を実行するステップをさらに備え、
ビデオデータの前記ブロックを再構築するステップが、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成するステップと、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築するステップと
を備える、請求項1に記載の方法。 - 固定された切捨て単項符号または固定されたハフマン符号のうちの少なくとも1つを使用して前記MPMインデックスがバイナリ化される、請求項1に記載の方法。
- 前記1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記固定された切捨て単項符号または前記固定されたハフマン符号のうちの1つを選択するステップをさらに備える、請求書3に記載の方法。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの第1のビンからなる、請求項1に記載の方法。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの選択されたN個のビンからなり、NがM-Kに等しく設定され、Kが事前に定義された数である、請求書1に記載の方法。
- 前記コンテキストモデリングされたビンのコンテキストインデックスを選択するステップが、
左の隣接ブロックを復号するために使用されるイントラ予測モードと上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードもDCまたは平面ではない場合、第1のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つがDCまたは平面である場合、第2のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードも平面ではない場合、第3のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つが平面である場合、第4のコンテキストインデックスを選択するステップとを備える、請求項1に記載の方法。 - ビデオデータのブロックを符号化する方法であって、
複数のイントラ予測モードの中から、ビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きい、ステップと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すために最多のMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化するステップであって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択するステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化するステップとを備える、方法。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記MPMインデックスの前記1つまたは複数のコンテキストモデリングされたビンの各々に対して、前記コンテキストモデリングされたビンの前記選択されたコンテキストインデックスを使用して前記MPMインデックスの前記コンテキストモデリングされたビンのコンテキスト適応バイナリ算術コーディング(CABAC)符号化を実行するステップをさらに備え、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化するステップが、
前記PUの前記選択されたイントラ予測モードに基づいて、前記PUの予測ブロックを生成するステップと、
前記現在のCUと前記予測ブロックとの間のピクセル差分を表す残差データを生成するステップとを備える、請求書8に記載の方法。 - 固定された切捨て単項符号または固定されたハフマン符号のうちの少なくとも1つを使用して前記MPMインデックスがバイナリ化される、請求項8に記載の方法。
- 前記1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記固定された切捨て単項符号または前記固定されたハフマン符号のうちの1つを選択するステップをさらに備える、請求書10に記載の方法。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの第1のビンからなる、請求項8に記載の方法。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの選択されたN個のビンからなり、NがM-Kに等しく設定され、Kが事前に定義された数である、請求書8に記載の方法。
- 前記コンテキストモデリングされたビンのコンテキストインデックスを選択するステップが、
左の隣接ブロックを復号するために使用されるイントラ予測モードと上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードもDCまたは平面ではない場合、第1のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つがDCまたは平面である場合、第2のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードも平面ではない場合、第3のコンテキストインデックスを選択するステップと、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つが平面である場合、第4のコンテキストインデックスを選択するステップとを備える、請求項8に記載の方法。 - Sum of Absolute Transform Difference(SATD)を使用してイントラ予測モードの事前に定義された部分集合のイントラ予測角度を決定するステップと、
イントラ予測モードの前記事前に定義された部分集合の前記決定されたイントラ予測角度に基づいてN個の望まれるイントラ予測モードを決定するステップと、
前記決定されたN個の望まれるイントラ予測モードに対する相対的な予測角度の差分を決定するステップと、
前記決定されたN個の望まれるイントラ予測モードに対する相対的な前記決定された予測角度の差分に基づいてイントラ予測モードを決定するステップとをさらに備える、請求項8に記載の方法。 - ビデオデータを復号するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中から、前記ビデオデータのブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きい、導出することと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号することであって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、復号することと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを再構築することと
を行うように構成される、デバイス。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサがさらに、前記MPMインデックスの前記1つまたは複数のコンテキストモデリングされたビンの各々に対して、前記コンテキストモデリングされたビンの前記選択されたコンテキストインデックスを使用して前記MPMインデックスの前記コンテキストモデリングされたビンのコンテキスト適応バイナリ算術コーディング(CABAC)復号を実行するように構成され、
前記1つまたは複数のプロセッサが、ビデオデータの前記ブロックを再構築することの一部として、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成し、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築する
ように構成される、請求項16に記載のデバイス。 - 前記1つまたは複数のプロセッサが、固定された切捨て単項符号または固定されたハフマン符号のうちの少なくとも1つを使用して前記MPMインデックスをバイナリ化するように構成される、請求項16に記載のデバイス。
- 前記1つまたは複数のプロセッサが、前記1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記固定された切捨て単項符号または前記固定されたハフマン符号のうちの1つを選択するように構成される、請求書18に記載のデバイス。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの第1のビンからなる、請求項16に記載のデバイス。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの選択されたN個のビンからなり、NがM-Kに等しく設定され、Kが事前に定義された数である、請求書16に記載のデバイス。
- 前記1つまたは複数のプロセッサが、前記コンテキストモデリングされたビンのコンテキストインデックスを選択することの一部として、
左の隣接ブロックを復号するために使用されるイントラ予測モードと上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードもDCまたは平面ではない場合、第1のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つがDCまたは平面である場合、第2のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードも平面ではない場合、第3のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つが平面である場合、第4のコンテキストインデックスを選択する
ように構成される、請求項16に記載のデバイス。 - ビデオデータを符号化するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中から、ビデオデータのブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きい、導出することと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化することであって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、符号化することと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化することと
を行うように構成される、デバイス。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサがさらに、前記MPMインデックスの前記1つまたは複数のコンテキストモデリングされたビンの各々に対して、前記コンテキストモデリングされたビンの前記選択されたコンテキストインデックスを使用して前記MPMインデックスの前記コンテキストモデリングされたビンのコンテキスト適応バイナリ算術コーディング(CABAC)符号化を実行するように構成され、
前記1つまたは複数のプロセッサが、前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化することの一部として、
前記PUの前記選択されたイントラ予測モードに基づいて、前記PUの予測ブロックを生成し、
前記現在のCUと前記予測ブロックとの間のピクセル差分を表す残差データを生成する
ように構成される、請求項23に記載のデバイス。 - 前記1つまたは複数のプロセッサが、固定された切捨て単項符号または固定されたハフマン符号のうちの少なくとも1つを使用して前記MPMインデックスをバイナリ化するように構成される、請求項23に記載のデバイス。
- 前記1つまたは複数のプロセッサが、前記1つまたは複数の隣接ブロックを復号するために使用されるイントラ予測モードに基づいて、前記固定された切捨て単項符号または前記固定されたハフマン符号のうちの1つを選択するように構成される、請求書25に記載のデバイス。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの第1のビンからなる、請求項23に記載のデバイス。
- 前記1つまたは複数のコンテキストモデリングされたビンが、前記MPMインデックスの選択されたN個のビンからなり、NがM-Kに等しく設定され、Kが事前に定義された数である、請求書23に記載のデバイス。
- 前記1つまたは複数のプロセッサが、前記コンテキストモデリングされたビンのコンテキストインデックスを選択することの一部として、
左の隣接ブロックを復号するために使用されるイントラ予測モードと上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードもDCまたは平面ではない場合、第1のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが同じであり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つがDCまたは平面である場合、第2のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードも前記上の隣接ブロックを復号するために使用される前記イントラ予測モードも平面ではない場合、第3のコンテキストインデックスを選択し、
前記左の隣接ブロックを復号するために使用されるイントラ予測モードと前記上の隣接ブロックを復号するために使用されるイントラ予測モードが異なり、かつ、前記左の隣接ブロックを復号するために使用される前記イントラ予測モードと前記上の隣接ブロックを復号するために使用される前記イントラ予測モードのうちの少なくとも1つが平面である場合、第4のコンテキストインデックスを選択する
ように構成される、請求項23に記載のデバイス。 - 前記1つまたは複数のプロセッサが、
Sum of Absolute Transform Difference(SATD)を使用してイントラ予測モードの事前に定義された部分集合のイントラ予測角度を決定し、
イントラ予測モードの前記事前に定義された部分集合の前記決定されたイントラ予測角度に基づいてN個の望まれるイントラ予測モードを決定し、
前記決定されたN個の望まれるイントラ予測モードに対する相対的な予測角度の差分を決定し、
前記決定されたN個の望まれるイントラ予測モードに対する相対的な前記決定された予測角度の差分に基づいてイントラ予測モードを決定するように構成される、請求項23に記載のデバイス。 - ビデオデータのブロックをコーディングするためのビデオコーディングデバイスであって、
複数のイントラ予測モードの中から、ビデオデータの前記ブロックのイントラ予測のためのM個の最確モードを導出するための手段であって、Mが3より大きい、手段と、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すために最確モードインデックスが使用されるか非最確モードインデックスが使用されるかを示すシンタックス要素をコーディングするための手段であって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、手段と、
前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、および、1つまたは複数の隣接ブロックをコーディングするために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択するための手段と、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックをコーディングするための手段とを備える、ビデオコーディングデバイス。 - 命令を記憶するコンピュータ可読媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
複数のイントラ予測モードの中から、ビデオデータの前記ブロックのイントラ予測のためのM個の最確モードを導出することであって、Mが3より大きい、導出することと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードの選択されたイントラ予測モードを示すために最確モードインデックスが使用されるか非最確モードインデックスが使用されるかを示すシンタックス要素をコーディングすることであって、前記MPMインデックスが、前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが、前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、コーディングすることと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものが前記MPMインデックスであることに基づいて、前記MPMインデックスの1つまたは複数のコンテキストモデリングされたビンの各々に対して、1つまたは複数の隣接ブロックをコーディングするために使用されるイントラ予測モードに基づいて、前記コンテキストモデリングされたビンのコンテキストインデックスを選択することと、
前記選択されたイントラ予測モードに基づいてビデオデータのブロックをコーディングすることとを行わせる、コンピュータ可読媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562181744P | 2015-06-18 | 2015-06-18 | |
US62/181,744 | 2015-06-18 | ||
US201562192310P | 2015-07-14 | 2015-07-14 | |
US62/192,310 | 2015-07-14 | ||
US15/184,033 US10142627B2 (en) | 2015-06-18 | 2016-06-16 | Intra prediction and intra mode coding |
US15/184,033 | 2016-06-16 | ||
PCT/US2016/038145 WO2016205693A2 (en) | 2015-06-18 | 2016-06-17 | Intra prediction and intra mode coding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523376A true JP2018523376A (ja) | 2018-08-16 |
JP2018523376A5 JP2018523376A5 (ja) | 2019-02-28 |
JP6543736B2 JP6543736B2 (ja) | 2019-07-10 |
Family
ID=56264091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564713A Active JP6543736B2 (ja) | 2015-06-18 | 2016-06-17 | イントラ予測およびイントラモードコーディング |
Country Status (9)
Country | Link |
---|---|
US (1) | US10142627B2 (ja) |
EP (1) | EP3311568B1 (ja) |
JP (1) | JP6543736B2 (ja) |
KR (1) | KR102005661B1 (ja) |
CN (1) | CN107736022B (ja) |
AU (1) | AU2016278972A1 (ja) |
ES (1) | ES2854699T3 (ja) |
TW (1) | TW201717624A (ja) |
WO (1) | WO2016205693A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020059051A1 (ja) * | 2018-09-19 | 2021-09-09 | 富士通株式会社 | 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム |
JP2022120186A (ja) * | 2018-09-19 | 2022-08-17 | 富士通株式会社 | 映像復号方法 |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10841593B2 (en) | 2015-06-18 | 2020-11-17 | Qualcomm Incorporated | Intra prediction and intra mode coding |
WO2016206590A1 (en) * | 2015-06-23 | 2016-12-29 | Mediatek Singapore Pte. Ltd. | Method and apparatus for transform coefficient coding of non-square blocks |
US11233990B2 (en) | 2016-02-08 | 2022-01-25 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
CN113810712A (zh) * | 2016-04-29 | 2021-12-17 | 世宗大学校产学协力团 | 用于对图像信号进行编码和解码的方法和装置 |
US10715818B2 (en) | 2016-08-04 | 2020-07-14 | Intel Corporation | Techniques for hardware video encoding |
US20180146191A1 (en) * | 2016-11-22 | 2018-05-24 | Futurewei Technologies, Inc. | System and Method for Coding Intra Prediction Mode using a Second Set of Most Probable Modes |
KR102387909B1 (ko) * | 2016-11-29 | 2022-04-18 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN115733973A (zh) * | 2016-12-23 | 2023-03-03 | 华为技术有限公司 | 一种用于矩形视频编码块的编码方法、装置及计算机可读存储介质 |
EP3399754A1 (en) * | 2017-05-04 | 2018-11-07 | Thomson Licensing | Method and apparatus for most probable mode (mpm) reordering for intra prediction |
US10630974B2 (en) * | 2017-05-30 | 2020-04-21 | Google Llc | Coding of intra-prediction modes |
AU2018276649B2 (en) | 2017-05-31 | 2020-12-24 | Lg Electronics Inc. | Method and device for performing image decoding on basis of intra prediction in image coding system |
US10764587B2 (en) * | 2017-06-30 | 2020-09-01 | Qualcomm Incorporated | Intra prediction in video coding |
JP7147145B2 (ja) * | 2017-09-26 | 2022-10-05 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
US11178405B2 (en) | 2017-10-18 | 2021-11-16 | Samsung Electronics Co., Ltd. | Method and apparatus for video decoding, and method and apparatus for video encoding |
US10484695B2 (en) * | 2017-10-23 | 2019-11-19 | Google Llc | Refined entropy coding for level maps |
CN111316640B (zh) * | 2017-11-17 | 2023-09-26 | 鸿颖创新有限公司 | 基于调整的帧内模式列表以编码视频数据的设备及方法 |
WO2019138998A1 (ja) * | 2018-01-12 | 2019-07-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN110049339B (zh) * | 2018-01-16 | 2023-02-17 | 腾讯科技(深圳)有限公司 | 图像编码中的预测方向选取方法、装置和存储介质 |
US10869060B2 (en) * | 2018-01-30 | 2020-12-15 | Google Llc | Efficient context model computation design in transform coefficient coding |
US11381814B2 (en) * | 2018-03-08 | 2022-07-05 | Samsung Electronics Co., Ltd. | Video decoding method and device, and video encoding method and device |
WO2019184834A1 (en) * | 2018-03-28 | 2019-10-03 | Fg Innovation Ip Company Limited | Device and method for coding video data in multiple reference line prediction |
WO2019194439A1 (ko) * | 2018-04-02 | 2019-10-10 | 엘지전자 주식회사 | 컨텍스트 기반 인트라 예측 모드 정보 코딩을 이용한 영상 코딩 방법 및 그 장치 |
US10645381B2 (en) | 2018-04-30 | 2020-05-05 | Google Llc | Intra-prediction for smooth blocks in image/video |
US11277644B2 (en) | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
US11509890B2 (en) * | 2018-07-24 | 2022-11-22 | Hfi Innovation Inc. | Methods and apparatus for entropy coding and decoding aspects of video data |
CN112567740B (zh) * | 2018-08-29 | 2023-03-10 | 华为技术有限公司 | 用于帧内预测的方法和装置 |
KR20240042127A (ko) * | 2018-09-03 | 2024-04-01 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인트라 예측을 위한 방법 및 장치 |
WO2020050697A1 (ko) * | 2018-09-06 | 2020-03-12 | 엘지전자 주식회사 | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN110891180B (zh) * | 2018-09-10 | 2023-11-17 | 华为技术有限公司 | 视频解码方法及视频解码器 |
WO2020055159A1 (ko) * | 2018-09-11 | 2020-03-19 | 엘지전자 주식회사 | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
WO2020061784A1 (zh) * | 2018-09-25 | 2020-04-02 | 北京大学 | 编码方法、解码方法、编码设备和解码设备 |
EP3629579A1 (en) * | 2018-09-27 | 2020-04-01 | Ateme | Method for image processing and apparatus for implementing the same |
WO2020076036A1 (ko) * | 2018-10-07 | 2020-04-16 | 주식회사 윌러스표준기술연구소 | 복수개의 참조 라인을 위한 mpm 구성 방법을 이용한 비디오 신호 처리 방법 및 장치 |
JP7342118B2 (ja) * | 2018-10-12 | 2023-09-11 | ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド | 多重仮定予測を用いるビデオ信号処理方法及び装置 |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
WO2020094051A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of side information for inter prediction with geometric partitioning |
US10848763B2 (en) * | 2018-11-14 | 2020-11-24 | Tencent America LLC | Method and apparatus for improved context design for prediction mode and coded block flag (CBF) |
WO2020125796A1 (en) * | 2018-12-22 | 2020-06-25 | Beijing Bytedance Network Technology Co., Ltd. | Two step cross-component prediction mode based on multiple parameter |
CN113170166B (zh) | 2018-12-30 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 具有几何分割的帧间预测在视频处理中有条件的应用 |
WO2020143742A1 (en) * | 2019-01-10 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Simplified context modeling for context adaptive binary arithmetic coding |
CN111435993B (zh) * | 2019-01-14 | 2022-08-26 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
WO2020171647A1 (ko) * | 2019-02-21 | 2020-08-27 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측을 사용하는 영상 디코딩 방법 및 그 장치 |
US11025913B2 (en) | 2019-03-01 | 2021-06-01 | Intel Corporation | Encoding video using palette prediction and intra-block copy |
WO2020197203A1 (ko) * | 2019-03-23 | 2020-10-01 | 엘지전자 주식회사 | Mpm 리스트를 이용하는 인트라 예측에 기반한 영상 코딩 방법 및 그 장치 |
JP7401556B2 (ja) * | 2019-03-23 | 2023-12-19 | 華為技術有限公司 | イントラ予測のためのエンコーダ、デコーダおよび対応する方法 |
WO2020207493A1 (en) | 2019-04-12 | 2020-10-15 | Beijing Bytedance Network Technology Co., Ltd. | Transform coding based on matrix-based intra prediction |
WO2020211807A1 (en) | 2019-04-16 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Matrix derivation in intra coding mode |
CN111279699A (zh) * | 2019-04-26 | 2020-06-12 | 深圳市大疆创新科技有限公司 | 视频编解码的方法和装置 |
CN117097912A (zh) * | 2019-05-01 | 2023-11-21 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测的上下文编码 |
WO2020221373A1 (en) | 2019-05-01 | 2020-11-05 | Beijing Bytedance Network Technology Co., Ltd. | Matrix-based intra prediction using filtering |
WO2020224660A1 (en) * | 2019-05-09 | 2020-11-12 | Beijing Bytedance Network Technology Co., Ltd. | Most probable mode list construction for screen content coding |
CN113853785B (zh) | 2019-05-14 | 2024-04-16 | 北京字节跳动网络技术有限公司 | 用于残差编解码的上下文建模 |
EP3954115A4 (en) | 2019-05-22 | 2023-04-19 | Beijing Bytedance Network Technology Co., Ltd. | MATRIX-BASED INTRAPREDICTION USING UPSAMPLING |
CN114051735A (zh) | 2019-05-31 | 2022-02-15 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测中的一步下采样过程 |
EP3963885A4 (en) | 2019-06-05 | 2022-12-14 | Beijing Bytedance Network Technology Co., Ltd. | DETERMINING CONTEXT FOR MATRIX-BASED INTRAPREDICTION |
US10855983B2 (en) * | 2019-06-13 | 2020-12-01 | Intel Corporation | Encoding video using two-stage intra search |
WO2020256483A1 (ko) * | 2019-06-21 | 2020-12-24 | 삼성전자 주식회사 | 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
CN114270825A (zh) | 2019-08-19 | 2022-04-01 | 北京字节跳动网络技术有限公司 | 基于计数器的帧内预测模式的初始化 |
CN114641997A (zh) | 2019-10-28 | 2022-06-17 | 北京字节跳动网络技术有限公司 | 基于颜色分量的语法信令通知和解析 |
EP4070552A1 (en) * | 2019-12-05 | 2022-10-12 | InterDigital VC Holdings France, SAS | Intra sub partitions for video encoding and decoding combined with multiple transform selection, matrix weighted intra prediction or multi-reference-line intra prediction |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013105622A1 (ja) * | 2012-01-13 | 2013-07-18 | シャープ株式会社 | 画像復号装置、画像符号化装置、および符号化データのデータ構造 |
JP2014517630A (ja) * | 2011-06-09 | 2014-07-17 | クゥアルコム・インコーポレイテッド | 隣接モードを使用したビデオコーディングのための拡張イントラ予測モードシグナリング |
JP2014530556A (ja) * | 2011-10-24 | 2014-11-17 | インターコード プライベート リミテッド | 映像復号化方法及び装置 |
JP2014535225A (ja) * | 2011-11-04 | 2014-12-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | イントラモードビデオコーディング |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101791242B1 (ko) | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | 영상 부호화/복호화 장치 및 방법 |
JP5688136B2 (ja) | 2010-04-23 | 2015-03-25 | エム アンド ケー ホールディングス インコーポレイテッド | 映像を符号化する装置及び方法 |
US20120106640A1 (en) | 2010-10-31 | 2012-05-03 | Broadcom Corporation | Decoding side intra-prediction derivation for video coding |
US20120183041A1 (en) | 2011-01-14 | 2012-07-19 | Sony Corporation | Interpolation filter for intra prediction of hevc |
CN106412585A (zh) | 2011-06-17 | 2017-02-15 | 联发科技股份有限公司 | 内部预测模式编码的方法 |
CN103636220B (zh) * | 2011-06-28 | 2017-10-13 | 寰发股份有限公司 | 编码/解码帧内预测模式的方法及装置 |
JP2013012995A (ja) * | 2011-06-30 | 2013-01-17 | Sony Corp | 画像処理装置および方法 |
US9363511B2 (en) * | 2011-09-13 | 2016-06-07 | Mediatek Singapore Pte. Ltd. | Method and apparatus for Intra mode coding in HEVC |
US9538172B2 (en) * | 2012-04-11 | 2017-01-03 | Qualcomm Incorporated | Grouping bypass coded syntax elements in video coding |
KR20140129423A (ko) | 2013-04-29 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
WO2015194915A1 (ko) | 2014-06-20 | 2015-12-23 | 삼성전자 주식회사 | 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치 |
US20160373770A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373782A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373742A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10841593B2 (en) | 2015-06-18 | 2020-11-17 | Qualcomm Incorporated | Intra prediction and intra mode coding |
-
2016
- 2016-06-16 US US15/184,033 patent/US10142627B2/en active Active
- 2016-06-17 TW TW105119228A patent/TW201717624A/zh unknown
- 2016-06-17 KR KR1020177036157A patent/KR102005661B1/ko active IP Right Grant
- 2016-06-17 CN CN201680034469.4A patent/CN107736022B/zh active Active
- 2016-06-17 ES ES16732863T patent/ES2854699T3/es active Active
- 2016-06-17 AU AU2016278972A patent/AU2016278972A1/en not_active Abandoned
- 2016-06-17 WO PCT/US2016/038145 patent/WO2016205693A2/en active Application Filing
- 2016-06-17 EP EP16732863.2A patent/EP3311568B1/en active Active
- 2016-06-17 JP JP2017564713A patent/JP6543736B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014517630A (ja) * | 2011-06-09 | 2014-07-17 | クゥアルコム・インコーポレイテッド | 隣接モードを使用したビデオコーディングのための拡張イントラ予測モードシグナリング |
JP2014530556A (ja) * | 2011-10-24 | 2014-11-17 | インターコード プライベート リミテッド | 映像復号化方法及び装置 |
JP2014535225A (ja) * | 2011-11-04 | 2014-12-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | イントラモードビデオコーディング |
WO2013105622A1 (ja) * | 2012-01-13 | 2013-07-18 | シャープ株式会社 | 画像復号装置、画像符号化装置、および符号化データのデータ構造 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020059051A1 (ja) * | 2018-09-19 | 2021-09-09 | 富士通株式会社 | 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム |
JP2022120186A (ja) * | 2018-09-19 | 2022-08-17 | 富士通株式会社 | 映像復号方法 |
JP7180679B2 (ja) | 2018-09-19 | 2022-11-30 | 富士通株式会社 | 映像符号化装置、映像符号化方法、映像符号化プログラム、映像復号装置、映像復号方法、及び映像復号プログラム |
JP7323014B2 (ja) | 2018-09-19 | 2023-08-08 | 富士通株式会社 | 映像復号方法 |
Also Published As
Publication number | Publication date |
---|---|
US10142627B2 (en) | 2018-11-27 |
CN107736022A (zh) | 2018-02-23 |
EP3311568B1 (en) | 2020-11-18 |
US20160373741A1 (en) | 2016-12-22 |
EP3311568A2 (en) | 2018-04-25 |
WO2016205693A2 (en) | 2016-12-22 |
CN107736022B (zh) | 2020-04-24 |
TW201717624A (zh) | 2017-05-16 |
JP6543736B2 (ja) | 2019-07-10 |
WO2016205693A3 (en) | 2017-02-02 |
KR102005661B1 (ko) | 2019-07-30 |
KR20180019562A (ko) | 2018-02-26 |
ES2854699T3 (es) | 2021-09-22 |
AU2016278972A1 (en) | 2017-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7033179B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6543736B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6724046B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6777657B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6885883B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6770001B2 (ja) | イントラ予測およびイントラモードコーディング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190117 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190117 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190520 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6543736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |