JP2018523371A - イントラ予測およびイントラモードコーディング - Google Patents
イントラ予測およびイントラモードコーディング Download PDFInfo
- Publication number
- JP2018523371A JP2018523371A JP2017564703A JP2017564703A JP2018523371A JP 2018523371 A JP2018523371 A JP 2018523371A JP 2017564703 A JP2017564703 A JP 2017564703A JP 2017564703 A JP2017564703 A JP 2017564703A JP 2018523371 A JP2018523371 A JP 2018523371A
- Authority
- JP
- Japan
- Prior art keywords
- intra prediction
- prediction mode
- block
- mpm
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims description 217
- 230000008859 change Effects 0.000 claims description 3
- 239000000523 sample Substances 0.000 description 135
- 241000023320 Luma <angiosperm> Species 0.000 description 68
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 68
- 238000012545 processing Methods 0.000 description 67
- 230000008569 process Effects 0.000 description 60
- 238000013139 quantization Methods 0.000 description 29
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 22
- 238000004891 communication Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000006835 compression Effects 0.000 description 11
- 238000007906 compression Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 11
- 230000011664 signaling Effects 0.000 description 11
- 238000009795 derivation Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000013074 reference sample Substances 0.000 description 8
- 238000013500 data storage Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000005192 partition Methods 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 101150039623 Clip1 gene Proteins 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000209094 Oryza Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005314 correlation function Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 241000985610 Forpus Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 108010012137 spleen derived immunosuppressive peptide Proteins 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)である。
1. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
2. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。
3. x=0...2であるcandModeList[x]が次のように導出される。
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
- それ以外の場合、x=0...2であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
candModeList[1]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定される。
- prev_intra_luma_pred_flag[xPb][yPb]が1としてシグナリングされる場合、すなわち3つのMPMのうちの1つが現在のPUをコーディングするために選択される場合、どのMPMが現在のPUをコーディングするために選択されるかを示す、インデックスmpm_idx(0、1、または2に等しいことがある)がさらにシグナリングされる。mpm_idxは、切捨て単項符号を使用してバイナリ化され、コンテキストモデリングを使用せずにバイパスコーディングされる。
- それ以外の場合(prev_intra_luma_pred_flag[xPb][yPb]が0としてシグナリングされる)、すなわち非MPMが現在のPUのために使用される場合、どの非MPMが現在のPUのために選択されるかを示す、インデックスrem_intra_luma_pred_mode[xPb][yPb]がさらにシグナリングされる。rem_intra_luma_pred_mode[xPb][yPb]の値は0、1、...、31であることがあり、固定長(5ビット)のバイナリ化がバイパスコーディングとともに使用される。
pxy=(1-α)・L+α・R
ここでpxyはそれぞれのサンプルの計算された値であり、LおよびRは2つの再構築された隣接サンプルの値であり、αは決定された小数位置である。
このプロセスへの入力は、シンタックス要素rem_intra_luma_pred_modeのバイナリ化に対する要求である。
このプロセスの出力は、シンタックス要素のバイナリ化である。
- rem_intra_luma_pred_modeが28に等しい場合、バイナリ化文字列は「111」である。
- それ以外の場合、バイナリ化は5つのビンを有する固定長符号である。
9.3.4.x.x シンタックス要素mpm_idxのためのctxIncの導出プロセス
このプロセスへの入力は、左の隣接ブロックのイントラモードcandIntraPredModeAおよび上の隣接ブロックのイントラモードcandIntraPredModeBである。
このプロセスの出力は変数ctxIncである。
変数csbfCtxが、現在の場所(xS, yS)、走査順序におけるシンタックス要素coded_sub_block_flagの2つの以前に復号されたビン、および変換ブロックサイズlog2TrafoSizeを使用して、次のように導出される。
- candIntraPredModeAがcandIntraPredModeBに等しいとき、ctxIncは次のように導出される
ctxInc=candIntraPredModeA>1?0:1
- それ以外の場合
ctxInc=(candIntraPredModeA && candIntraPredModeB)?2:3</ins>
8.4.2 ルーマイントラ予測モードの導出プロセス
このプロセスへの入力は、現在のピクチャの左上のルーマサンプルに対して相対的に現在のルーマ予測ブロックの左上のサンプルを指定するルーマ場所(xCb, yCb)、<ins>予測ブロックサイズnPbs</ins>である。
このプロセスにおいて、ルーマイントラ予測モードIntraPredModeY[xPb][yPb]が導出される。
Table 8-1(表4)は、イントラ予測モードの値および関連する名称を規定する。
IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
4. 隣接場所(xNbA, yNbA)および(xNbB, yNbB)はそれぞれ、(xPb-1, yPb)および(xPb, yPb-1)に等しく設定される。
5. AまたはBのいずれかにより置き換えられるXに対して、変数candIntraPredModeXは次のように導出される。
<ins>
- candIntraPredModeXがINTRA_DCとして初期化される。
- イントラモード使用のカウントを0として初期化する: cntIntraPredModeX[i]=0, i=0, 1, …, 34
- イントラモード使用の最大カウントを0として初期化する: cntMaxIntraPredModeX=0
- x=0..nPbS - 1に対して、以下が適用される。
- (xCurr, yCurr)=(X==A)?(xNbA+x, yNbA)?(xNbA, yNbA +x)
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- availableXがTRUEに等しく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しい場合、以下が適用される。
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]++
- cntIntraPredModeX[CuPredMode[ xCurr][ yCurr ]]>cntMaxIntraPredModeXである場合、以下が適用される。
- cntMaxIntraPredModeX=cntIntraPredModeX[CuPredMode[xCurr][yCurr]];
- candIntraPredModeX=CuPredMode[xCurr][yCurr] </ins>
<dlt>
- 6.4.1項において規定されるようなz走査順序でのブロックのための可用性導出プロセスが、(xPb, yPb)に等しく設定された場所(xCurr, yCurr)および(xNbX, yNbX)に等しく設定された隣接場所(xNbY, yNbY)を入力として用いて呼び出され、出力はavailableXに割り当てられる。
- 候補イントラ予測モードcandIntraPredModeXは次のように導出される。
- availableXがFALSEに等しい場合、candIntraPredModeXはINTRA_DCに等しく設定される。
- そうではなく、CuPredMode[xNbX][yNbX]がMODE_INTRAに等しくない場合、またはpcm_flag[xNbX][yNbX]が1に等しい場合、candIntraPredModeXはINTRA_DCに等しく設定され、
- そうではなく、XがBに等しくyPb-1が((yPb>>CtbLog2SizeY)<<CtbLog2SizeY)より小さい場合、candIntraPredModeBはINTRA_DCに等しく設定される。
- それ以外の場合、candIntraPredModeXはIntraPredModeY[xNbX][yNbX]に等しく設定される。</dlt>
6. x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
- <ins>idxPlanarが0として設定され、idxDCが1として設定される;</ins>
- candIntraPredModeBがcandIntraPredModeAに等しい場合、以下が適用される。
- candIntraPredModeAが2より小さい(すなわち、INTRA_PLANARまたはINTRA_DCに等しい)場合、x=0...<dlt>2</dlt><ins>5</ins>であるcandModeList[x]は次のように導出される。
candModeList[0]=INTRA_PLANAR (8-15)
candModeList[1]=INTRA_DC (8-16)
candModeList[2]=INTRA_ANGULAR26 (8-17)
<ins>candModeList[3]=INTRA_ANGULAR10 (8-17)
candModeList[4]=INTRA_ANGULAR2 (8-17)
candModeList[5]=INTRA_ANGULAR18 (8-17)</ins>
- それ以外の場合、x=0...5であるcandModeList[x]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-18)
<dlt>candModeList[2]=2+((candIntraPredModeA+29)%32) (8-19)
candModeList[2]=2+((candIntraPredModeA-2+1)%32) (8-20)</dlt>
<ins>candModeList[1]=INTRA_PLANAR (8-20)
candModeList[2]=2+((candIntraPredModeA-1)%32) (8-19)
candModeList[3]=2+((candIntraPredModeA+29)%32) (8-20)
candModeList[4]=2+((candModeList[2]-1)%32) (8-20)
candModeList[5]=INTRA_DC (8-20)
idxPlanar=1
idxDC=5</ins>
- それ以外の場合(candIntraPredModeBがcandIntraPredModeAに等しくない)、以下が適用される。
- candModeList[0]およびcandModeList[1]は次のように導出される。
candModeList[0]=candIntraPredModeA (8-21)
candModeList[1]=candIntraPredModeB (8-22)
- candModeList[0]とcandModeList[1]のいずれもがINTRA_PLANARに等しくない場合、candModeList[2]はINTRA_PLANARに等しく設定され、<ins>以下が適用される。
- maxDir=max(candModeList[0], candModeList[1] )
- minDir=min(candModeList[0], candModeList[1] )
- idxPlanar=2
- candModeList[0]とcandModeList[1]のいずれかがINTRA_DCに等しい場合、以下が適用される。
candModeList[3]=2+((maxDir+29)%32) (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
candModeList[5]=2+((candModeList[4]-1)%32) (8-22)
idxDC=(candModeList[0]==INTRA_DC)?0:1
- それ以外の場合、
candModeList[3]=INTRA_DC (8-21)
candModeList[4]=2+((maxDir-1)%32) (8-22)
- candModeList[4]がminDirに等しい場合、candModeList[4]++
candModeList[5]=2+((candModeList[4]+29)%32) (8-22)
- candModeList[5]がmaxDirに等しい場合、candModeList[5]--
- candModeList[5]がcandModeList[4]に等しい場合、candModeList[5]=minDir+1
idxDC=3</ins>
- そうではなく、candModeList[0]とcandModeList[1]のいずれもがINTRA_DCに等しくない場合、candModeList[2]はINTRA_DCに等しく設定され、<ins>以下が適用される。
candModeList[3]=2+((candIntraPredModeA+29)%32)
candModeList[4]=2+((candIntraPredModeA-1)%32)
candModeList[5]=2+((candModeList[4]-1)%32)
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=2</ins>
- それ以外の場合、candModeList[2]はINTRA_ANGULAR26に等しく設定され、以下が適用される。
<ins>candModeList[3]=INTRA_ANGULAR10
candModeList[4]=INTRA_ANGULAR2
candModeList[5]=INTRA_ANGULAR18
idxPlanar=(candModeList[0]==INTRA_PLANAR)?0:1
idxDC=1-idxPlanar</ins>
7. IntraPredModeY[xPb][yPb]は以下の手順を適用することによって導出される。
- prev_intra_luma_pred_flag[xPb][yPb]が1に等しい場合、IntraPredModeY[xPb][yPb]はcandModeList[mpm_idx]に等しく設定される。
- それ以外の場合、IntraPredModeY[xPb][yPb]は以下の順序付けられたステップを適用することによって導出される。
1) x=0...<dlt>2</dlt><ins>5</ins>であるアレイcandModeList[x]は以下の順序付けられたステップとして修正される。<ins>
i. candModeList[idxPlanar]=candModeList[0]
ii. candModeList[idxDC]=candModeList[1]
iii. candModeList[0]=INTRA_PLANAR
iv. candModeList[1]=INTRA_DC</ins>
v. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[ dlt>1</dlt><ins>3</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>1</dlt><ins>3</ins>]) (8-23)
vi. candModeList[<dlt>0</dlt><ins>2</ins>]がcandModeList[<dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>0</dlt><ins>2</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-24)
vii. <ins>candModeList[2]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[2], candModeList[5])=Swap(candModeList[2], candModeList[5])</ins>
viii. candModeList[<dlt>1</dlt><ins>3</ins>]がcandModeList[ dlt>2</dlt><ins>4</ins>]より大きいとき、両方の値が次のように交換される。
(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>])=Swap(candModeList[<dlt>1</dlt><ins>3</ins>], candModeList[<dlt>2</dlt><ins>4</ins>]) (8-25)
ix. <ins>candModeList[3]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[3], candModeList[5])=Swap(candModeList[3], candModeList[5])
candModeList[4]がcandModeList[5]より大きいとき、両方の値が次のように交換される。
(candModeList[4], candModeList[5])=Swap(candModeList[4], candModeList[5])</ins>
2) IntraPredModeY[xPb][yPb]は以下の順序付けられたステップによって導出される。
i. IntraPredModeY[xPb][yPb]がrem_intra_luma_pred_mode[xPb][yPb]に等しく設定される。
両端を含めて0から<dlt>2</dlt><ins>5</ins>に等しいiに対して、IntraPredModeY[xPb][yPb]がcandModeList[i]以上であるとき、IntraPredModeY[xPb][yPb]の値は1だけインクリメントされる。
2+((candIntraPredModeA-1)%32)、
2+((candIntraPredModeA+29)%32)、および
2+((candModeList[2]-1)%32)
上の式において、%は剰余演算を示す。
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
本開示の図9である図8-2は、33個すべてのイントラ角度を示しており、Table 8-4(表5)は、predModeIntraと角度パラメータintraPredAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
1. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
2. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
c. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
Table 8-5(表8)はさらに、predModeIntraと逆角度パラメータinvAngleとの間のマッピングテーブルを規定する。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
......
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
7.4.9.11 残差コーディングのセマンティクス
イントラ予測のために、様々な走査順序が使用される。変数scanIdxは、どの走査順序が使用されるかを指定し、ここで0に等しいscanIdxは右上への対角方向の走査順序を指定し、1に等しいscanIdxは水平方向の走査順序を指定し、2に等しいscanIdxは垂直方向の走査順序を指定する。scanIdxの値は次のように導出される。
- CuPredMode[x0][y0]がMODE_INTRAに等しい場合、以下の条件のうちの1つまたは複数が真である。
- log2TrafoSizeが2に等しい。
- log2TrafoSizeが3に等しく、cIdxが0に等しい。
predModeIntraが次のように導出される。
- cIdxが0に等しい場合、predModeIntraはIntraPredModeY[x0][y0]に等しく設定される。
- それ以外の場合、predModeIntraはIntraPredModeCに等しく設定される。
scanIdxが次のように導出される。
- predModeIntraが両端を含めて<dlt>6</dlt><ins>10</ins>から<dlt>14</dlt><ins>26</ins>の範囲にある場合、scanIdxは2に等しく設定される。
- そうではなく、predModeIntraが両端を含めて<dlt>22</dlt><ins>42</ins>から<dlt>30</dlt><ins>58</ins>の範囲にある場合、scanIdxは1に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
- それ以外の場合、scanIdxは0に等しく設定される。
8.4.4.2.3 隣接サンプルのフィルタリングプロセス
このプロセスへの入力は以下の通りである。
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS。
- このプロセスの出力はフィルタリングされたサンプルpF[x][y]であり、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1である。
変数filterFlagは、次のように導出される。
- 以下の条件のうちの1つまたは複数が真であれば、filterFlagは0に等しく設定される。
- predModeIntraがINTRA_DCに等しい。
- nTbSが4に等しい。
- それ以外の場合、以下が適用される。
- 変数minDistVerHorがMin(Abs(predModeIntra-26), Abs(predModeIntra-10))に等しく設定される。
- 変数intraHorVerDistThres[nTbs]がTable 8-3(表9)において規定される。
- 変数filterFlagは、次のように導出される。
- minDistVerHorがintraHorVerDistThres[nTbS]より大きい場合、filterFlagは1に等しく設定される。
- それ以外の場合、filterFlagは0に等しく設定される。
Table 8-3 - 様々な変換ブロックサイズに対するintraHorVerDistThres[nTbS]の規定
...
<ins>x.x.x イントラ補間フィルタ係数初期化プロセス</ins>
このプロセスの出力は、アレイfilterCubic[sFrac][pos]である。sFracのアレイインデックスは0から31にわたる小数位置を指定し、posはpos番目のサンプルのフィルタ係数を指定する。アレイfilterCubicおよびfilterGaussianが次のように導出される。
<ins>filterCubic[32][4]={
{
{ 0, 256, 0, 0 }, // 0
{ -3, 252, 8, -1 }, // 1
{ -5, 247, 17, -3 }, // 2
{ -7, 242, 25, -4 }, // 3
{ -9, 236, 34, -5 }, // 4
{ -10, 230, 43, -7 }, // 5
{ -12, 224, 52, -8 }, // 6
{ -13, 217, 61, -9 }, // 7
{ -14, 210, 70, -10 }, // 8
{ -15, 203, 79, -11 }, // 9
{ -16, 195, 89, -12 }, // 10
{ -16, 187, 98, -13 }, // 11
{ -16, 179, 107, -14 }, // 12
{ -16, 170, 116, -14 }, // 13
{ -17, 162, 126, -15 }, // 14
{ -16, 153, 135, -16 }, // 15
{ -16, 144, 144, -16 }, // 16
},
};
sigma=0.9
for(i=0; i<17; i++)
{
for(c=0; c<4; c++ )
{
filterGaussian [b][i][c]=(256.0*exp(-((c-delta)/sigma)2)/sum+0.5);
}
}
for(i=17; i<32; i++)
{
for(c=0; c<4; c++ )
{
filterCubic[b][i][c]=filterCubic[b][32-i][3-c];
filterGaussian[b][i][c]=filterGaussian[b][32-i][3-c];
}
}
</ins>
8.4.4.2.6 INTRA_ANGULAR2...INTRA_ANGULAR34の範囲にあるイントラ予測モードの規定
このプロセスへの入力は以下の通りである。
- イントラ予測モードpredModeIntra、
- 隣接サンプルp[x][y]、ただしx=-1、y=-1..nTbS*2-1、かつx=0..nTbS*2-1、y=-1、
- 変換ブロックサイズを規定する変数nTbS、
- 現在のブロックの色成分を規定する変数cIdx。
このプロセスの出力は、予測されるサンプルpredSamples[x][y]であり、ただしx, y=0..nTbs-1である。
...
x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
- predModeIntraが18以上である場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1+x][-1]、ただしx=0..nTbS (8-47)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1][-1+((x*invAngle+128)>>8)]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-48)
- それ以外の場合、
ref[x]=p[-1+x][-1]、ただしx=nTbS+1..2*nTbS (8-49)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
a. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((y+1)*intraPredAngle)>>5 (8-50)
iFact=((y+1)*intraPredAngle)&31 (8-51)
b. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
</dlt>predSamples[x][y]=
((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5 (8-52)</dlt>
<ins>p=0,...,3に対して、pF[p]=(cIdx==0&&nTbS<=8)?filterCubic[iFact][p]:filterGaussian[iFact][p]
P[1]=ref[x+iIdx+1]
P[2]=ref[x+iIdx2]
P[0]=(x==0)?ref[x+iIdx+1]:ref[x+iIdx]
P[3]=(x==nTbS-1)?ref[x+iIdx2]:ref[x+iIdx+3]
predSamples[x][y]=
(pF[0]*P[0]+pF[1]*P[1]+pF[2]*P[2]+pF[3]*P[3]+128)>>8 (8-52)</ins>
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[x+Idx+1] (8-53)
c. predModeIntraが26(垂直)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0、y=0..nTbS-1であり、
predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1)) (8-54)
- それ以外(predModeIntraが18未満である)の場合、以下の順序付けられたステップが適用される。
3. 参照サンプルアレイref[x]が次のように規定される。
- 以下のことが適用される。
ref[x]=p[-1][-1+x]、ただしx=0..nTbS (8-55)
- intraPredAngleが0より小さい場合、主参照サンプルアレイは次のように延長される。
- (nTbS*intraPredAngle)>>5が-1より小さいとき、
ref[x]=p[-1+((x*invAngle+128)>>8)][-1]、
ただしx=-1..(nTbS*intraPredAngle)>>5 (8-56)
- それ以外の場合、
ref[x]=p[-1][-1+x]、ただしx=nTbS+1..2*nTbS (8-57)
4. x, y=0..nTbs-1である予測サンプルpredSamples[x][y]の値は次のように導出される。
d. インデックス変数iIdxおよび乗算係数iFactが次のように導出される。
iIdx=((x+1)*intraPredAngle)>>5 (8-58)
iFact=((x+1)*intraPredAngle)&31 (8-59)
e. iFactの値に応じて、以下が適用される。
- iFactが0に等しくない場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=
((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5 (8-60)
- それ以外の場合、予測サンプルpredSamples[x][y]の値は次のように導出される。
predSamples[x][y]=ref[y+Idx+1] (8-61)
f. predModeIntraが10(水平)に等しく、cIdxが0に等しくnTbsが32より小さいとき、以下のフィルタリングが適用され、ただしx=0..nTbS-1、y=0であり、
predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)) (8-62)
12 ソースデバイス
14 宛先デバイス
16 チャネル
18 ビデオソース
20 ビデオエンコーダ
22 出力インターフェース
28 入力インターフェース
30 ビデオデコーダ
32 ディスプレイデバイス
40 画像ブロック
42 矢印
50 右上の再構築されたサンプル
52 左下の再構築されたサンプル
54 再構築されたサンプル
56 再構築されたサンプル
100 予測処理ユニット
101 ビデオデータメモリ
102 残差生成ユニット
104 変換処理ユニット
106 量子化ユニット
108 逆量子化ユニット
110 逆変換処理ユニット
112 再構築ユニット
114 フィルタユニット
116 復号ピクチャバッファ
118 エントロピー符号化ユニット
120 インター予測処理ユニット
122 MEユニット
124 MCユニット
126 イントラ予測処理ユニット
150 エントロピー復号ユニット
151 ビデオデータメモリ
152 予測処理ユニット
154 逆量子化ユニット
156 逆変換処理ユニット
158 再構築ユニット
160 フィルタユニット
162 復号ピクチャバッファ
164 動き補償ユニット
166 イントラ予測処理ユニット
Claims (22)
- ビデオデータのブロックを復号する方法であって、
複数のイントラ予測モードの中からビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出するステップが、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用するステップ、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用するステップ
のうちの少なくとも1つを備える、ステップと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号するステップと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを復号するステップであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを再構築するステップとを備える、方法。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
ビデオデータの前記ブロックを再構築するステップが、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成するステップと、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの変換単位(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築するステップと
を備える、請求項1に記載の方法。 - 前記左の隣接列の前記代表的なイントラ予測モードを定義するステップが、前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列の最も頻繁なイントラ予測モードに基づいて定義するステップを備え、
前記上の隣接行の前記代表的なイントラ予測モードを定義するステップが、前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行の最も頻繁なイントラ予測モードに基づいて定義するステップを備える、請求項2に記載の方法。 - 前記隣接ブロックの前記最も頻繁なイントラ予測モードが、(i)最小の予測単位サイズ、または(ii)ビデオデータの前記ブロックの予測単位サイズのうちの少なくとも1つに基づいて決定される、請求項3に記載の方法。
- 前記左の隣接列の前記代表的なイントラ予測モードが、前記左の隣接列の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義され、
前記上の隣接行の前記代表的なイントラ予測モードが、前記上の隣接行の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義される、請求項2に記載の方法。 - ビデオデータのブロックを符号化する方法であって、
複数のイントラ予測モードの中からビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出するステップであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出するステップが、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用するステップ、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用するステップ
のうちの少なくとも1つを備える、ステップと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化するステップと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものを符号化するステップであって、前記MPMインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、ステップと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化するステップとを備える、方法。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化するステップが、
前記PUの前記選択されたイントラ予測モードに基づいて、前記PUの予測ブロックを生成するステップと、
前記現在のCUと前記予測ブロックとの間のピクセル差分を表す残差データを生成するステップとを備える、請求書6に記載の方法。 - 前記左の隣接列の前記代表的なイントラ予測モードを定義するステップが、前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列の最も頻繁なイントラ予測モードに基づいて定義するステップを備え、
前記上の隣接行の前記代表的なイントラ予測モードを定義するステップが、前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行の最も頻繁なイントラ予測モードに基づいて定義するステップを備える、請求項7に記載の方法。 - 前記隣接ブロックの前記最も頻繁なイントラ予測モードが、(i)最小の予測単位サイズ、または(ii)ビデオデータの前記ブロックの予測単位サイズのうちの少なくとも1つに基づいて決定される、請求項7に記載の方法。
- 前記左の隣接列の前記代表的なイントラ予測モードが、前記左の隣接列の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義され、
前記上の隣接行の前記代表的なイントラ予測モードが、前記上の隣接行の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義される、請求項7に記載の方法。 - ビデオデータのブロックを復号するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中からビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出することの一部として、前記1つまたは複数のプロセッサが、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用すること、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用すること
のうちの少なくとも1つを実行するように構成される、導出することと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を復号することと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを復号することであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、復号することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを再構築することと
を行うように構成される、デバイス。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサが、ビデオデータの前記ブロックを再構築することの一部として、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成し、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築する
ように構成される、請求項11に記載のデバイス。 - 前記1つまたは複数のプロセッサが、前記左の隣接列の前記代表的なイントラ予測モードを定義することの一部として、前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列の最も頻繁なイントラ予測モードに基づいて定義するように構成され、
前記1つまたは複数のプロセッサが、前記上の隣接行の前記代表的なイントラ予測モードを定義することの一部として、前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行の最も頻繁なイントラ予測モードに基づいて定義するように構成される、請求項12に記載のデバイス。 - 前記1つまたは複数のプロセッサが、前記隣接ブロックの前記最も頻繁なイントラ予測モードを、(i)最小の予測単位サイズ、または(ii)ビデオデータの前記ブロックの予測単位サイズのうちの少なくとも1つに基づいて決定するように構成される、請求項13に記載のデバイス。
- 前記1つまたは複数のプロセッサが、
前記左の隣接列の前記代表的なイントラ予測モードを、前記左の隣接列の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義し、
前記上の隣接行の前記代表的なイントラ予測モードを、前記上の隣接行の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義するように構成される、請求項12に記載のデバイス。 - ビデオデータのブロックを符号化するためのデバイスであって、
前記ビデオデータを記憶するように構成されるメモリと、
1つまたは複数のプロセッサとを備え、前記1つまたは複数のプロセッサが、
複数のイントラ予測モードの中からビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出することの一部として、前記1つまたは複数のプロセッサが、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用すること、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用すること
のうちの少なくとも1つを実行するように構成される、導出することと、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素を符号化することと、
前記最確モードインデックスまたは前記非最確モードインデックスのうちの前記示されるものを符号化することであって、前記最確モードインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、符号化することと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックを符号化することと
を行うように構成される、デバイス。 - ビデオデータの前記ブロックが前記ビデオデータの現在のピクチャの中の現在のコーディング単位(CU)であり、
ビデオデータの前記ブロックのための前記選択されたイントラ予測モードが、前記現在のCUの現在の予測単位(PU)のための選択されたイントラ予測モードであり、
前記1つまたは複数のプロセッサが、ビデオデータの前記ブロックを再構築することの一部として、
前記選択されたイントラ予測モードを使用して前記現在のPUの予測ブロックを生成し、
前記CUのPUの前記予測ブロックのサンプルを、前記現在のCUの(TU)の変換ブロックの対応するサンプルに加算することによって、残差値を使用して前記現在のCUを再構築する
ように構成される、請求項16に記載のデバイス。 - 前記1つまたは複数のプロセッサが、前記左の隣接列の前記代表的なイントラ予測モードを定義することの一部として、前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列の最も頻繁なイントラ予測モードに基づいて定義するように構成され、
前記1つまたは複数のプロセッサが、前記上の隣接行の前記代表的なイントラ予測モードを定義することの一部として、前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行の最も頻繁なイントラ予測モードに基づいて定義するように構成される、請求項17に記載のデバイス。 - 前記1つまたは複数のプロセッサが、前記隣接ブロックの前記最も頻繁なイントラ予測モードを、(i)最小の予測単位サイズ、または(ii)ビデオデータの前記ブロックの予測単位サイズのうちの少なくとも1つに基づいて決定するように構成される、請求項18に記載のデバイス。
- 前記1つまたは複数のプロセッサが、
前記左の隣接列の前記代表的なイントラ予測モードを、前記左の隣接列の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義し、
前記上の隣接行の前記代表的なイントラ予測モードを、前記上の隣接行の中の選択された隣接ブロックによって使用されるイントラ予測モードとして定義するように構成される、請求項17に記載のデバイス。 - ビデオデータのブロックをコーディングするためのビデオコーディングデバイスであって、
複数のイントラ予測モードの中からビデオデータの前記ブロックのイントラ予測のためのM個の最確モード(MPM)を導出するための手段であって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記M個の最確モードを導出するための手段が、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用するための手段、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用するための手段
のうちの少なくとも1つを備える、手段と、
ビデオデータの前記ブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素をコーディングするための手段と、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものをコーディングするための手段であって、前記MPMインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、手段と、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックをコーディングするための手段とを備える、ビデオコーディングデバイス。 - 命令を記憶するコンピュータ可読媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
複数のイントラ予測モードの中からビデオデータのブロックのイントラ予測のためのM個の最確モード(MPM)を導出することであって、Mが3より大きく、前記MPMが左の隣接列のMPMおよび上の隣接行のMPMを含み、前記1つまたは複数のプロセッサに前記M個の最確モードを導出させることの一部として、前記命令が、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
(i)前記左の隣接列の代表的なイントラ予測モードを定義して前記左の隣接列の前記代表的なイントラ予測モードを前記左の隣接列のための前記MPMとして使用すること、または
(ii)前記上の隣接行の代表的なイントラ予測モードを定義して前記上の隣接行の前記代表的なイントラ予測モードを前記上の隣接行のための前記MPMとして使用すること
のうちの少なくとも1つを実行させる、導出することと、
ビデオデータのブロックのイントラ予測のための前記複数のイントラ予測モードのうちの選択されたイントラ予測モードを示すためにMPMインデックスが使用されるか非MPMインデックスが使用されるかを示すシンタックス要素をコーディングすることと、
前記MPMインデックスまたは前記非MPMインデックスのうちの前記示されるものをコーディングすることであって、前記MPMインデックスが前記M個のMPMのうちのいずれが前記選択されたイントラ予測モードであるかを示し、前記非MPMインデックスが前記M個のMPM以外の前記複数のイントラ予測モードのうちのいずれが前記選択されたイントラ予測モードであるかを示す、コーディングすることと、
前記選択されたイントラ予測モードに基づいてビデオデータの前記ブロックをコーディングすることとを行わせる、コンピュータ可読媒体。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562181744P | 2015-06-18 | 2015-06-18 | |
US62/181,744 | 2015-06-18 | ||
US201562192310P | 2015-07-14 | 2015-07-14 | |
US62/192,310 | 2015-07-14 | ||
US15/184,051 | 2016-06-16 | ||
US15/184,051 US10841593B2 (en) | 2015-06-18 | 2016-06-16 | Intra prediction and intra mode coding |
PCT/US2016/038132 WO2016205684A1 (en) | 2015-06-18 | 2016-06-17 | Intra prediction and intra mode coding |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523371A true JP2018523371A (ja) | 2018-08-16 |
JP2018523371A5 JP2018523371A5 (ja) | 2019-07-04 |
JP6724046B2 JP6724046B2 (ja) | 2020-07-15 |
Family
ID=56404291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017564703A Active JP6724046B2 (ja) | 2015-06-18 | 2016-06-17 | イントラ予測およびイントラモードコーディング |
Country Status (10)
Country | Link |
---|---|
US (1) | US10841593B2 (ja) |
EP (1) | EP3311571B1 (ja) |
JP (1) | JP6724046B2 (ja) |
KR (1) | KR102194113B1 (ja) |
CN (1) | CN107750457B (ja) |
AU (1) | AU2016278963A1 (ja) |
ES (1) | ES2794619T3 (ja) |
HU (1) | HUE049215T2 (ja) |
TW (1) | TW201717629A (ja) |
WO (1) | WO2016205684A1 (ja) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10142627B2 (en) | 2015-06-18 | 2018-11-27 | Qualcomm Incorporated | Intra prediction and intra mode coding |
WO2017138393A1 (en) | 2016-02-08 | 2017-08-17 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
CN113810700B (zh) * | 2016-04-29 | 2024-07-02 | 世宗大学校产学协力团 | 用于对图像信号进行编码和解码的方法和装置 |
HUE062025T2 (hu) * | 2016-12-23 | 2023-09-28 | Huawei Tech Co Ltd | Kódoló berendezés egy kiterjesztési irányú intra-predikciós mód jelzésére irányított intra-predikciós módok csoportján belül |
EP3618446A4 (en) * | 2017-06-22 | 2020-05-13 | Huawei Technologies Co., Ltd. | APPARATUS AND METHOD FOR IN-FRAME PREDICTION |
EP3422716A1 (en) * | 2017-06-26 | 2019-01-02 | Thomson Licensing | Method and apparatus for most probable mode (mpm) sorting and signaling in video encoding and decoding |
CN115174912A (zh) * | 2017-07-24 | 2022-10-11 | 艾锐势有限责任公司 | 帧内模式jvet编译方法 |
JP7147145B2 (ja) * | 2017-09-26 | 2022-10-05 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
JP7043616B2 (ja) * | 2017-10-24 | 2022-03-29 | ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド | ビデオ信号処理方法及び装置 |
CN111316640B (zh) * | 2017-11-17 | 2023-09-26 | 鸿颖创新有限公司 | 基于调整的帧内模式列表以编码视频数据的设备及方法 |
CN110049339B (zh) * | 2018-01-16 | 2023-02-17 | 腾讯科技(深圳)有限公司 | 图像编码中的预测方向选取方法、装置和存储介质 |
WO2019194439A1 (ko) * | 2018-04-02 | 2019-10-10 | 엘지전자 주식회사 | 컨텍스트 기반 인트라 예측 모드 정보 코딩을 이용한 영상 코딩 방법 및 그 장치 |
WO2019240458A1 (ko) | 2018-06-11 | 2019-12-19 | 삼성전자 주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US11277644B2 (en) * | 2018-07-02 | 2022-03-15 | Qualcomm Incorporated | Combining mode dependent intra smoothing (MDIS) with intra interpolation filter switching |
WO2020042853A1 (en) * | 2018-08-29 | 2020-03-05 | Huawei Technologies Co., Ltd. | Method and apparatus for intra prediction |
EP3844964A4 (en) * | 2018-09-19 | 2021-11-03 | Huawei Technologies Co., Ltd. | METHOD AND DEVICE FOR PREDICTING THE MOST LIKELY INTRA-MODES |
MX2021003297A (es) * | 2018-09-21 | 2021-05-13 | Huawei Tech Co Ltd | Derivacion de modo de intraprediccion basada en bloques vecinos. |
WO2020071871A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | 영상 서비스 처리 방법 및 그 장치 |
WO2020071873A1 (ko) * | 2018-10-05 | 2020-04-09 | 엘지전자 주식회사 | Mpm 리스트를 사용하는 인트라 예측 기반 영상 코딩 방법 및 그 장치 |
WO2020073911A1 (en) * | 2018-10-09 | 2020-04-16 | Huawei Technologies Co., Ltd. | Devices and methods for image and video coding |
CN112823523B (zh) * | 2018-10-09 | 2023-10-20 | Lg 电子株式会社 | 使用mpm列表的基于帧内预测的图像编译方法及其设备 |
CN116347072A (zh) | 2018-10-12 | 2023-06-27 | Oppo广东移动通信有限公司 | 视频信号的编码方法和解码方法及其装置 |
US11303885B2 (en) | 2018-10-25 | 2022-04-12 | Qualcomm Incorporated | Wide-angle intra prediction smoothing and interpolation |
EP4307678A3 (en) | 2018-11-06 | 2024-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Side information signaling for inter prediction with geometric partitioning |
US11032551B2 (en) * | 2018-12-04 | 2021-06-08 | Tencent America LLC | Simplified most probable mode list generation scheme |
WO2020140862A1 (en) | 2018-12-30 | 2020-07-09 | Beijing Bytedance Network Technology Co., Ltd. | Conditional application of inter prediction with geometric partitioning in video processing |
CN113170139B (zh) * | 2019-01-10 | 2023-12-05 | 北京字节跳动网络技术有限公司 | 上下文自适应二进制算数编码的简化上下文建模 |
CN111435993B (zh) * | 2019-01-14 | 2022-08-26 | 华为技术有限公司 | 视频编码器、视频解码器及相应方法 |
WO2020171647A1 (ko) * | 2019-02-21 | 2020-08-27 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인트라 예측을 사용하는 영상 디코딩 방법 및 그 장치 |
CN113678440B (zh) * | 2019-04-12 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测与其它编码工具之间的交互 |
JP7403555B2 (ja) | 2019-04-16 | 2023-12-22 | 北京字節跳動網絡技術有限公司 | イントラコーディングモードにおけるマトリクスの導出 |
WO2020216302A1 (en) | 2019-04-23 | 2020-10-29 | Beijing Bytedance Network Technology Co., Ltd. | Intra Prediction and Residual Coding |
CN113796086B (zh) * | 2019-04-25 | 2023-06-06 | 寰发股份有限公司 | 编码或解码视频数据的方法和装置 |
JP2022531147A (ja) | 2019-05-01 | 2022-07-06 | 北京字節跳動網絡技術有限公司 | フィルタリングを用いた行列ベースイントラ予測 |
CN117097912A (zh) | 2019-05-01 | 2023-11-21 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测的上下文编码 |
WO2020224660A1 (en) * | 2019-05-09 | 2020-11-12 | Beijing Bytedance Network Technology Co., Ltd. | Most probable mode list construction for screen content coding |
JP2022533190A (ja) | 2019-05-22 | 2022-07-21 | 北京字節跳動網絡技術有限公司 | アップサンプリングを使用した行列ベースのイントラ予測 |
CN114051735B (zh) | 2019-05-31 | 2024-07-05 | 北京字节跳动网络技术有限公司 | 基于矩阵的帧内预测中的一步下采样过程 |
EP3963885A4 (en) | 2019-06-05 | 2022-12-14 | Beijing Bytedance Network Technology Co., Ltd. | DETERMINING CONTEXT FOR MATRIX-BASED INTRAPREDICTION |
WO2021006633A1 (ko) * | 2019-07-08 | 2021-01-14 | 엘지전자 주식회사 | 인루프 필터링 기반 비디오 또는 영상 코딩 |
CN110519605A (zh) * | 2019-07-23 | 2019-11-29 | 西安万像电子科技有限公司 | 帧内预测模式的编码方法、装置及存储介质 |
CN114287131A (zh) | 2019-08-19 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 基于计数器的帧内预测模式的更新 |
CN117579823A (zh) | 2019-10-28 | 2024-02-20 | 北京字节跳动网络技术有限公司 | 基于颜色分量的语法信令通知和解析 |
WO2021110568A1 (en) * | 2019-12-05 | 2021-06-10 | Interdigital Vc Holdings France, Sas | Intra sub partitions for video encoding and decoding combined with multiple transform selection, matrix weighted intra prediction or multi-reference-line intra prediction |
WO2021134759A1 (en) * | 2020-01-02 | 2021-07-08 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods of symmetric mode dependent intra smoothing when wide angle intra prediction is activated |
US11611770B2 (en) * | 2020-10-14 | 2023-03-21 | Tencent America LLC | Method and apparatus for video coding |
WO2022260374A1 (ko) * | 2021-06-07 | 2022-12-15 | 현대자동차주식회사 | 개선된 크로스 컴포넌트 선형 모델 예측을 이용하는 비디오 코딩방법 및 장치 |
WO2023014164A1 (ko) * | 2021-08-05 | 2023-02-09 | 현대자동차주식회사 | 비디오 부호화/복호화 방법 및 장치 |
WO2024071523A1 (ko) * | 2022-09-26 | 2024-04-04 | 현대자동차주식회사 | 개선된 크로스 컴포넌트 선형 모델 예측을 이용하는 비디오 코딩을 위한 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013067334A2 (en) * | 2011-11-04 | 2013-05-10 | Qualcomm Incorporated | Intra-mode video coding |
JP2014501090A (ja) * | 2010-11-25 | 2014-01-16 | エルジー エレクトロニクス インコーポレイティド | 映像情報のシグナリング方法及び映像情報のシグナリング方法を用いた映像情報の復号化方法 |
US20140119439A1 (en) * | 2011-06-28 | 2014-05-01 | Mediatek Singapore Pte Ltd | Method and apparatus of intra mode coding |
JP2014523697A (ja) * | 2011-06-28 | 2014-09-11 | サムスン エレクトロニクス カンパニー リミテッド | イントラ予測を伴うビデオ符号化方法及びその装置、ビデオ復号化方法及びその装置 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006081156A (ja) | 2004-08-13 | 2006-03-23 | Fuji Photo Film Co Ltd | 画像処理装置および方法並びにプログラム |
BRPI0813904B1 (pt) | 2007-06-29 | 2020-12-08 | Velos Media International Limited | dispositivo de codificação de imagem para codificar imagens de entrada e dispositivo de decodificação de imagem para decodificar dados de imagens codificados |
US8750378B2 (en) | 2008-09-23 | 2014-06-10 | Qualcomm Incorporated | Offset calculation in switched interpolation filters |
JP5169978B2 (ja) | 2009-04-24 | 2013-03-27 | ソニー株式会社 | 画像処理装置および方法 |
JP5581688B2 (ja) | 2009-12-24 | 2014-09-03 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
WO2011083573A1 (ja) | 2010-01-07 | 2011-07-14 | 株式会社 東芝 | 動画像符号化装置及び動画像復号化装置 |
KR101791242B1 (ko) | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | 영상 부호화/복호화 장치 및 방법 |
MY162148A (en) | 2010-04-23 | 2017-05-24 | M&K Holdings Inc | Apparatus for encoding an image |
US9094658B2 (en) | 2010-05-10 | 2015-07-28 | Mediatek Inc. | Method and apparatus of adaptive loop filtering |
US8902978B2 (en) * | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
US9008175B2 (en) | 2010-10-01 | 2015-04-14 | Qualcomm Incorporated | Intra smoothing filter for video coding |
US20120106640A1 (en) | 2010-10-31 | 2012-05-03 | Broadcom Corporation | Decoding side intra-prediction derivation for video coding |
US20120183041A1 (en) | 2011-01-14 | 2012-07-19 | Sony Corporation | Interpolation filter for intra prediction of hevc |
KR101383775B1 (ko) | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
WO2012173315A1 (ko) | 2011-06-17 | 2012-12-20 | 엘지전자 주식회사 | 인트라 예측 모드 부호화/복호화 방법 및 장치 |
WO2012171463A1 (en) | 2011-06-17 | 2012-12-20 | Mediatek Inc. | Method and apparatus for coding of intra prediction mode |
KR20120140181A (ko) | 2011-06-20 | 2012-12-28 | 한국전자통신연구원 | 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치 |
CN108282659B (zh) | 2011-06-28 | 2022-02-25 | 三星电子株式会社 | 用于使用帧内预测进行图像编码和解码的方法和设备 |
JP2013012995A (ja) | 2011-06-30 | 2013-01-17 | Sony Corp | 画像処理装置および方法 |
CN102857750B (zh) | 2011-07-01 | 2015-05-06 | 华为技术有限公司 | 帧内预测编解码处理方法、装置和系统 |
JP2013058939A (ja) | 2011-09-08 | 2013-03-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
DK3139596T3 (da) | 2011-09-13 | 2020-01-06 | Hfi Innovation Inc | Fremgangsmåde og apparat til intra-modus-kodning i hevc |
EP2764694A4 (en) | 2011-10-07 | 2015-11-25 | Pantech Co Ltd | METHODS AND APPARATUSES FOR INTRA PREDICTION MODE CODING AND DECODING USING INTRA CANDIDATE PREDICTION MODES |
JP2013090120A (ja) | 2011-10-18 | 2013-05-13 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム |
CN105306933B (zh) | 2011-10-24 | 2018-11-13 | 英孚布瑞智有限私人贸易公司 | 用于图像解码的方法和装置 |
US20130107949A1 (en) | 2011-10-26 | 2013-05-02 | Intellectual Discovery Co., Ltd. | Scalable video coding method and apparatus using intra prediction mode |
KR20130049522A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US20150003524A1 (en) | 2012-01-13 | 2015-01-01 | Sharp Kabushiki Kaisha | Image decoding device, image encoding device, and data structure of encoded data |
US9538172B2 (en) | 2012-04-11 | 2017-01-03 | Qualcomm Incorporated | Grouping bypass coded syntax elements in video coding |
KR20140129423A (ko) | 2013-04-29 | 2014-11-07 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
CN103248892A (zh) | 2013-05-07 | 2013-08-14 | 北京大学 | 一种帧内预测方法及装置 |
WO2015000168A1 (en) | 2013-07-05 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | A simplified dc prediction method in intra prediction |
WO2015194915A1 (ko) | 2014-06-20 | 2015-12-23 | 삼성전자 주식회사 | 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치 |
KR101700410B1 (ko) | 2015-02-10 | 2017-01-26 | 주식회사 아리스케일 | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 |
CN104702962B (zh) | 2015-03-03 | 2019-04-16 | 华为技术有限公司 | 帧内编解码方法、编码器和解码器 |
WO2016159631A1 (ko) | 2015-03-29 | 2016-10-06 | 엘지전자(주) | 비디오 신호의 인코딩/디코딩 방법 및 장치 |
US10142627B2 (en) | 2015-06-18 | 2018-11-27 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373742A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373782A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US20160373770A1 (en) | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10194170B2 (en) | 2015-11-20 | 2019-01-29 | Mediatek Inc. | Method and apparatus for video coding using filter coefficients determined based on pixel projection phase |
US10382781B2 (en) | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
-
2016
- 2016-06-16 US US15/184,051 patent/US10841593B2/en active Active
- 2016-06-17 CN CN201680034523.5A patent/CN107750457B/zh active Active
- 2016-06-17 WO PCT/US2016/038132 patent/WO2016205684A1/en active Application Filing
- 2016-06-17 EP EP16736954.5A patent/EP3311571B1/en active Active
- 2016-06-17 AU AU2016278963A patent/AU2016278963A1/en not_active Abandoned
- 2016-06-17 ES ES16736954T patent/ES2794619T3/es active Active
- 2016-06-17 JP JP2017564703A patent/JP6724046B2/ja active Active
- 2016-06-17 HU HUE16736954A patent/HUE049215T2/hu unknown
- 2016-06-17 TW TW105119227A patent/TW201717629A/zh unknown
- 2016-06-17 KR KR1020177036158A patent/KR102194113B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014501090A (ja) * | 2010-11-25 | 2014-01-16 | エルジー エレクトロニクス インコーポレイティド | 映像情報のシグナリング方法及び映像情報のシグナリング方法を用いた映像情報の復号化方法 |
US20140119439A1 (en) * | 2011-06-28 | 2014-05-01 | Mediatek Singapore Pte Ltd | Method and apparatus of intra mode coding |
JP2014523697A (ja) * | 2011-06-28 | 2014-09-11 | サムスン エレクトロニクス カンパニー リミテッド | イントラ予測を伴うビデオ符号化方法及びその装置、ビデオ復号化方法及びその装置 |
WO2013067334A2 (en) * | 2011-11-04 | 2013-05-10 | Qualcomm Incorporated | Intra-mode video coding |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN ET AL.: "Further improvements to HMKTA-1.0", ITU - TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP, vol. VCEG-AZ07_v2, JPN6020009144, June 2015 (2015-06-01), pages 1 - 8, XP055555095, ISSN: 0004271501 * |
Also Published As
Publication number | Publication date |
---|---|
KR20180019563A (ko) | 2018-02-26 |
KR102194113B1 (ko) | 2020-12-22 |
CN107750457A (zh) | 2018-03-02 |
TW201717629A (zh) | 2017-05-16 |
EP3311571B1 (en) | 2020-02-26 |
WO2016205684A1 (en) | 2016-12-22 |
CN107750457B (zh) | 2020-08-21 |
AU2016278963A1 (en) | 2017-11-30 |
US20160373769A1 (en) | 2016-12-22 |
HUE049215T2 (hu) | 2020-09-28 |
ES2794619T3 (es) | 2020-11-18 |
US10841593B2 (en) | 2020-11-17 |
EP3311571A1 (en) | 2018-04-25 |
JP6724046B2 (ja) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7033179B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6543736B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6724046B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6885883B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6777657B2 (ja) | イントラ予測およびイントラモードコーディング | |
JP6770001B2 (ja) | イントラ予測およびイントラモードコーディング |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190530 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190530 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200403 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6724046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |