JP2022105529A - ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 - Google Patents
ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 Download PDFInfo
- Publication number
- JP2022105529A JP2022105529A JP2022072354A JP2022072354A JP2022105529A JP 2022105529 A JP2022105529 A JP 2022105529A JP 2022072354 A JP2022072354 A JP 2022072354A JP 2022072354 A JP2022072354 A JP 2022072354A JP 2022105529 A JP2022105529 A JP 2022105529A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- intra
- block
- inter
- interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 211
- 238000001914 filtration Methods 0.000 title claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 92
- 239000013074 reference sample Substances 0.000 claims abstract description 61
- 239000000523 sample Substances 0.000 claims description 114
- 230000008569 process Effects 0.000 claims description 89
- 241000023320 Luma <angiosperm> Species 0.000 claims description 19
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 19
- 238000006243 chemical reaction Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 27
- 238000013139 quantization Methods 0.000 description 18
- 239000013598 vector Substances 0.000 description 16
- 230000009466 transformation Effects 0.000 description 14
- 238000004590 computer program Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 10
- 238000003491 array Methods 0.000 description 9
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 230000001419 dependent effect Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 238000000638 solvent extraction Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- 230000002441 reversible effect Effects 0.000 description 5
- 230000011664 signaling Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000009795 derivation Methods 0.000 description 4
- 230000001902 propagating effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000007727 signaling mechanism Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/523—Motion estimation or motion compensation with sub-pixel accuracy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
- (ピクチャまたはビデオの)第1のブロックのインター予測処理を行うステップであって、インター予測処理が(第1のブロックのまたは第1のブロックに対する)参照ブロックのサンプルの(分数位置に対する)サブピクセル補間フィルタリングを含む、ステップと、
- (ピクチャまたはビデオの)第2のブロックのイントラ予測処理を行うステップであって、イントラ予測処理が(第2のブロックのまたは第2のブロックに対する)参照サンプルの(分数位置に対する)サブピクセル補間フィルタリングを含む、ステップと
を含み、この方法は、
- 整数参照サンプル位置と分数参照サンプルの位置との間のサブピクセルオフセットに基づいて、サブピクセル補間フィルタリングに対する補間フィルタ係数を選択するステップであって、同じサブピクセルオフセットに対して、同じ補間フィルタ係数がイントラ予測処理およびインター予測処理に対して選択される、ステップをさらに含む。
それぞれの値は、一般に、たとえば、復号ピクチャバッファ(DPB)から利用可能でないため、サブピクセル補間フィルタリングは、分数の、すなわち、非整数の参照サンプル位置に対して実行される。整数参照サンプル位置の値は、一般に、たとえば、DPBから直接的に利用可能であり、したがって、それらの値を取得するために補間フィルタリングは必要とされない。第1の態様による方法は、ビデオコーディングに対するインター予測処理およびイントラ予測処理のための方法、またはビデオコーディングに対するインター予測処理およびイントラ予測処理のためのサブピクセル補間フィルタリングのための方法と呼ばれることもあり得る。
第1の態様による実装形態では、この方法は、たとえば、整数参照サンプル位置と分数参照サンプルの位置との間の第1のサブピクセルオフセットに基づいて、(たとえば、クロマサンプルの)インター予測のためのサブピクセル補間フィルタリングに対する補間フィルタ係数(たとえば、c0からc3)の第1のセットを選択するステップと、サブピクセルオフセットが第1のサブピクセルオフセットと同じである場合、(たとえば、ルマサンプルの)イントラ予測のためのサブピクセル補間フィルタリングに対する補間フィルタ係数(c0からc3)の同じ第1のセットを選択するステップとを含み得る。
現在コーディングブロックの予測されたサンプルがインター予測プロセスを使用して得られるとき、インター予測されたサンプル値を取得するために、
第1のサブピクセルオフセット値に基づいて、ルックアップテーブルからフィルタ係数を取得するプロセス(または、ステップ)、および
フィルタ係数に従って、インター予測されたサンプル値を取得するプロセス(または、ステップ)
を実行するステップと、
現在コーディングブロックの予測されたサンプルがイントラ予測プロセスを使用して得られるとき、イントラ予測されたサンプル値を取得するために、
第2のサブピクセルオフセット値に基づいて、ルックアップテーブルからフィルタ係数を取得するプロセス(または、ステップ)であって、インター予測のために使用されるルックアップテーブルがイントラ予測に対して再使用される、取得するプロセス(または、ステップ)、および
フィルタ係数に従って、イントラ予測されたサンプル値を取得するプロセス(または、プロセス)
を実行するステップとを含む。
第1の態様に関して説明したように、それぞれの値は、一般に、たとえば、復号ピクチャバッファ(DPB)から利用可能でないため、サブピクセル補間フィルタリングは、分数の、すなわち、非整数の参照サンプル位置に対して実行される。整数参照サンプル位置の値は、一般に、たとえば、DPBから直接的に利用可能であり、したがって、それらの値を取得するために補間フィルタリングは必要とされない。第2の態様による方法は、ビデオコーディングに対するインター予測処理およびイントラ予測処理のための方法、またはビデオコーディングに対するインター予測処理およびイントラ予測処理のためのサブピクセル補間フィルタリングのための方法と呼ばれることもあり得る。
JEM ジョイント調査モデル(将来のビデオコーディング調査用のソフトウェアコードベース)
JVET ジョイントビデオエキスパートチーム
LUT ルックアップテーブル
QT 四分木
QTBT 四分木および二分木
RDO レート歪み最適化
ROM 読取り専用メモリ
VTM VVCテストモデル
VVC 多用途ビデオコーディング、標準化プロジェクトはJVETにより開発された
CTU/CTB コーディングツリーユニット/コーディングツリーブロック
CU/CB コーディングユニット/コーディングブロック
PU/PB 予測ユニット/予測ブロック
TU/TB 変換ユニット/変換ブロック
HEVC 高効率ビデオコーディング
ブロックのアスペクト比に応じて予測されることになるブロックに対する補間フィルタを選択するステップを含む方法を含み得る。
り単純なバージョンである。三角形区分化モード、そのようなモードでは、CUは、対角分割または反対角分割のいずれかを使用して、2つの三角形状区分に等しく分割される。その上、双予測モードは、単純な平均化を超えて拡張されて、2個の予測信号の加重平均を可能にする。
図4は、たとえば、VVCに対して提案されるような、67個のイントラ予測モードの一例を示し、67個のイントラ予測モードの複数のイントラ予測モードは、平面モード(指標0)、dcモード(指標1)、および指標2から66を有する角度モードを含み、図4の左下角度モードは、指標2を指し、指標の番号付けは、指標66が図4の右上の最鋭角モードになるまで増分される。
図11は、HEVC UIP方式において使用される複数のイントラ予測モードの概略図を示す。輝度ブロックの場合、イントラ予測モードは、3個の無指向性モードおよび33個の指向性モードを含み得る、最高で36個のイントラ予測モードを含み得る。無指向性モードは、平面予測モード、平均(DC)予測モード、およびルマ(LM)予測モードからのクロマを含み得る。平面予測モードは、ブロックの境界から導出される水平勾配および垂直勾配を有するブロック振幅面を仮定することによって予測を実行し得る。DC予測モードは、ブロック境界の平均値に整合する値を有する平坦ブロック面を仮定することによって予測を実行し得る。LM予測モードは、ブロックに対するクロマ値がブロックに対するルマ値に整合すると仮定することによって予測を実行し得る。指向性モードは、図11に示すように隣接するブロックに基づいて予測を実行し得る。
x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- predModeIntraが34以上である場合、以下の順序ステップが適用される:
1. 参照サンプルアレイref[x]が以下のように指定される:
- 以下が適用される:
x=0..nTbW+refIdx+1である、ref[x]=p[-1-refIdx+x][-1-refIdx]
- intraPredAngleが0に満たない場合、主参照サンプルアレイは以下のように拡張される:
x=-nTbH..1である、ref[x]=p[-1-refIdx][-1-refIdx+Min((x*invAngle+256)>>9、nTbH)]
- そうでない場合、
x=nTbW+2+refIdx..refW+refIdxである、ref[x]=p[-1-refIdx+x][-1-refIdx]
- x=1..(Max(1、nTbW/nTbH)*refIdx+2)である、追加サンプルref[refW+refIdx+x]が以下のように導出される:
ref[refW+refIdx+x]=p[-1+refW][-1-refIdx]
2. x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- 指標変数iIdxおよび増倍率iFactが以下のように導出される:
iIdx=(((y+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((y+1+refIdx)*intraPredAngle)&31
- cIdxが0に等しい場合、以下が適用される:
- j=0..3である補間フィルタ係数fT[j]が以下のように導出される:
fT[j]=filterFlag?fG[iFact][j]:fC[iFact][j]
- 予測サンプルの値predSamples[x][y]が以下のように導出される:
- iFactが0に等しくない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5
- そうでない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1]
- そうでない場合(predModeIntraが34に満たない場合)、以下の順序ステップが適用される:
1. 参照サンプルアレイref[x]が以下のように指定される:
- 以下が適用される:
x=0..nTbH+refIdx+1である、ref[x]=p[-1-refIdx][-1-refIdx+x]
- intraPredAngleが0に満たない場合、主参照サンプルアレイは以下のように拡張される:
x=-nTbW..-1である、ref[x]=p[-1-refIdx+Min((x*invAngle+256)>>9、nTbW)][-1-refIdx]
- そうでない場合、
x=nTbH+2+refIdx..refH+refIdxである、ref[x]=p[-1-refIdx][-1-refIdx+x]
- x=1..(Max(1、nTbW/nTbH)*refIdx+2)である、追加サンプルref[refH+refIdx+x]が以下のように導出される:
ref[refH+refIdx+x]=p[-1+refH][-1-refIdx]
2. x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- 指標変数iIdxおよび増倍率iFactが以下のように導出される:
iIdx=(((x+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((x+1+refIdx)*intraPredAngle)&31
- cIdxが0に等しい場合、以下が適用される:
- j=0..3である、補間フィルタ係数fT[j]が以下のように導出される:
fT[j]=filterFlag?fG[iFact][j]:fC[iFact][j]
- 予測サンプルの値predSamples[x][y]が以下のように導出される:
- iFactが0に等しくない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5
- そうでない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1]
このプロセスに対する入力は、以下である:
- イントラ予測モードpredModeIntra
- イントラ予測参照ライン指標を指定する変数refIdx
- 変換ブロック幅を指定する変数nTbW
- 変換ブロック高さを指定する変数nTbH
- 参照サンプル幅を指定する変数refW
- 参照サンプル高さを指定する変数refH
- コーディングブロック幅を指定する変数nCbW
- コーディングブロック高さを指定する変数nCbH
- 参照フィルタフラグの値を指定する変数refFilterFlag
- 現在ブロックの色成分を指定する変数cIdx
- x=-1-refIdx、y=-1-refIdx..refH-1、およびx=-refIdx..refW-1、y=-1-refIdxである、近接するサンプルp[x][y]
このプロセスの出力は、x=0..nTbW-1、y=0..nTbH-1である、予測されたサンプルpredSamples[x][y]である。
変数nTbSは、(Log2(nTbW)+Log2(nTbH))>>1に等しく設定される。
変数filterFlagが以下のように導出される:
- 以下の条件のうちの1つまたは複数が真である場合、filterFlagは0に等しく設定される。
- refFilterFlagが1に等しい
- refIdxが0に等しくない
- IntraSubPartitionsSplitTypeがISP_NO_SPLITに等しくない
- そうでない場合、以下が適用される:
- 変数minDistVerHorが、Min(Abs(predModeIntra-50)、Abs(predModeIntra-18))に等しく設定される。
- 変数intraHorVerDistThres[nTbS]が表8-7に指定される。
- 変数filterFlagが以下のように導出される:
- minDistVerHorがintraHorVerDistThres[nTbS]よりも大きく、refFilterFlagが0に等しい場合、filterFlagは1に等しく設定される。
- そうでない場合、filterFlagは0に等しく設定される。
イントラ予測されたサンプル値は、現在コーディングブロックのルマ成分に対して使用される。
一実施形態では、イントラ予測されたサンプルは、以下のように、サブピクセルオフセットおよびフィルタタイプに従って、表3から選択された係数で畳み込むことによって計算される。
一例では、x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- predModeIntraが34以上である場合、以下の順序ステップが適用される:
3. 参照サンプルアレイref[x]が以下のように指定される:
- 以下が適用される:
x=0..nTbW+refIdx+1である、ref[x]=p[-1-refIdx+x][-1-refIdx]
- intraPredAngleが0に満たない場合、主参照サンプルアレイが以下のように拡張される:
x=-nTbH..1である、ref[x]=p[-1-refIdx][-1-refIdx+Min((x*invAngle+256)>>9、nTbH)]
- そうでない場合、
x=nTbW+2+refIdx..refW+refIdxである、ref[x]=p[-1-refIdx+x][-1-refIdx]
- x=1..(Max(1,nTbW/nTbH)*refIdx+2)である、追加サンプルref[refW+refIdx+x]が以下のように導出される:
ref[refW+refIdx+x]=p[-1+refW][-1-refIdx]
4. x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- 指標変数iIdxおよび増倍率iFactが以下のように導出される:
iIdx=(((y+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((y+1+refIdx)*intraPredAngle)&31
- cIdxが0に等しい場合、以下が適用される:
- j=0..3である、補間フィルタ係数fT[j]が以下のように導出される:
fT[j]=filterFlag?fG[iFact][j]:fC[iFact][j]
- 予測サンプルの値predSamples[x][y]が以下のように導出される:
- iFactが0に等しくない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=((32-iFact)*ref[x+iIdx+1]+iFact*ref[x+iIdx+2]+16)>>5
- そうでない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=ref[x+iIdx+1]
- そうでない場合(predModeIntraが34に満たない場合)、以下の順序ステップが適用される:
3. 参照サンプルアレイref[x]が以下のように指定される:
- 以下が適用される:
x=0..nTbH+refIdx+1である、ref[x]=p[-1-refIdx][-1-refIdx+x]
- intraPredAngleが0に満たない場合、主参照サンプルアレイが以下のように拡張される:
x=-nTbW..-1である、ref[x]=p[-1-refIdx+Min((x*invAngle+256)>>9、nTbW)][-1-refIdx]
- そうでない場合、
x=nTbH+2+refIdx..refH+refIdxである、ref[x]=p[-1-refIdx][-1-refIdx+x]
- x=1..(Max(1,TbW/nTbH)*refIdx+2)である、追加サンプルref[refH+refIdx+x]が以下のように導出される:
ref[refH+refIdx+x]=p[-1+refH][-1-refIdx]
4. x=0..nTbW-1、y=0..nTbH-1である、予測サンプルの値predSamples[x][y]が以下のように導出される:
- 指標変数iIdxおよび増倍率iFactが以下のように導出される:
iIdx=(((x+1+refIdx)*intraPredAngle)>>5)+refIdx
iFact=((x+1+refIdx)*intraPredAngle)&31
- cIdxが0に等しい場合、以下が適用される:
- j=0..3である、補間フィルタ係数fT[j]が以下のように導出される:
fT[j]=filterFlag?fG[iFact][j]:fC[iFact][j]
- 予測サンプルの値predSamples[x][y]が以下のように導出される:
- iFactが0に等しくない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=((32-iFact)*ref[y+iIdx+1]+iFact*ref[y+iIdx+2]+16)>>5
- そうでない場合、予測サンプルの値predSamples[x][y]が以下のように導出される:
predSamples[x][y]=ref[y+iIdx+1]
現在コーディングブロックの動き情報は、ビットストリーム内でシグナリングされる。動き情報は、インター予測において使用される、動きベクトルおよび他のシンタックス要素を含み得る。
一例では、第1のサブピクセルオフセット値は、第2のサブピクセルオフセット値に等しくてよい。別の例では、第1のサブピクセルオフセット値は、第2のサブピクセルオフセット値と異なり得る。
サブピクセルオフセットの値が0に等しいとき、フィルタ係数は、インター予測されたサンプルを取得することは必要とされない。第1の代替実施形態では、以下のステップが実行され得る:
- n=0..3である、サンプルアレイtemp[n]が以下のように導出される:
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2
すべての3つの上記で開示された代替実施形態では、yFracCおよびxFracCは0に等しく設定され、fC[0][0]=0、fC[0][1]=64、fC[0][2]=0、fC[0][3]=0である。
このプロセスに対する入力は、以下である:
- フルサンプルユニット内のクロマ位置(xIntC,yIntC)、
- 1/32分数サンプルユニット内のクロマ位置(xFracC,yFracC)、
- 参照ピクチャの左上クロマサンプルに対する参照サンプルパディングのための境界ブロックの左上サンプルを指定する、フルサンプルユニット内のクロマ位置(xSbIntC,ySbIntC)、
- 現在サブブロックの幅を指定する変数sbWidth、
- 現在サブブロックの高さを指定する変数sbHeight、
- クロマ参照サンプルアレイrefPicLXC。
このプロセスの出力は、予測されるクロマサンプル値predSampleLXCである。
変数shift1、shift2、およびshift3が、以下のように導出される:
- 変数shift1は、Min(4,BitDepthC-8)に等しく設定され、変数shift2は、6に等しく設定され、変数shift3は、Max(2,14-BitDepthC)に等しく設定される。
- 変数picWCは、pic_width_in_luma_samples/SubWidthCに等しく設定され、変数picHCは、pic_height_in_luma_samples/SubHeightCに等しく設定される。
xFracCまたはyFracCに等しい各1/32分数サンプル位置pに対するクロマ補間フィルタ係数fC[p]は、表8-13に指定されている。
変数xOffsetは、(sps_ref_wraparound_offset_minus1+1)*MinCbSizeY)/SubWidthCに等しく設定される。
フルサンプルユニット内のクロマ位置(xInti,yInti)は、i=0..3に対して、以下のように導出される:
- subpic_treated_as_pic_flag[SubPicIdx]が1に等しい場合、以下が適用される:
xInti=Clip3(SubPicLeftBoundaryPos/SubWidthC,SubPicRightBoundaryPos/SubWidthC,xIntL+i)
yInti=Clip3(SubPicTopBoundaryPos/SubHeightC,SubPicBotBoundaryPos/SubHeightC,yIntL+i)
- そうでない場合(subpic_treated_as_pic_flag[SubPicIdx]が0に等しい場合)、以下が適用される:
xInti=Clip3(0,picWC-1,sps_ref_wraparound_enabled_flag?ClipH(xOffset,picWC,xIntC+i-1):xIntC+i-1)
yInti=Clip3(0,picHC-1,yIntC+i-1)
フルサンプルユニット内のクロマ位置(xInti,yInti)は、i=0..3に対して、以下のようにさらに修正される:
xInti=Clip3(xSbIntC-1,xSbIntC+sbWidth+2,xInti)
yInti=Clip3(ySbIntC-1,ySbIntC+sbHeight+2,yInti)
予測されたクロマサンプル値predSampleLXCが以下のように導出される:
- xFracCとyFracCが両方とも0に等しい場合、predSampleLXCの値が以下のように導出される:
predSampleLXC=refPicLXC[xInt1][yInt1]<<shift3
- そうでない場合、xFracCが0に等しくなく、yFracCが0に等しい場合、predSampleLXCの値が以下のように導出される:
- n=0..3である、サンプルアレイtemp[n]が以下のように導出される:
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2
以下において、本発明のさらなる実施形態が説明され、実施形態の番号付けは、前のテキスト内で使用された番号付けと必ずしも整合するとは限らない。
ブロックのイントラ予測のための補間フィルタとして色度成分に対する補間フィルタを使用するステップを含む、方法。
ブロックのイントラ予測のための補間フィルタのセットから補間フィルタを選択するステップを含む、方法。
1つまたは複数のプロセッサと、
プロセッサに接続され、プロセッサによる実行のためのプログラミングを記憶した、非一時的コンピュータ可読記憶媒体と
を備え、プログラミングが、プロセッサによって実行されると、実施形態1から11のいずれか1つによる方法を実行するようにデコーダを構成する、デコーダ。
1つまたは複数のプロセッサと、
プロセッサに接続され、プロセッサによる実行のためのプログラミングを記憶した、非一時的コンピュータ可読記憶媒体と
を備え、プログラミングが、プロセッサによって実行されると、実施形態1から11のいずれか1つによる方法を実行するようにエンコーダを構成する、エンコーダ。
参照ブロックの輝度サンプルおよび色度サンプルに適用されるサブピクセル補間フィルタ(たとえば、MC補間に対して、1つの、または概していくつかのフィルタが定義され得る)を備えた、ブロックのインター予測プロセスと、
輝度参照サンプルおよび色度参照サンプルに適用されるサブピクセル補間フィルタ(たとえば、イントラ参照サンプル補間に対して、1つ、または概していくつかのフィルタが定義され得る)を備えた、ブロックのイントラ予測プロセスと
を含み、
サブピクセル補間フィルタが、参照サンプルの位置と補間サンプルの位置との間のサブピクセルオフセットに基づいて選択され、イントラ予測プロセスおよびインター予測プロセスにおいて等しい前記サブピクセルオフセットに対して、イントラ予測プロセスのフィルタ(たとえば、イントラ参照サンプル補間の場合、1つまたは複数のフィルタが使用され得る)がインター予測プロセスのためのフィルタと同じになるように選択される、方法。
12 ソースデバイス
13 符号化されたピクチャデータ
14 宛先デバイス
16 ピクチャソース
17 ピクチャデータ
18 ピクチャ事前処理ユニット
19 事前処理ピクチャデータ
20 ビデオエンコーダ
21 符号化されたピクチャデータ
22 通信ユニット、通信インターフェース
28 通信ユニット、通信インターフェース
30 ビデオデコーダ
31 復号されたピクチャデータ
32 後処理ユニット、ポストプロセッサ
33 後処理ピクチャデータ
34 ディスプレイデバイス
201 現在ピクチャ
202 入力
203 現在ピクチャブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
208 量子化ユニット
210 逆量子化ユニット
212 逆変換処理ユニット
214 再構築ユニット
215 再構築されたブロック
216 バッファ
220 ループフィルタユニット、ループフィルタ
230 復号ピクチャバッファ(DPB)
231 参照ピクチャデータ
244 インター予測ユニット
245 インター予測されたブロック、インター予測ブロック
254 イントラ予測ユニット
255 イントラ予測されたブロック、イントラ予測ブロック
260 ブロック予測処理ユニット
262 モード選択ユニット
265 予測ブロック
270 エントロピー符号化ユニット
304 エントロピー復号ユニット
309 量子化係数
310 逆量子化ユニット
312 逆変換処理ユニット
313 逆変換ブロック、再構築された残差ブロック
314 再構築ユニット、加算器
315 再構築されたブロック
316 バッファ
320 ループフィルタユニット、ループフィルタ
321 フィルタリングされたブロック、復号されたビデオブロック
330 復号ピクチャバッファ(DPB)
331 復号されたピクチャ
332 出力
344 インター予測ユニット
354 イントラ予測ユニット
360 予測処理ユニット
362 モード選択ユニット
365 予測ブロック
904 4タップフィルタ
906 動き補償
907 イントラ予測
1300 ネットワークデバイス
1310 入口ポート
1320 受信機ユニット(Rx)
1330 論理ユニット、プロセッサ、中央処理ユニット(CPU)
1340 送信機ユニット(Tx)
1350 出口ポート
1360 メモリ
1370 コーディングモジュール
1500 装置
1510 中央処理ユニット(CPU)
1520 メモリ
1530 大容量記憶装置
1540 ビデオアダプタ
1550 ネットワークインターフェース
1560 I/Oインターフェース
1570 マウス/キーボード/プリンタ
1580 ネットワーク
1590 ディスプレイ
Claims (8)
- ビデオコーディングの方法であって、前記方法は、
第1のブロックのインター予測処理を行うステップであって、前記インター予測処理が参照ブロックのサンプルのサブピクセル補間フィルタリングを含む、ステップと、
第2のブロックのイントラ予測処理を行うステップであって、前記イントラ予測処理が参照サンプルのサブピクセル補間フィルタリングを含む、ステップと
を含み、前記方法は、
整数参照サンプル位置と分数参照サンプルの位置との間のサブピクセルオフセットに基づいて、前記サブピクセル補間フィルタリングに対する補間フィルタ係数を選択するステップであって、同じサブピクセルオフセットに対して、同じ補間フィルタ係数がイントラ予測処理およびインター予測処理に対して選択され、選択されたフィルタ係数が、インター予測処理用のクロマサンプルおよびイントラ予測処理用のルマサンプルの前記サブピクセル補間フィルタリングのために使用され、前記選択されたフィルタ係数がキュービックフィルタ係数である、ステップ
をさらに含む、方法。 - 前記インター予測処理が、イントラブロックコピー処理である、請求項1に記載の方法。
- インター予測処理およびイントラ予測処理において使用される前記補間フィルタ係数が、ルックアップテーブルからフェッチされる、請求項1または2に記載の方法。
- 前記サブピクセル補間フィルタリングのために4タップフィルタが使用される、請求項1から3のいずれか一項に記載の方法。
- 請求項1から6のいずれか一項に記載の方法を実行するための処理回路を備える、デコーダ。
- 請求項1から6のいずれか一項に記載の方法によって符号化または復号されたビットストリームを記憶した、コンピュータ可読記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023139999A JP2023165714A (ja) | 2018-09-07 | 2023-08-30 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862728666P | 2018-09-07 | 2018-09-07 | |
US62/728,666 | 2018-09-07 | ||
JP2021503019A JP7066912B2 (ja) | 2018-09-07 | 2019-09-06 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
PCT/RU2019/050141 WO2020050752A1 (en) | 2018-09-07 | 2019-09-06 | Method and apparatus for interpolation filtering for intra- and inter-prediction in video coding |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503019A Division JP7066912B2 (ja) | 2018-09-07 | 2019-09-06 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023139999A Division JP2023165714A (ja) | 2018-09-07 | 2023-08-30 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022105529A true JP2022105529A (ja) | 2022-07-14 |
JP7342188B2 JP7342188B2 (ja) | 2023-09-11 |
Family
ID=69722811
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503019A Active JP7066912B2 (ja) | 2018-09-07 | 2019-09-06 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
JP2022072354A Active JP7342188B2 (ja) | 2018-09-07 | 2022-04-26 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
JP2023139999A Pending JP2023165714A (ja) | 2018-09-07 | 2023-08-30 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021503019A Active JP7066912B2 (ja) | 2018-09-07 | 2019-09-06 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023139999A Pending JP2023165714A (ja) | 2018-09-07 | 2023-08-30 | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 |
Country Status (16)
Country | Link |
---|---|
US (2) | US11405612B2 (ja) |
EP (2) | EP4254960A3 (ja) |
JP (3) | JP7066912B2 (ja) |
KR (2) | KR20230164769A (ja) |
CN (5) | CN113784145B (ja) |
AU (1) | AU2019336062B2 (ja) |
BR (1) | BR112020026863A2 (ja) |
CA (1) | CA3111760C (ja) |
ES (1) | ES2960283T3 (ja) |
HU (1) | HUE063698T2 (ja) |
MX (1) | MX2021001515A (ja) |
PL (1) | PL3834415T3 (ja) |
PT (1) | PT3834415T (ja) |
SG (1) | SG11202101822SA (ja) |
WO (1) | WO2020050752A1 (ja) |
ZA (1) | ZA202102228B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4254960A3 (en) | 2018-09-07 | 2023-11-22 | Huawei Technologies Co., Ltd. | Method and apparatus for interpolation filtering for intra- and inter-prediction in video coding |
US10469845B1 (en) * | 2018-09-21 | 2019-11-05 | Tencent America, Llc | Method and apparatus for intra mode coding |
TWI810596B (zh) * | 2019-03-12 | 2023-08-01 | 弗勞恩霍夫爾協會 | 用於混合視訊編碼的編碼器、解碼器、方法及視訊位元流以及電腦程式 |
JP7348411B2 (ja) | 2020-03-26 | 2023-09-20 | エルジー エレクトロニクス インコーポレイティド | ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体 |
JP7488355B2 (ja) | 2020-03-26 | 2024-05-21 | エルジー エレクトロニクス インコーポレイティド | ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体 |
WO2021201617A1 (ko) * | 2020-03-31 | 2021-10-07 | 엘지전자 주식회사 | 레이어간 정렬된 서브픽처 정보에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체 |
WO2021204135A1 (en) | 2020-04-07 | 2021-10-14 | Beijing Bytedance Network Technology Co., Ltd. | Signaling and inference of subpicture related syntax element |
CN115668917A (zh) | 2020-04-09 | 2023-01-31 | 抖音视界有限公司 | 视频编解码中的去块信令通知 |
WO2021204251A1 (en) | 2020-04-10 | 2021-10-14 | Beijing Bytedance Network Technology Co., Ltd. | Use of header syntax elements and adaptation parameter set |
WO2021209061A1 (en) | 2020-04-17 | 2021-10-21 | Beijing Bytedance Network Technology Co., Ltd. | Presence of adaptation parameter set units |
EP4128775A4 (en) | 2020-04-26 | 2024-03-27 | Bytedance Inc | CONDITIONAL SIGNALING OF SYNTAX ELEMENTS OF A VIDEO CODING |
US11882270B2 (en) | 2020-06-09 | 2024-01-23 | Hfi Innovation Inc. | Method and apparatus for video coding with constraints on reference picture lists of a RADL picture |
US20220224938A1 (en) * | 2021-01-08 | 2022-07-14 | Offinno, LLC | Intra Prediction Signaling |
WO2023234681A1 (ko) * | 2022-05-30 | 2023-12-07 | 주식회사 케이티 | 영상 부호화/복호화 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085109A1 (en) * | 2007-01-09 | 2008-07-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Adaptive filter representation |
US20140078394A1 (en) * | 2012-09-17 | 2014-03-20 | General Instrument Corporation | Selective use of chroma interpolation filters in luma interpolation process |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9693070B2 (en) | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
US20150071357A1 (en) * | 2013-09-12 | 2015-03-12 | Qualcomm Incorporated | Partial intra block copying for video coding |
EP3085085A4 (en) * | 2014-01-29 | 2017-11-08 | MediaTek Inc. | Method and apparatus for adaptive motion vector precision |
EP3078192B1 (en) * | 2014-02-21 | 2019-12-04 | MediaTek Singapore Pte Ltd. | Method of video coding using prediction based on intra picture block copy |
US10412387B2 (en) * | 2014-08-22 | 2019-09-10 | Qualcomm Incorporated | Unified intra-block copy and inter-prediction |
US9838662B2 (en) | 2014-10-10 | 2017-12-05 | Qualcomm Incorporated | Harmonization of cross-component prediction and adaptive color transform in video coding |
US9854237B2 (en) * | 2014-10-14 | 2017-12-26 | Qualcomm Incorporated | AMVP and merge candidate list derivation for intra BC and inter prediction unification |
WO2016072722A1 (ko) * | 2014-11-04 | 2016-05-12 | 삼성전자 주식회사 | 영상 특성을 반영한 보간 필터를 이용하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
US10075712B2 (en) * | 2014-11-20 | 2018-09-11 | Hfi Innovation Inc. | Method of motion vector and block vector resolution control |
CN108141604B (zh) * | 2015-06-05 | 2022-07-05 | 杜比实验室特许公司 | 图像编码和解码方法和图像解码设备 |
EP3304907B1 (en) * | 2015-06-08 | 2022-03-23 | VID SCALE, Inc. | Intra block copy mode for screen content coding |
US11463689B2 (en) * | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10812822B2 (en) | 2015-10-02 | 2020-10-20 | Qualcomm Incorporated | Intra block copy merge mode and padding of unavailable IBC reference region |
US20170099490A1 (en) * | 2015-10-02 | 2017-04-06 | Qualcomm Incorporated | Constrained intra-prediction for block copy mode |
KR20230057479A (ko) * | 2015-11-11 | 2023-04-28 | 삼성전자주식회사 | 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치 |
US10194170B2 (en) * | 2015-11-20 | 2019-01-29 | Mediatek Inc. | Method and apparatus for video coding using filter coefficients determined based on pixel projection phase |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10341659B2 (en) * | 2016-10-05 | 2019-07-02 | Qualcomm Incorporated | Systems and methods of switching interpolation filters |
US11202079B2 (en) * | 2018-02-05 | 2021-12-14 | Tencent America LLC | Method and apparatus for video decoding of an affine model in an intra block copy mode |
EP4254960A3 (en) * | 2018-09-07 | 2023-11-22 | Huawei Technologies Co., Ltd. | Method and apparatus for interpolation filtering for intra- and inter-prediction in video coding |
-
2019
- 2019-09-06 EP EP23192341.8A patent/EP4254960A3/en active Pending
- 2019-09-06 ES ES19856848T patent/ES2960283T3/es active Active
- 2019-09-06 SG SG11202101822SA patent/SG11202101822SA/en unknown
- 2019-09-06 PL PL19856848.7T patent/PL3834415T3/pl unknown
- 2019-09-06 CN CN202110591210.2A patent/CN113784145B/zh active Active
- 2019-09-06 BR BR112020026863-1A patent/BR112020026863A2/pt unknown
- 2019-09-06 CN CN201980046958.5A patent/CN112425169B/zh active Active
- 2019-09-06 PT PT198568487T patent/PT3834415T/pt unknown
- 2019-09-06 EP EP19856848.7A patent/EP3834415B1/en active Active
- 2019-09-06 AU AU2019336062A patent/AU2019336062B2/en active Active
- 2019-09-06 MX MX2021001515A patent/MX2021001515A/es unknown
- 2019-09-06 WO PCT/RU2019/050141 patent/WO2020050752A1/en active Application Filing
- 2019-09-06 HU HUE19856848A patent/HUE063698T2/hu unknown
- 2019-09-06 KR KR1020237040674A patent/KR20230164769A/ko not_active Application Discontinuation
- 2019-09-06 CN CN202310851257.7A patent/CN117376587A/zh active Pending
- 2019-09-06 CN CN202310849443.7A patent/CN117376586A/zh active Pending
- 2019-09-06 CA CA3111760A patent/CA3111760C/en active Active
- 2019-09-06 JP JP2021503019A patent/JP7066912B2/ja active Active
- 2019-09-06 KR KR1020217000299A patent/KR102607839B1/ko active IP Right Grant
- 2019-09-06 CN CN202210898128.9A patent/CN115914624A/zh active Pending
-
2021
- 2021-01-05 US US17/142,170 patent/US11405612B2/en active Active
- 2021-04-01 ZA ZA2021/02228A patent/ZA202102228B/en unknown
-
2022
- 2022-04-26 JP JP2022072354A patent/JP7342188B2/ja active Active
- 2022-07-29 US US17/877,492 patent/US11968362B2/en active Active
-
2023
- 2023-08-30 JP JP2023139999A patent/JP2023165714A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008085109A1 (en) * | 2007-01-09 | 2008-07-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Adaptive filter representation |
US20140078394A1 (en) * | 2012-09-17 | 2014-03-20 | General Instrument Corporation | Selective use of chroma interpolation filters in luma interpolation process |
Non-Patent Citations (2)
Title |
---|
ALEXEY FILIPPOV, ET AL.: "CE3: A combination of tests 3.1.2 and 3.1.4 for intra reference sample interpolation filter", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-L0628-v2, JPN6022012107, October 2018 (2018-10-01), pages 1 - 5, ISSN: 0005025901 * |
MAXIM SYCHEV, GEORGY ZHULIKOV, TIMOPHEY SOLOVYEV, AND JIANLE CHEN: "CE4: Enhanced Chroma Interpolation Filter (Test 7.1)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-K0207-v1, JPN6022012109, July 2018 (2018-07-01), pages 1 - 3, ISSN: 0005025900 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7066912B2 (ja) | ビデオコーディングにおけるイントラ予測およびインター予測のための補間フィルタリングのための方法および装置 | |
JP7271697B2 (ja) | オプティカルフローの改善の早期終了 | |
JP7237144B2 (ja) | ビデオ処理方法、ビデオ処理装置、エンコーダ、デコーダ、媒体、およびコンピュータプログラム | |
KR20210072098A (ko) | 현재 블록에 대한 모션 정보를 결정하는 방법, 히스토리 기반 모션 벡터 예측기 목록을 구성하고 업데이트하는 방법, 및 비 일시적 컴퓨터 판독 가능형 저장 매체, 및 비디오 인코딩/디코딩 방법 및 장치 | |
KR102551917B1 (ko) | 예측 방법 및 장치 | |
CN111432219B (zh) | 一种帧间预测方法及装置 | |
JP2023022071A (ja) | イントラ予測のための方法及び機器 | |
KR102543792B1 (ko) | 이웃 블록에 기초한 인트라 예측 모드 도출 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |