JP2022544764A - イントラモードにおける予測サンプルフィルタリングのための重み付け係数 - Google Patents
イントラモードにおける予測サンプルフィルタリングのための重み付け係数 Download PDFInfo
- Publication number
- JP2022544764A JP2022544764A JP2022508748A JP2022508748A JP2022544764A JP 2022544764 A JP2022544764 A JP 2022544764A JP 2022508748 A JP2022508748 A JP 2022508748A JP 2022508748 A JP2022508748 A JP 2022508748A JP 2022544764 A JP2022544764 A JP 2022544764A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- prediction
- mode
- intra
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims abstract description 135
- 238000012545 processing Methods 0.000 claims description 36
- 230000001419 dependent effect Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 abstract description 2
- IESVDEZGAHUQJU-ZLBXKVHBSA-N 1-hexadecanoyl-2-(4Z,7Z,10Z,13Z,16Z,19Z-docosahexaenoyl)-sn-glycero-3-phosphocholine Chemical compound CCCCCCCCCCCCCCCC(=O)OC[C@H](COP([O-])(=O)OCC[N+](C)(C)C)OC(=O)CC\C=C/C\C=C/C\C=C/C\C=C/C\C=C/C\C=C/CC IESVDEZGAHUQJU-ZLBXKVHBSA-N 0.000 abstract 1
- 239000000523 sample Substances 0.000 description 74
- 241000023320 Luma <angiosperm> Species 0.000 description 59
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical group COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 59
- 239000013074 reference sample Substances 0.000 description 33
- 230000008569 process Effects 0.000 description 31
- 238000004590 computer program Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000005192 partition Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100155952 Escherichia coli (strain K12) uvrD gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
パリ条約に基づく適用特許法及び/又はルールに基づいて、本出願は、2019年8月14日に出願された国際特許出願第PCT/CN2019/100615号の優先権および利益を適時に主張するように行われている。法に基づく全ての目的のために、上記の出願の開示全体は、本出願の開示の一部として引用により援用されている。
本文書は、ビデオコーディング技術に関するものである。具体的には、画像/ビデオコーディングにおけるイントラ予測に関連している。これは、HEVCのような既存のビデオコーディング規格、または、最終化される規格(バーサタイルビデオコーディング(Versatile Video Coding))に適用され得る。これは、また、将来のビデオコーディング規格またはビデオコーデックに対しても適用可能である。
ビデオコーディング規格は、主に、周知のITU-TおよびISO/IEC規格の開発を通じて発展してきた。ITU-TはH.261とH.263を作成し、ISO/IECはMPEG-1とMPEG-4Visualを作成し、そして、2つの組織はH.262/MPEG-2Videoと、H.264/MPEG-4AdvancedVideoCoding(AVC)と、H.265/High Efficiency Video Coding(HEVC)規格を共同で作成した。H.262から、ビデオコーディング標準は、時間的予測と変換コード化が利用されるハイブリッドビデオコーディング構造に基づいている。HEVCを越える将来のビデオコーディング技術を探求するため、2015年にVCEGとMPEGが共同で共同ビデオ探査チーム(Joint Video Exploration Team、JVET)を設立した。それ以来、JVETによって多くの新しい方法が採用され、JEM(Joint Exploration Model)と名付けられた参照ソフトウェアに入れられた。2018年4月には、VCEG(Q6/16)とISO/IECJTC1SC29/WG11(MPEG)の間のJVETが作成され、HEVCと比較してビットレートを50%低減することを目標としたVVC規格に取り組んでいる。
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/15_Gothenburg/wg11/JVET-O2001-v14.zip
https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-5.2
カラーモデル(またはカラーシステム)としても知られている、色空間(color space)は、単に色の範囲を数字のタプル(tuple)として、典型的には3個または4個の値もしくは色成分(例えば、RGB)として簡単に記述する抽象的な数学モデルである。基本的には、色空間は座標系とサブ空間の精緻化(elaboration)である。
3個のY'CbCr成分は、それぞれ同じサンプルレートを持つので、クロマサブサンプリングは存在しない。このスキームは、ハイエンドのフィルムスキャナや映画のポストプロダクションで、ときどき、使用されている。
2個のクロマ成分は、ルマのサンプルレートの半分でサンプリングされ、水平クロマ解像度(resolution)は半分になる。これにより、非圧縮ビデオ信号の帯域幅が3分の1だけ減少し、視覚的な差は、ほとんど又は全くない。
4:2:0において、水平方向のサンプリングは4:1:1に比べて2倍になるが、CbとCrチャンネルは、このスキームの各代替ラインでのみサンプリングされるため、垂直方向の解像度は半分になる。従って、データレートは同じである。CbとCrは、それぞれ水平方向と垂直方向の2倍でサブサンプリングされる。4:2:0スキームの3個のバリエーションがあり、異なる水平および垂直位置を有している。
・MPEG-2では、CbとCrは水平に共配置(cosited)されている。CbとCrは垂直方向のピクセル間に配置されている(隙間(interstitially)に置かれている)。
・JPEG/JFIF、H.261、およびMPEG-1では、CbとCrは交互のルマサンプルの中間の隙間に位置している。
・4:2:0DVでは、CbとCrが水平方向に共配置されている。垂直方向において、それらは交互の線上に共配置される。
図1は、3個のインループフィルタリングブロック、すなわち、デブロッキングフィルタ(DF)、サンプル適応オフセット(SAO)、およびALFを含む、VVCのエンコーダブロック図の例を示す。事前に定義されたフィルタを使用するDFとは異なり、SAOおよびALFは、オフセットを追加し、有限インパルス応答(FIR)フィルタをそれぞれ適用することにより、現在ピクチャの元のサンプルを使用して、元のサンプルと再構成されたサンプルとの間の平均二乗誤差を減少させ、オフセットおよびフィルタ係数を信号化(signaling)するコード化側方情報(side information)を有する。ALFは、各ピクチャの最終処理ステージに置かれており、前のステージで生成されたアーチファクトをキャプチャし、修復(fix)しようとするツールと見なすことができる。
自然のビデオにおいて提示された任意のエッジ方向をキャプチャするために、VTM4における方向イントラモードの数は、HEVCで使用されるように、33個から65個に拡張されている。HEVCには無い新たな方向モードは、図2において赤い点線の矢印として示されており、そして、プラナーモードおよびDCモードは同じままである。これらのより密度が高い方向イントラ予測モードは、全てのブロックサイズについて、および、ルマとクロマイントラ予測の両方について適用される。
従来の角度イントラ予測方向は、図2に示すように、時計回り方向に45度から-135度まで定義されている。VTM2では、いくつかの従来の角度イントラ予測モードを、非二乗ブロックに対する広角イントラ予測モードに適応的に置き換える。置き換えられたモードは、オリジナルの方法を用いて信号化され、解析(parsing)後に広い角度モードのインデックスに再マップされる。イントラ予測モードの総数は変化せず、すなわち67であり、そして、イントラモードコーディングは変化しない。
従来の角度イントラ予測方向は、時計回り方向に45度から-135度まで定義されている。VTM2では、いくつかの従来の角度イントラ予測モードを、非二乗ブロックに対する広角イントラ予測モードに適応的に置き換える。置き換えられたモードは、オリジナルの方法を用いて信号化され、解析(parsing)後に広い角度モードのインデックスに再マップされる。イントラ予測モードの総数は変化せず、すなわち67であり、そして、イントラモードコーディングは変化しない。
VTM2において、プラナーモードのイントラ予測の結果は、位置依存イントラ予測結合(PDPC)法によってさらに修正されている。PDPCは、フィルタリングされていない境界参照サンプルと、フィルタリングされた境界参照サンプルを伴うHEVCスタイルのイントラ予測との組み合わせを呼び出すイントラ予測法である。PDPCは、以下のイントラモードに対して信号化(signalling)なしで適用される。プラナー、DC、水平、垂直、左下角度モード、および、その8個の隣接角度モード、並びに、右上角度モード、および、その8個の隣接角度モード、である。
pred(x,y)=(wL×R(-1,y)+wT×R(x,-1)-wTL×R(-1,-1)+(64-wL-wT+wTL)×pred(x,y)+32)>>6(2-1)
ここで、R(x,-1)、R(-1,y)は、現在サンプル(x,y)の左上に位置する参照サンプルを表し、かつ、R(-1,-1)は、現在ブロックの左上隅(top-left corner)に位置する参照サンプルを表している。
このプロセスへのインプットは、以下の通りである。
-現在の画像の左上サンプルに対する現在変換ブロックの左上のサンプルを指定するサンプル位置(xTbCmp,yTbCmp)、
-イントラ予測モードを指定する変数predModeIntra、
-変換ブロック幅を指定する変数nTbW、
-変換ブロック高さを指定する変数nTbH、
-コーディングブロック幅を指定する変数nCbW、
-コーディングブロック高さを指定する変数nCbH、
-現在ブロックの色成分を指定する変数cIdx、である。
-IntraSubPartitionsSplitTypeがISP_NO_SPLITに等しい場合、または、cIdxが0に等しくない場合は、次のようになる。
refW=nTbW*2 (8-118)
refH=nTbH*2 (8-119)
-そうでなければ(IntraSubPartitionsSplitTypeがISP_NO_SPLITに等しくなく、かつ、cIdxが0に等しい)、次のようになる。
refW=nCbW+nTbW (8-120)
refH=nCbH+nTbH (8-121)
refIdx=(cIdx==0)?IntraLumaRefLineIdx[xTbCmp][yTbCmp]:0 (8-122)
-predModeIntraが0、-14、-12、-10、-6、2、34、66、72、76、78、80のいずれかの値に等しい場合、refFilterFlagは1に設定される。
-そうでなければ、refFilterFlagは0に設定される。
1. 8.4.5.2.7条項に規定されている参照サンプル可用性マーキング(availability marking)プロセスは、サンプル位置(xTbCmp,yTbCmp)を用いて呼び出される。イントラ予測基準線インデックスrefIdx、参照サンプル幅refW、参照サンプル高さrefH、色成分インデックスcIdxをインプットとして、および、x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの参照サンプルrefUnfilt[x][y]をアウトプットとする。
2. x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの少なくとも1つのサンプルが、「イントラ予測に利用不可」としてマーク付けされている場合、8.4.5.2.8条項に規定されている参照サンプル置換(substitution)プロセスが呼び出される。イントラ予測基準線インデックスrefIdx、参照サンプル幅refW、参照サンプル高さrefH、x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの参照サンプルrefUnfilt[x][y]を用いる。そして、色成分インデックスcIdxをインプットとして、および、x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの修正参照サンプルrefUnfilt[x][y]をアウトプットとする。
3. 8.4.5.2.9項に規定されている参照サンプルフィルタリングプロセスは、イントラ予測基準線インデックスrefIdx、変換ブロック幅nTbWと高さnTbH、参照サンプル幅refW、参照サンプル高さrefH、参照フィルタフラグrefFilterFlag、x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの非フィルタリングサンプルrefUnfilt[x][y]を用いて呼び出される。そして、色成分インデックスcIdxをインプットとして、および、x=-1-refIdx、y=-1-refIdx..refH-1、かつ、x=-refIdx..refW-1、y=-1-refIdxでの参照サンプルp[x][y]をアウトプットとする。
-predModeIntraがINTRA_PLANARと等しい場合、8.4.5.2.10条項で指定された対応するイントラ予測モードプロセスが、変換ブロック幅nTbW、変換ブロック高nTbH、および参照サンプルアレイpをインプットとして呼び出され、そして、予測サンプルアレイpredSamplesがアウトプットされる。
-そうでなければ、predModeIntraがINTRA_DCに等しい場合、8.4.5.2.11条項で指定された対応するイントラ予測モードプロセスが、変換ブロック幅nTbW、変換ブロック高nTbH、イントラ予測基準ラインインデックスrefIdx、および参照サンプルアレイpをインプットとして呼び出され、そして、予測サンプルアレイpredSamplesがアウトプットされる。
-そうでなければ、predModeIntraがINTRA_LT_CCLM、INTRA_L_CCLM、またはINTRA_T_CCLMと等しい場合、8.4.5.2.13条項で指定された対応するイントラ予測モードプロセスが、イントラ予測モードpredModeIntra、(xTbCmp,yTbCmp)に設定されたサンプル位置(xTbC,yTbC)、変換ブロック幅nTbW、高さnTbH、色成分指数cIdx、および参照サンプルアレイpをインプットとして呼び出され、そして、アウトプットは予測されたサンプルアレイpredSamplesである。
-そうでなければ、8.4.5.2.12条項で指定された対応するイントラ予測モードプロセスが呼び出される。イントラ予測モードpredModeIntra、イントラ予測基準線インデックスrefIdx、変換ブロック幅nTbW、変換ブロック高nTbH、参照サンプル幅refW、参照サンプル高refH、コード化ブロック幅nCbWと高さnCbH、参照フィルタフラグrefFilterFlag、色成分インデックスcIdxおよび参照サンプルアレイpをインプットとして、および、予測サンプルアレイpredSamplesをアウトプットとする。
-nTbWが4以上であり、かつ、nTbHが4以上またはcIdxが0に等しくない
-refIdxが0に等しい、または、cIdxが0に等しくない
-BdpcmFlag[xTbCmp][xTbCmp]が0に等しい
-以下の条件のいずれかが真である:
-preModeIntraがINTRA_PLANARと等しい
-preModeIntraはINTRA_DCと等しい
-preModeIntraがINTRA_ANGULAR18以下である
-preModeIntraがINTRA_ANGULAR50以下である
このプロセスへのインプットは、以下の通りである。
-イントラ予測モードpredModeIntra、
-変換ブロック幅を指定する変数nTbW、
-変換ブロック高さを指定する変数nTbH、
-参照サンプル幅を指定する変数refW、
-参照サンプル高さを指定する変数refH、
-x=0..nTbW-1,y=0..nTbH-1での、予測サンプルpredSample[x][y]、
-x=-1,y=-1..refH-1,かつ、x=0..refW-1,y=-1での、隣接サンプルp[x][y]、
-現在ブロックの色成分を指定する変数cIdx。
-cIdxが0に等しい場合、clip1CmpはClip1Yに等しく設定される
-そうでなければ、clip1CmpはClip1Cに等しく設定される
-predModeIntraがINTRA_ANGULAR50より大きい場合、nScaleは、8.4.5.2.12条項で指定されるinvAngleを使用して、
Min(2,Log2(nTbH)-Floor(Log2(3*invAngle-2))+8に等しく設定される。
-そうでなければ、predModeIntraがINTRA_ANGULAR18より小さい場合、nScaleは、8.4.5.2.12条項で指定されたinvAngleを使用して、
Min(2,Log2(nTbW)-Floor(Log2(3*invAngle-2))+8に等しく設定される。
-そうでなければ、nSacleは、((Log2(nTbW)+Log2(nTbH)-2)>>2)に設定される。
mainRef[x]=p[x][-1]
sideRef[y]=p[-1][y] (8-244)
-predModeIntraが、INTRA_PLANARまたはINTRA_DCと等しい場合、次の条件が適用される。
refL[x][y]=p[-1][y] (8-245)
refT[x][y]=p[x][-1] (8-246)
wT[y]=32>>((y<<1)>>nScale) (8-247)
wL[x]=32>>((x<<1)>>nScale) (8-248)
wTL[x][y]=0 (8-249)
-そうでなければ、predModeIntraが、INTRA_ANGULAR18またはINTRA_ANGULAR50に等しい場合、次のようになる。
refL[x][y]=p[-1][y] (8-250)
refT[x][y]=p[x][-1] (8-251)
wT[y]=(predModeIntra==INTRA_ANGULAR18)?
32>>>>(y<<1)>>nScale:0 (8-252)
wL[x]=(predModeIntra==INTRA_ANGULAR50)?
32>>>>(x<1)>>nScale:0 (8-253)
wTL[x][y]=(predModeIntra==INTRA_ANGULAR18)?wT[y]:wL[x] (8-254) -そうでなければ、predModeIntraがINTRA_ANGULAR18より小さく、かつ、nScaleが0以上である場合、以下の順序付けられたステップが適用される。
1.変数dXInt[y]およびdX[x][y]は、intraPredModeに応じて、8.4.5.2.12条項で指定されたinvAngleを使用して、次のように導出される。
dXInt[y]=((y+1)*invAngle+256)>>9
dX[x][y]=x+dXInt[y] (8-255)
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、次のように導出される。
refL[x][y]=0 (8-256)
refT[x][y]=(y<(3<<nScale))?mainRef[dX[x][y]]:0 (8-257)
wT[y]=32>>((y<<1)>>nScale) (8-258)
wL[x]=0 (8-259)
wTL[x][y]=0 (8-260)
-そうでなければ、predModeIntraがINTRA_ANGULAR50より大きく、かつ、nScaleが0以上の場合、以下の順序付けられたステップが適用される。
1.変数dYInt[x]およびdY[x][y]は、intraPredModeに応じて、8.4.5.2.12条項で指定されたinvAngleを使用して、次のように導出される。
dYInt[x]=(((x+1)*invAngle+256)>>9
dY[x][y]=y+dYInt[x] (8-261)
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、次のように導出される。
refL[x][y]=(y<(3<<nScale))?sideRef[dY[x][y]]:0 (8-262)
refL[x][y]=0 (8-263)
wT[y]=0 (8-264)
wL[x]=32>>((x<<1)>>nScale) (8-265)
wTL[x][y]=0 (8-266)
-そうでなければ、refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、全て0に設定される。
predSamples[x][y]=clip1Cmp((refL[x][y]*wL[x]+refT[x][y]*wT[y]-
p[-1][-1]*wTL[x][y]+
(64-wL[x]-wT[y]+wTL[x][y])*predSamples[x][y]+32)>>6) (8-267)
JVET-M0102では、テーブル1に示すように、ブロックサイズに応じて、垂直方向または水平方向に、ルマ・イントラ予測ブロックを2個または4個のサブパーティションに分割するISPが提案されている。図6および図7は、2つの可能性に係る例を示している。全てのサブパーティションは、少なくとも16サンプルを有するとの条件を満たしている。
JVET-N0413では、量子化残差(residual)ドメインBDPCM(以下、RBDPCMと表す)が提案されている。イントラ予測は、ブロック全体について、イントラ予測と同様に、予測方向(水平または垂直予測)にサンプルコピーすることによって行われる。残差は量子化され、そして、量子化された残差と、その予測子(水平または垂直)量子化値との間のデルタはコード化される。サイズM(行)×N(列)のブロックについて、ri,j、0≦i≦M-1、0≦j≦N-1、を、上または左ブロック境界サンプルからのフィルタリングされていないサンプルを使用して、イントラ予測を水平方向(左隣接ピクセル値を予測されたブロックライン毎にコピーすること)、または、垂直方向(上隣接ピクセル値を予測されたブロックライン毎にコピーすること)に行った後の予測残差とする。Q(ri,j)、0≦i≦M-1、0≦j≦N-1、を、残差ri,jの量子化バージョンを示しものとする。こここで、残差は、元のブロックと予測ブロック値との間の差である。次いで、ブロックDPCMが量子化残差サンプルに適用され、要素r~i,jを有する修正M×NアレイR~を結果として生じる。垂直BDPCMの場合には、以下のようになる。
クロスコンポーネント冗長性を低減するために、VTM4ではクロスコンポーネント線形モデル(CCLM)予測モードが使用されている。そのために、線形モデルを使用して、同じCUの再構成ルマサンプルに基づいて、次のようにクロマサンプルが予測される。
predC(i,j)=α・recL'(i,j)+β
パラメータを計算する除算演算は、ルックアップテーブルを用いて実行される。テーブルの保管に必要なメモリを減らすために、diff値(最大値と最小値の差)とパラメータαを指数表記で表されている。例えば、diffは4ビットの有効部分と指数で近似される。従って、1/diffのテーブルは、次のように16個の有意値の16個の要素へ削減される。
DivTable[]={0,7,6,5,5,4,4,3,2,2,1,1,1,1,0}
クロマ・イントラモードコーディング化については、クロスコンポーネント線形モデル(CCLM)がイネーブルされているか否かに応じて、クロマ・イントラモードコーディングに対して合計8個または5個のイントラモードが許可される。これらのモードには、5個の従来のイントラモードおよび3個のクロスコンポーネント線形モデルモード(IntraPredModeCが、それぞれ81、82、83に設定される)が含まれる。
クロマ・ダイレクトモードまたは導出モード(Direct Mode or Derived Mode、DM)では、クロマイントラ予測モードを導出するために、共配置(co-located)ルマブロックの予測モードを使用する。
・共配置されたルマブロックがMIPモードでコード化されている場合、lumaIntraPredModeはプラナーモードに等しく設定される。
・そうでなければ、共配置されたルマブロックがIBCモードまたはパレットモードでコード化されている場合、lumaIntraPredModeはDCモードに等しく設定される。
・そうでなければ、lumaIntraPredModeは、クロマブロックの中心の対応するルマサンプルをカバーする共配置ルマブロックのイントラ予測モードに等しく設定される。一つの例が図9に示されている。
PDPCには次のような問題がある。
1.プラナーモードまたはDCモードでは、隣接サンプルの重み付け係数(例えば、wL、wT、およびwLT)は、プレーナおよびDCモードでは定義されていない予測角度に依存している。
2.CCLMモードでPDPCがイネーブルされているが、隣接サンプル、隣接サンプルに適用される重み、および、線形モデルを用いてルマブロックから生成されるクロマ予測信号の選択方法が未定義である。
3.PDPCは、「predModeIntraがINTRA_ANGULAR50以下である」場合にイネーブルされる。右上広角モードについて、PDPCはイネーブルされる。従って、PDPCは、所定の広角モードについてディセーブルされ、これは、妥当でないことがある。
以下のリストは、一般的な概念を説明するための例として考慮されるべきである。これらのアイテムは狭義に解釈されるべきではない。さらに、これらのアイテムは、任意の方法で組み合わせることができる。
1.プラナーモード及び/又はDCモードでは、PDPC中の隣接サンプルの重み付け係数は、ブロックのディメンション(例えば、Wで示される幅およびHで示される高さ)、及び/又は、フィルタリングされるサンプルの位置にのみ依存することが提案されている。
PDPCを適 a.一つの例において、位置(x,y)のサンプルについて、上隣接サンプル(例えば、R(x,-1))の重み付け係数は、wT[y]=N1>((y<N2)>>nScale)として定義され得る。ここで、nScale=((Log2(W)+Log2(H)-N3)>>N4であり、N1、N2、N3、およびN4は非負整数である。
b.一つの例において、位置(x,y)のサンプルについて、左隣接サンプルの重み付け係数(例えば、R(-1,y))は、wL[x]=N1>((x<N2)>>nScale)として定義され得る。ここで、nScale=((Log2(W)+Log2(H)-N3)>>N4である。
c.一つの例において、位置(x,y)のサンプルについて、左上隣接サンプル(例えば、R(-1,-1))の重み付け係数は、ゼロに等しく設定され得る。
d.N1,N2,N3,N4は非負の整数である。例えば、N1=32、N2=1、N3=2、N4=2である。
2.PDPCを適用するか否か、および、どのように適用するかは、現在ブロックがCCLMモード(LM、LM-T、LM-Lなど)でコード化されているか否かに依存し得る。
a.CCLMモードではPDPCが適用されない場合がある。
b.代替的に、PDPCはCCLMモードと共に適用され得る。ここで、ルマブロックおよびクロマ隣接サンプルから生成された予測信号は、最終予測クロマブロックを導出するために利用される。隣接するクロマサンプル及び/又は重み付け係数の選択は、以下のように定義され得る。
i.一つの例において、隣接クロマサンプルを選択する方法、及び/又は、隣接クロマサンプルの重み付け係数を決定する方法は、所定のモード(例えば、プラナーモード)の場合と同じであってよい。
ii.代替的に、対応するルマブロックが、角度予測モード(例えば、広角予測モード、垂直モード、または水平モードをさらに含む)、またはプラナーモード、またはDCモードのようなイントラ予測モードでコード化される場合、そのようなイントラ予測モードは、隣接クロマサンプルを選択し、そして、隣接クロマサンプルの重み付け係数を決定するために使用され得る。
1.一つの例において、対応するルマブロックは、対応するルマ領域(例えば、図9の灰色領域)がカバーするコード化ユニット/予測ユニット/変換ユニットのうち1つである。
a.一つの例において、対応するルマブロックは、コーディングユニット/予測ユニット/変換ユニットが、中央クロマサンプルの対応する(図9のCRのような)ルマサンプルをカバーする。
iii.代替的に、対応するルマブロックが、角度予測モード(例えば、広角予測モード、垂直モード、または水平モードをさらに含む)、またはプラナーモード、またはDCモードのようなイントラ予測モードでコード化される場合、そのようなイントラ予測モードは、隣接クロマサンプルを選択し、隣接するクロマサンプルの重み付け係数を決定するために使用され得る。
c.代替的に、PDPCをルマブロックから生成された予測信号を有するCCLMコーディングブロックに適用し、再構成クロマ隣接サンプルを使用する代わりにクロマ隣接サンプルを導出してもよい。
i.一つの例において、隣接クロマサンプルは、CCLMプロセスで導出された線形モデルを使用して、対応するルマブロックの隣接ルマサンプルから導出されてよい。
d.代替的に、対応するルマブロック内の対応する再構成ルマサンプルを、クロマサンプルを予測するために使用する前に、PDPCによってフィルタリングしてよい。
i.一つの例において、再構成されたルマサンプルをフィルタリングするとき、隣接サンプルを選択する方法及び/又は隣接ルマサンプルの重み付け係数を決定する方法は、予め定義されたモード(例えば、プラナーモード)の場合と同じであり得る。
ii.代替的に、隣接ルマサンプルを選択する方法及び/又は隣接ルマサンプルの重み付け係数を決定する方法は、ルマブロックのイントラ予測モードに依存し得る。
1.一つの例において、ルマブロックが角度予測モード(広角予測モード、垂直モード、または水平モードを含む)、またはプラナーモード、またはDCモードのようなイントラ予測モードでコード化される場合、そのようなイントラ予測モードは、隣接ルマサンプルを選択し、隣接ルマサンプルの重み付け係数を決定するために使用され得る。
3.PDPCを適用するか否かは、現在ブロックが広角イントラ予測モードでコード化されているか否かに依存し得る。
a.PDPCは広角イントラ予測モードのブロックに適用することができる。
i.一つの例において、PDPCは、いくつかの特定の(全てではない)広角イントラ予測モードを有するブロックに適用され得る。
b.広角イントラ予測モードのブロックには、PDPCを適用しないことがある。 4.ブロックにPDPCを適用できるか否かは、上隣接サンプルと式(2-1)の左隣接サンプル(例えば、R(-1,y)およびR(x,-1))の両方が、イントラ予測方向に「関与(“involved”)」しているか否かに依存し得る。例えば、イントラ予測プロセスにおいて、サンプルが隣接左/上サンプルから予測されると仮定する(分数位置に配置されてよい)。上/左隣接する行/列を横切る半線があれば、出発点を左/上隣接サンプルとし、上隣接サンプルと左隣接サンプルの両方とも、サンプルのイントラ予測方向に沿って「関与」すると言う。R(-1,-1)は、常に左隣接サンプルまたは上隣接サンプルとみなされるが、両方ではないことに注意する。
a.一つの例において、イントラ予測方向は、角度イントラ予測モードとして定義され得る。
i.一つの例において、イントラ予測方向は、垂直または水平予測方向を除外し得る。
ii.一つの例において、イントラ予測方向は、DC及び/又はプラナーモードをし得る。
iii.一つの例において、イントラ予測方向は、広角イントラ予測モードを除外し得る。
b.一つの例において、上隣接サンプルおよび左隣接サンプルの両方が、ブロックの少なくともN個のサンプル(例えば、N=1)を予測するためのイントラ予測方向に「関与」する場合、PDPCが適用され得る。一つの例を図10(a)および(b)に示す。ここで、PDPCはイネーブルされている。
i.代替的に、さらに、2個の隣接サンプルがブロックの任意のサンプルを予測するためのイントラ予測プロセスに「関与」しない場合、PDPCは適用されない場合があり。例を図10(c)および図10(d)に示す。
5.PDPCをイネーブルまたはディセーブルするか否かは、色成分に依存し得る。 a.一つの例において、PDPCは、ルマ色成分(例えば、YCbCrカラーフォーマットではY、RGBカラーフォーマットではG)についてイネーブルされてよいが、少なくとも1つのクロマ色成分(例えば、YCbCrカラーフォーマットではCb及び/又はCr、RBBカラーフォーマットではB及び/又はR)についてディセーブルされてよい。
6.PDPCの複数の方法は、1つの最終的な予測サンプルを導出するためにフィルタリングプロセスが何個のサンプルを必要とするかに基づいて、許可され得る。
a.一つの例において、1つの最終的な予測サンプルは、1つまたは複数の左隣接サンプル(フィルタリング済またはフィルタリングされていない)、および、例えば、通常のイントラ予測プロセスから得られる、イントラ予測値(例えば、等式2-1のpred(x,y))に従って導出され得る。
b.一つの例において、1つの最終的な予測サンプルは、1つまたは複数の上隣接サンプル(フィルタリング済またはフィルタリングされていない)、および、例えば、通常のイントラ予測プロセスから得られる、イントラ予測値(例えば、等式2-1のプレド(x,y))に従って導出され得る。
c.PDPCのどの方法がブロックに適用されるかは、コード化された情報に依存し得る。
i.ブロックディメンション
ii.ブロック形状
iii.ブロック幅と高さの比
iv.ビデオユニットにおいて信号化されたインデックスまたはフラグ
7.PDPCをブロックに適用できるか否かは、ブロックディメンション及び/又はブロック形状(正方形または非正方形)に依存し得る。
a.一つの例において、非正方形ブロックについて、PDPCはディセーブルされ得る。
b.一つの例において、PDPCをイネーブルまたはディセーブルするかは、ブロック幅とブロック高さの比に依存し得る。
c.ブロックサイズが小さい場合は、PDPCを禁止され得る。
i.一つの例において、ブロックの幅が閾値T以下(例えば、T=2,4)の場合、PDPCは許可されない。
ii.一つの例において、ブロックの高さが閾値T以下(例えば、T=2,4)の場合、PDPCは許可されない。
iii.一つの例において、ブロック内のルマサンプルの数が閾値T(例えば、16、32、64)以下の場合、PDPCは許可されない。
d.ブロックサイズが大きい場合は、PDPCを禁止され得る。
i.一つの例において、ブロックの幅が閾値T(例えば、T=32)以上である場合、PDPCは許可されない。
ii.一つの例において、ブロックの高さが閾値T(例えば、T=32)以上である場合、PDPCは許可されない。
iv.一つの例において、ブロック内のルマサンプルの数が閾値T(例えば、1024)以上である場合、PDPCは許可されない。
e.PDPCをイネーブルまたはディセーブルするかは、異なる色成分に対して独立して決定され得る。
新たに追加された部分は太字とイタリック体で強調表示され、削除された部分は二重括弧でマーク付けされている(例えば、[[a]]は文字「a]の削除を示す)。
本出願は、2020年8月14日に出願された国際特許出願第PCT/CN2020/109217号の国内移行である。パリ条約に基づく適用特許法及び/又はルールに基づいて、本出願は、2019年8月14日に出願された国際特許出願第PCT/CN2019/100615号の優先権および利益を適時に主張するように行われている。法に基づく全ての目的のために、上記の出願の開示全体は、本出願の開示の一部として引用により援用されている。
Claims (12)
- ビデオ処理の方法であって、
ルールに従って、ビデオの現在ビデオブロックのサンプルに係る隣接サンプルの重み付け係数を導出するステップと、
前記現在ビデオブロックと前記ビデオのコード化表現との間で変換を実行するステップと、を含み、
前記ルールは、前記現在ビデオブロックがプラナーモードまたはDCモードを使用してコード化されている場合に、前記重み付け係数は、前記現在ビデオブロックのディメンションまたは前記現在ビデオブロックのサンプルの位置のうち少なくとも1つから決定されることを規定しており、
前記現在ビデオブロックは、位置依存イントラ予測(PDPC)法を使用し、前記隣接サンプルを前記現在ビデオブロックの予測信号と組み合わせて、前記現在ビデオブロックの精緻化された予測信号を生成し、かつ、
前記サンプルの予測信号の重み付け係数は、前記サンプルの対応する隣接サンプルの重み付け係数に基づいて決定される、
方法。 - 前記ルールは、サンプル位置(x,y)について、
上隣接サンプルの重み付け係数が、wT[y]=N1>>((y<<N2)>>nScale)であることを規定しており、
nScale=((Log2(W)+Log2(H)-N3)>>N4であり、かつ、
N1、N2、N3、およびN4は非負整数である、
請求項1に記載の方法。 - 前記上隣接サンプルは、位置(x,-1)を含む、
請求項2に記載の方法。 - 前記ルールは、サンプル位置(x,y)について、
左隣接サンプルの重み付け係数が、wL[x]=N1>>((x<<N2)>>nScale)であることを規定しており、
nScale=((Log2(W)+Log2(H)-N3)>>N4であり、かつ、
N1、N2、N3、およびN4は非負整数である、
請求項1に記載の方法。 - 前記左隣接サンプルは、位置(-1,y)を含む、
請求項4に記載の方法。 - 前記ルールは、サンプル位置(x,y)について、
左上隣接サンプルの重み付け係数がゼロであることを規定している、
請求項1に記載の方法。 - 前記左上隣接サンプルの位置は、(-1,-1)である、
請求項6に記載の方法。 - N1=32、N2=1、N3=2、または、N4=2である、
請求項2乃至5いずれか一項に記載の方法。 - 前記変換を実行するステップは、前記現在ビデオブロックから前記コード化表現を生成すること、を含む、
請求項1乃至8いずれか一項に記載の方法。 - 前記変換を実行するステップは、前記コード化表現から前記現在ビデオブロックを生成すること、を含む、
請求項1乃至8いずれか一項に記載の方法。 - 請求項1乃至10いずれか一項に記載の方法を実施するように構成されたプロセッサを備える、ビデオ処理装置。
- プログラムコードを保管しているコンピュータ可読媒体であって、
実行されると、請求項1乃至10いずれか一項に記載の方法をプロセッサに実施させる、
コンピュータ可読媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023198244A JP2024016282A (ja) | 2019-08-14 | 2023-11-22 | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2019/100615 | 2019-08-14 | ||
CN2019100615 | 2019-08-14 | ||
PCT/CN2020/109217 WO2021027928A1 (en) | 2019-08-14 | 2020-08-14 | Weighting factors for prediction sample filtering in intra mode |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023198244A Division JP2024016282A (ja) | 2019-08-14 | 2023-11-22 | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022544764A true JP2022544764A (ja) | 2022-10-21 |
JP7568348B2 JP7568348B2 (ja) | 2024-10-16 |
Family
ID=74569310
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508748A Active JP7568348B2 (ja) | 2019-08-14 | 2020-08-14 | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 |
JP2023198244A Pending JP2024016282A (ja) | 2019-08-14 | 2023-11-22 | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023198244A Pending JP2024016282A (ja) | 2019-08-14 | 2023-11-22 | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11533477B2 (ja) |
EP (1) | EP3997872A4 (ja) |
JP (2) | JP7568348B2 (ja) |
KR (1) | KR20220038690A (ja) |
CN (1) | CN114287133B (ja) |
WO (1) | WO2021027928A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020084475A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Utilization of refined motion vector |
CN111436227B (zh) * | 2018-11-12 | 2024-03-29 | 北京字节跳动网络技术有限公司 | 在视频处理中使用组合帧间-帧内预测 |
EP3915259A4 (en) | 2019-03-06 | 2022-03-30 | Beijing Bytedance Network Technology Co., Ltd. | USE OF A CONVERTED UNIVERSITY PREDICTION CANDIDATE |
CN114342372A (zh) * | 2019-06-19 | 2022-04-12 | 韩国电子通信研究院 | 帧内预测模式、以及熵编解码方法和装置 |
CN117376556A (zh) | 2019-08-14 | 2024-01-09 | 北京字节跳动网络技术有限公司 | 位置相关帧内预测样点滤波 |
WO2021027928A1 (en) | 2019-08-14 | 2021-02-18 | Beijing Bytedance Network Technology Co., Ltd. | Weighting factors for prediction sample filtering in intra mode |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190110045A1 (en) * | 2017-10-09 | 2019-04-11 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100536573C (zh) * | 2004-01-16 | 2009-09-02 | 北京工业大学 | 基于方向的dc预测方法及用于视频编码的帧内预测方法 |
US9031129B2 (en) | 2007-06-15 | 2015-05-12 | Microsoft Technology Licensing, Llc | Joint spatio-temporal prediction for video coding |
US20090190845A1 (en) | 2008-01-24 | 2009-07-30 | The Hong Kong University Of Science And Technology | Motion-compensated residue based temporal search range prediction |
CN104488270B (zh) * | 2012-06-29 | 2018-05-18 | 韩国电子通信研究院 | 一种利用解码设备的视频解码方法 |
US9467692B2 (en) * | 2012-08-31 | 2016-10-11 | Qualcomm Incorporated | Intra prediction improvements for scalable video coding |
US9544612B2 (en) | 2012-10-04 | 2017-01-10 | Intel Corporation | Prediction parameter inheritance for 3D video coding |
WO2014107709A2 (en) | 2013-01-07 | 2014-07-10 | Vid Scale, Inc. | Enhanced deblocking filters for video coding |
WO2015006951A1 (en) | 2013-07-18 | 2015-01-22 | Mediatek Singapore Pte. Ltd. | Methods for fast encoder decision |
CN103596004A (zh) * | 2013-11-19 | 2014-02-19 | 北京邮电大学 | Hevc中基于数学统计和分类训练的帧内预测方法及装置 |
CA2939170A1 (en) | 2014-03-13 | 2015-09-17 | Qualcomm Incorporated | Constrained depth intra mode coding for 3d video coding |
EP4040791A1 (en) | 2015-06-08 | 2022-08-10 | Vid Scale, Inc. | Intra block copy mode for screen content coding |
US20160373782A1 (en) * | 2015-06-18 | 2016-12-22 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US11463689B2 (en) * | 2015-06-18 | 2022-10-04 | Qualcomm Incorporated | Intra prediction and intra mode coding |
US10425648B2 (en) | 2015-09-29 | 2019-09-24 | Qualcomm Incorporated | Video intra-prediction using position-dependent prediction combination for video coding |
US10778989B2 (en) * | 2016-02-05 | 2020-09-15 | Blackberry Limited | Rolling intra prediction for image and video coding |
US20170244966A1 (en) | 2016-02-20 | 2017-08-24 | Qualcomm Incorporated | Weighted prediction for screen content coding and multi-layer coding |
US11032550B2 (en) * | 2016-02-25 | 2021-06-08 | Mediatek Inc. | Method and apparatus of video coding |
WO2017190288A1 (en) | 2016-05-04 | 2017-11-09 | Microsoft Technology Licensing, Llc | Intra-picture prediction using non-adjacent reference lines of sample values |
KR20190015216A (ko) | 2016-05-05 | 2019-02-13 | 브이아이디 스케일, 인크. | 인트라 코딩을 위한 제어 포인트 기반의 인트라 방향 표현 |
EP3453174A1 (en) | 2016-05-06 | 2019-03-13 | VID SCALE, Inc. | Method and system for decoder-side intra mode derivation for block-based video coding |
US10390015B2 (en) | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10638126B2 (en) * | 2017-05-05 | 2020-04-28 | Qualcomm Incorporated | Intra reference filter for video coding |
CN111919442B (zh) | 2018-03-31 | 2023-04-04 | 华为技术有限公司 | 一种图像块的帧内模式预测方法及装置 |
US11509908B2 (en) | 2018-09-11 | 2022-11-22 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder, encoding method, and decoding method |
WO2020058896A1 (en) | 2018-09-19 | 2020-03-26 | Beijing Bytedance Network Technology Co., Ltd. | Intra mode coding based on history information |
KR20200041801A (ko) | 2018-10-12 | 2020-04-22 | 인텔렉추얼디스커버리 주식회사 | 영상 부호화/복호화 방법 및 장치 |
WO2020147747A1 (en) | 2019-01-15 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Weighted prediction in video coding |
US11330283B2 (en) * | 2019-02-01 | 2022-05-10 | Tencent America LLC | Method and apparatus for video coding |
JP7425080B2 (ja) | 2019-02-28 | 2024-01-30 | サムスン エレクトロニクス カンパニー リミテッド | クロマ成分を予測するビデオ符号化及び復号方法、及びクロマ成分を予測するビデオ符号化及び復号装置 |
CA3131031C (en) | 2019-03-21 | 2024-06-11 | Beijing Bytedance Network Technology Co., Ltd. | Improved weighting processing of combined intra-inter prediction |
EP3935854A4 (en) | 2019-04-12 | 2022-06-01 | Beijing Bytedance Network Technology Co., Ltd. | CHROMINANCE CODING MODE DETERMINATION BASED ON MATRIX-BASED INTRA PREDICTION |
CN113785572B (zh) | 2019-05-02 | 2022-12-16 | 北京字节跳动网络技术有限公司 | 使用多个参考滤波器的帧内视频编解码 |
US11445174B2 (en) | 2019-05-06 | 2022-09-13 | Tencent America LLC | Method and apparatus for video coding |
US11039156B2 (en) | 2019-06-11 | 2021-06-15 | Tencent America LLC | Unified position dependent prediction combination process |
WO2021027928A1 (en) * | 2019-08-14 | 2021-02-18 | Beijing Bytedance Network Technology Co., Ltd. | Weighting factors for prediction sample filtering in intra mode |
-
2020
- 2020-08-14 WO PCT/CN2020/109217 patent/WO2021027928A1/en unknown
- 2020-08-14 CN CN202080057350.5A patent/CN114287133B/zh active Active
- 2020-08-14 KR KR1020227003001A patent/KR20220038690A/ko unknown
- 2020-08-14 JP JP2022508748A patent/JP7568348B2/ja active Active
- 2020-08-14 EP EP20851995.9A patent/EP3997872A4/en active Pending
-
2022
- 2022-01-28 US US17/587,875 patent/US11533477B2/en active Active
-
2023
- 2023-11-22 JP JP2023198244A patent/JP2024016282A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190110045A1 (en) * | 2017-10-09 | 2019-04-11 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
Non-Patent Citations (2)
Title |
---|
BENJAMIN BROSS ET AL.: "Versatile Video Coding (Draft 6) [online]", JVET-O2001-VE (JVET-O2001-VE.DOCX), JPN6023034830, 31 July 2019 (2019-07-31), pages 178 - 180, ISSN: 0005139575 * |
LIANG ZHAO XIN ZHAO XIANG LI SHAN LIU: "Non-CE3: Unification of PDPC for diagonal intra prediction modes [online]", JVET-O JVET-O0535-V2, JPN6023013163, 3 July 2019 (2019-07-03), pages 1 - 3, ISSN: 0005139576 * |
Also Published As
Publication number | Publication date |
---|---|
JP7568348B2 (ja) | 2024-10-16 |
KR20220038690A (ko) | 2022-03-29 |
CN114287133A (zh) | 2022-04-05 |
US11533477B2 (en) | 2022-12-20 |
CN114287133B (zh) | 2024-09-10 |
JP2024016282A (ja) | 2024-02-06 |
WO2021027928A1 (en) | 2021-02-18 |
EP3997872A1 (en) | 2022-05-18 |
US20220159242A1 (en) | 2022-05-19 |
EP3997872A4 (en) | 2022-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7389251B2 (ja) | 輝度の差分を用いるクロスコンポーネント適応ループフィルタ | |
JP7568348B2 (ja) | イントラモードにおける予測サンプルフィルタリングのための重み付け係数 | |
AU2015328164B2 (en) | QP derivation and offset for adaptive color transform in video coding | |
JP2023501191A (ja) | クロス成分映像コーディングにおける線形パラメータの導出 | |
WO2020253864A1 (en) | Selective enablement of adaptive in-loop color-space transform in video coding | |
US20230291930A1 (en) | Position-dependent intra prediction sample filtering | |
JP2021525485A (ja) | ピクチャ境界処理のためのマルチタイプツリー深度拡張 | |
US20240179310A1 (en) | Fusion Mode For Adaptive Loop Filter In Video Coding | |
CN116033147A (zh) | 图像编解码方法和装置 | |
WO2023213298A1 (en) | Filter shape switch for adaptive loop filter in video coding | |
WO2024208275A1 (en) | Using chroma related side information for adaptive loop filter in video coding | |
WO2024078582A1 (en) | Switchable input sources based extended taps for adaptive loop filter in video coding | |
WO2024094071A1 (en) | Using side information for adaptive loop filter in video coding | |
WO2023020309A1 (en) | Advanced fusion mode for adaptive loop filter in video coding | |
WO2024213000A1 (en) | Using side information for cross-component adaptive loop filter in video coding | |
WO2024037652A1 (en) | Using different sources for hadamard domain filter in video coding | |
WO2024008105A1 (en) | Multi-source based extended taps for adaptive loop filter in video coding | |
WO2024222847A1 (en) | Limitation for temporal reference in gdr based video coding | |
WO2024037653A1 (en) | Using different sources for bilateral filter in video coding | |
WO2024022377A1 (en) | Using non-adjacent samples for adaptive loop filter in video coding | |
WO2023051561A1 (en) | Method, apparatus, and medium for video processing | |
WO2024169956A1 (en) | Multiple adaptive loop filter processed reconstructions in video coding | |
US20240179351A1 (en) | Fusion Mode For Adaptive Loop Filter In Video Coding | |
WO2024094066A1 (en) | Using side information for sample adaptive offset in video coding | |
WO2024094042A1 (en) | Using side information for bilateral filter in video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240606 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7568348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |