JP2021528877A - イントラ予測におけるplanarモード及びdcモードの境界フィルタリング - Google Patents
イントラ予測におけるplanarモード及びdcモードの境界フィルタリング Download PDFInfo
- Publication number
- JP2021528877A JP2021528877A JP2020554486A JP2020554486A JP2021528877A JP 2021528877 A JP2021528877 A JP 2021528877A JP 2020554486 A JP2020554486 A JP 2020554486A JP 2020554486 A JP2020554486 A JP 2020554486A JP 2021528877 A JP2021528877 A JP 2021528877A
- Authority
- JP
- Japan
- Prior art keywords
- predictor
- sample
- reference sample
- block
- adjacent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title abstract description 52
- 239000013074 reference sample Substances 0.000 claims abstract description 181
- 239000000523 sample Substances 0.000 claims abstract description 90
- 238000000034 method Methods 0.000 claims description 88
- 230000004044 response Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 abstract description 7
- 238000013459 approach Methods 0.000 abstract description 3
- 230000000644 propagated effect Effects 0.000 abstract 1
- 230000015654 memory Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000009472 formulation Methods 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000013139 quantization Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- IESVDEZGAHUQJU-ZLBXKVHBSA-N 1-hexadecanoyl-2-(4Z,7Z,10Z,13Z,16Z,19Z-docosahexaenoyl)-sn-glycero-3-phosphocholine Chemical compound CCCCCCCCCCCCCCCC(=O)OC[C@H](COP([O-])(=O)OCC[N+](C)(C)C)OC(=O)CC\C=C/C\C=C/C\C=C/C\C=C/C\C=C/C\C=C/CC IESVDEZGAHUQJU-ZLBXKVHBSA-N 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000008054 signal transmission Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【選択図】図6
Description
イントラ予測されるべき所与のターゲットブロックに対して、エンコーダ又はデコーダは、まず、図3に示すように、2つの参照配列(上側に1つ、及び、左側に1つ)を構築する。参照サンプルは、上側の、右上の、左側の、左下の、及び左上の、復号されたブロック内の復号されたサンプルから取られ、ブロックサイズ及び予測モードに応じてフィルタリングされることができる。図3の場合には、座標(x,y)における予測画素値は、P(x,y)で示され、参照画素値は、R(x,y)で示されている。双方の参照配列は、2N+1個の参照サンプルを有している。
式中、R(x,−1)は、上側の参照配列上の(x,−1)での参照サンプルを表し、R(−1,y)は、左側の参照配列上の(−1,y)での参照サンプルを表し、Nは、ターゲットブロックの幅又は高さ(HEVCでは、すべてのブロックは、正方形形状を有している)を表す。その後、ターゲットブロックの上側境界と左側境界との双方は、フィルタリングされる。ターゲットブロックの座標(0,0)での予測サンプルは、3タップ平滑化フィルタ[1 2 1]/4を使用して、次のようにフィルタリングされる。
P’(0,0)=(R(−1,0)+2×dcVal+R(0,−1)+2)>>2
式中、P’は、予測サンプルのフィルタリング値を表し、R(−1,0)は、座標(−1,0)での参照サンプルを表し、R(0,−1)は、座標(0,−1)での参照サンプルを表す。
P’(x,0)=(3×dcVal+R(x,−1)+2)>>2,1<=x<N(上側境界)
P’(0,y)=(3×dcVal+R(−1,y)+2)>>2,1<=y<N(左側境界)
複雑さを低く抑えるために、上記の境界フィルタリングは、サイズが16×16以下のルマブロックに対してのみ適用される。
PLANARモードでは、ターゲット画素での予測は、次のように2つの補間から得られる。
P(x,y)=(Pv(x,y)+Ph(x,y)+N)>>(log2(N)+1),0<=x,y<N (2)
式中、Pv(x,y)及びPh(x,y)は、次のようにして得られる垂直補間及び水平補間である。
Pv(x,y)=(N−1−y)×R(x,−1)+(1+y)×R(−1,N), 0<=x,y<N (3)
Ph(x,y)=(N−1−x)×R(−1,y)+(1+x)×R(N,−1), 0<=x,y<N (4)
JEMでは、四本木二本木構造(QTBT)のために、参照配列のそれぞれは、(1+W+H)サンプルを有し、式中、W及びHは、ターゲットブロックのそれぞれ幅及び高さを表す。JEMでは、DCモード及びPLANARモードでの予測は、不均等な高さ及び幅を考慮するために上記の式内に必要とされる変更を除いては、基本的にHEVCと同じである。加えて、境界での不連続性を低減することを目的としたDC予測及びPLANAR予測を改良するために、提案がなされている。
Ph(x,y)=(W−1−x)×R(−1,y)+(x+1)×Pr(W,y)
Pv(x,y)=(H−1−y)×R(x,−1)+(y+1)×Pb(x,H)
P’(x,y)=(wL×R(−1,y)+wT×R(x,−1)+wTL×R(−1,−1)+(64−wL−wT−wTL)×P(x,y)+32)>>6
式中、wL、wT、及びwTLは、左側、上側、及び左上の参照サンプルに対応する重みであり、次のように計算される。
wT=32>>((y<<1)>>shift)
wL=32>>((x<<1)>>shift)
wTL=−((wL>>4)+(wT>>4))
式中、shift=(log2(W)+log2(H)+2)>>2である。PLANAR予測モードとDC予測モードとの双方が、この更新方法を使用している。本出願人が理解しているように、画素が参照配列から離れるにつれて重みが減少するので、この方法は、近くの参照サンプルに対して追加の重みを与えて境界を平滑化することを目的としている。
一般化のために、ここでは、幅Wかつ高さHの矩形ブロックを想定する。上述したように、PLANARモード予測は、2つの中間構成要素を有している。すなわち、1つの水平補間と、1つの垂直補間と、を有している。これら2つの構成要素の平均が、最終的な予測値を生成する。
Ph(x,y)=(W−1−x)×R(−1,y)+(1+x)×R(W,−1), 0<=x<W;0<=y<H
上側の参照サンプルに対して同じ補間を適用すると、すなわち、左上の参照サンプルと右上の参照サンプルとの間を補間すると、本出願人は、水平補間においてR(x,−1)を予測する予測子を得る。
Ph(x,−1)=(W−1−x)×R(−1,−1)+(1+x)×R(W,−1), 0<=x<W (P1)
Δv(x)=R(x,−1)−(Ph(x,−1)>>log2(W)), 0<=x<W (P2)
そして、本出願人は、水平補間を次のように修正することができる。
P’h(x,y)=Ph(x,y)+W×Δv(x)×L(y), 0<=x<W;0<=y<H
ここでL(y)は、閉区間[0,1]内の値を有する減衰関数である。固定小数点の実装のために、本出願人は、次のような代替可能な定式化を使用することができる。
P’h(x,y)=Ph(x,y)+(W×Δv(x)×L(y)+32)>>6, 0<=x<W;0<=y<H
式中、L(y)は、[0,32]の範囲内で正の整数値を有することができ、例えば、L(y)=(32>>((y<<1)>>shift))であり、式中、shift=(log2(W)−1+log2(H)−1)>>2である。このシフトパラメータ値では、減衰関数は、この場合、ターゲットブロックのサイズによって変化することに注意されたい。
Pv(x,y)=(H−1−y)×R(x,−1)+(1+y)×R(−1,H), 0<=x<W;0<=y<H
Pv(−1,y)=(H−1−y)×R(−1,−1)+(1+y)×R(−1,H), 0<=y<H (P3)
よって、左側の参照サンプルでの勾配は、次のように推定することができる。
Δh(y)=R(−1,y)−(Pv(−1,y)>>log2(H)), 0<=y<H (P4)
P’v(x,y)=Pv(x,y)+H×Δh(y)×L(x), 0<=x<W;0<=y<H
式中、L(x)は、閉区間[0,1]内の値を有する減衰関数である。planar予測には方向性がないので、一般性を何ら失うことなく、本出願人は、L(y)として同じ減衰関数を使用することができる。よって、本出願人は、次のような代替可能な定式化を使用することができる。
P’v(x,y)=Pv(x,y)+(H×Δh(y)×L(x)+32)>>6, 0<=x<W;0<=y<H
式中、L(x)=(32>>((x<<1)>>shift))であり、shift=(log2(W)−1+log2(H)−1)>>2である。
P’(x,y)=(W×P’v(x,y)+H×P’h(x,y)+W×H)>>(1+log2(W)+log2(H))
=P(x,y)+((Δv(x)×L(y)+Δh(y)×L(x)+64)>>7)
更新は、ダイナミックレンジ外の値を取ることができるので、本出願人は、ダイナミックレンジにクリッピングして上の式を使用することができる。
P’(x,y)=Clip(P(x,y)+((Δv(x)×L(y)+Δh(y)×L(x)+64)>>7)) (P5)
(i)既存のplanar法と同様に、P(x,y)を計算する。
(ii)式(P1)及び式(P2)のように、0<=x<Wに関して、Ph(x,−1)を計算し、その後、Δv(x)を計算する。
(iii)式(P3)及び式(P4)のように、0<=y<Hに関して、Pv(−1,y)を計算し、その後、Δh(y)を計算する。
(iv)式(P5)のようにP(x,y)を更新することにより、P’(x,y)を得る。
Δv(x)=R(x,−1)−P(x,0), 0<=x<W
Δh(y)=R(−1,y)−P(0,y), 0<=y<H
加えて、本出願人は、また、左上の画素での勾配を、次のように計算することとなる。
Δd=R(−1,−1)−P(0,0)
P’(x,y)=Clip(P(x,y)+((Δv(x)×L(y)+Δh(y)×L(x)−Δd×L+32)>>6)) (P6)
式中、L=min(L(x),L(y))である。
HEVC及びJEMでは、ターゲットブロックの上側及び左側における参照サンプルを使用した1経路目の予測において、DC値が計算される。その後、2経路目において、上述したように、第1行目の予測値と第1列目の予測値とが、フィルタリングされる。
その後、ターゲットブロックは、初期的には、次のように予測される。
本出願人は、すぐ上の垂直方向勾配を、次のように計算する。
Δv(x)=R(x,−1)−dcVal, 0<=x<W (D2)
同様に、本出願人は、すぐ左の水平方向勾配を、次のように計算する。
Δh(y)=R(−1,y)−dcVal, 0<=y<H (D3)
本出願人は、左上コーナーの勾配を、次のように計算する。
Δd=((R(−1,0)+R(0,−1))>>1)−dcVal (D4)
P’(x,y)=Clip(dcVal+((Δv(x)×L(y)+Δh(y)×L(x)−Δd×L+32)>>6)) (D5)
式中、L(x)及びL(y)は、PLANAR境界フィルタリングに関して以前に与えられたものであり、L=min(L(x),L(y))である。
したがって、HEVC及びJEMで行われているように、フィルタリングが、ルマ成分のみに関する小さなブロックサイズのみに適用される場合には、本出願人は、残りのブロックに関するDCモードでの予測値として、dcValorigを使用することができる。
P’h(x,y)=DCh+(Δv(x)×L(y)+32)<<6, 0<=x<W;0<=y<H
式中、Δv(x)=R(x,−1)−DCh, 0<=x<W
P’v(x,y)=DCv+(Δh(y)×L(x)+32)>>6, 0<=x<W;0<=y<H
ここで、Δh(y)=R(−1,y)−DCv, 0<=y<H
=dcVal+((Δv(x)×L(y)+Δh(y)×L(x)+64)>>7)
ここで、dcValは、式(D1)で与えられる。上記と同様に、本出願人は、フィルタリングされた値が、なおも有効なダイナミックレンジ内にあることを確認するために、クリッピングを使用することができる。
P’(x,y)=Clip(dcVal+((Δv(x)×L(y)+Δh(y)×L(x)+64)>>7)), 0<=x<W;0<=y<H
Claims (15)
- 映像を復号する方法であって、
複数の隣接する参照サンプルを使用して、復号されるべきブロック内のサンプルに関する初期予測子を形成することであって、前記複数の隣接する参照サンプルが、隣接する上側のブロックからの第1参照サンプルと、隣接する左側のブロックからの第2参照サンプルと、を含む、形成することと、
前記第1参照サンプルに関する第1予測子を取得すること及び前記第2参照サンプルに関する第2予測子を取得することと、
前記サンプルに関する前記初期予測子を、(1)前記第1参照サンプルと前記第1予測子との間の第1差に基づいて、及び、(2)前記第2参照サンプルと前記第2予測子との間の第2差に基づいて調整し、前記サンプルに関する予測子を形成することと、
前記形成された予測子に応答して前記サンプルを再構築することと、を含む、方法。 - 映像を符号化する方法であって、
複数の隣接する参照サンプルを使用して、符号化されるべきブロック内のサンプルに関する初期予測子を形成することであって、前記複数の隣接する参照サンプルが、隣接する上側のブロックからの第1参照サンプルと、隣接する左側のブロックからの第2参照サンプルと、を含む、形成することと、
前記第1参照サンプルに関する第1予測子を取得すること及び前記第2参照サンプルに関する第2予測子を取得することと、
前記サンプルに関する前記初期予測子を、(1)前記第1参照サンプルと前記第1予測子との間の第1差に基づいて、及び、(2)前記第2参照サンプルと前記第2予測子との間の第2差に基づいて調整し、前記サンプルに関する予測子を形成することと、
前記形成された予測子に応答して前記ブロックを符号化することと、を含む、方法。 - 映像を復号する装置であって、
1つ又は複数のプロセッサであって、前記1つ又は複数のプロセッサが、
複数の隣接する参照サンプルを使用して、復号されるべきブロック内のサンプルに関する初期予測子を形成し、ここにおいて、前記複数の隣接する参照サンプルが、隣接する上側のブロックからの第1参照サンプルと、隣接する左側のブロックからの第2参照サンプルと、を含み、
前記第1参照サンプルに関する第1予測子を取得及び前記第2参照サンプルに関する第2予測子を取得し、
前記サンプルに関する前記初期予測子を、(1)前記第1参照サンプルと前記第1予測子との間の第1差に基づいて、及び、(2)前記第2参照サンプルと前記第2予測子との間の第2差に基づいて調整し、前記サンプルに関する予測子を形成し、
前記形成された予測子に応答して前記サンプルを再構築するように構成される、1つ又は複数のプロセッサを含む、装置。 - 映像を符号化する装置であって、
1つ又は複数のプロセッサであって、前記1つ又は複数のプロセッサが、
複数の隣接する参照サンプルを使用して、符号化されるべきブロック内のサンプルに関する初期予測子を形成し、ここにおいて、前記複数の隣接する参照サンプルが、隣接する上側のブロックからの第1参照サンプルと、隣接する左側のブロックからの第2参照サンプルと、を含み、
前記第1参照サンプルに関する第1予測子を取得及び前記第2参照サンプルに関する第2予測子を取得し、
前記サンプルに関する前記初期予測子を、(1)前記第1参照サンプルと前記第1予測子との間の第1差に基づいて、及び、(2)前記第2参照サンプルと前記第2予測子との間の第2差に基づいて調整し、前記サンプルに関する予測子を形成し、
前記形成された予測子に応答して前記ブロックを符号化するように構成される、1つ又は複数のプロセッサを含む、装置 - 前記第1参照サンプルが、復号又は符号化されるべき前記ブロックに隣接し、かつ前記サンプルと同じ水平方向位置にあり、前記第2参照サンプルが、復号又は符号化されるべき前記ブロックに隣接し、かつ前記サンプルと同じ垂直方向位置にある、請求項1もしくは2に記載の方法、又は請求項3もしくは4に記載の装置。
- 前記第1差が、復号又は符号化されるべき前記ブロック内の前記サンプルの垂直方向位置に依存する第1スケーリングファクタによってスケーリングされ、前記第2差が、復号又は符号化されるべき前記ブロック内の前記サンプルの水平方向位置に依存する第2スケーリングファクタによってスケーリングされる、請求項1、2、5のいずれかに記載の方法、又は請求項3〜5のいずれか1項に記載の装置。
- 前記第1スケーリングファクタ及び前記第2スケーリングファクタが、前記ブロックの幅及び高さのうちの少なくとも1つに依存する、請求項1、2、5、及び6のいずれか1項に記載の方法、又は請求項3〜6のいずれか1項に記載の装置。
- 前記第1予測子が、前記ブロックの上側の参照サンプルを使用して取得され、前記第2予測子が、前記ブロックの左側の参照サンプルを使用して取得される、請求項1、2及び5〜7のいずれか1項に記載の方法、又は請求項3〜7のいずれか1項に記載の装置。
- 前記第1予測子が、左上の参照サンプルと右上の参照サンプルとの補間であり、前記第2予測子が、左上の参照サンプルと左下の参照サンプルとの補間である、請求項8に記載の方法、又は請求項8に記載の装置。
- 前記ブロック内の第2サンプルに関する予測子が前記第1予測子として使用され、前記第2サンプルが前記第1参照サンプルに隣接し、前記ブロック内の第3サンプルに関する予測子が前記第2の予測子として使用され、前記第3サンプルが前記第2参照サンプルに隣接する、請求項1、2及び5〜9のいずれか1項に記載の方法、又は請求項3〜9のいずれか1項に記載の装置。
- 前記サンプルに関する前記初期予測子を調整するかどうかが、前記第1差及び前記第2差に基づく、請求項1、2及び3〜10のいずれか1項に記載の方法、及び請求項3〜10に記載の装置。
- 前記1つ又は複数のプロセッサが、
それぞれが参照サンプルに対応した複数の差を取得することと、
前記サンプルに関する前記初期予測値が前記複数の差の平均に基づいて調整されるべきであることを決定することと、を実行するようにさらに構成される、請求項11に記載の方法、又は請求項11に記載の装置。 - 前記サンプルに関する前記初期予測子を調整するかどうかが、前記ブロックのビット深度とブロックサイズとのうちの少なくとも1つにさらに基づく、請求項11もしくは12に記載の方法、又は請求項11もしくは12に記載の装置。
- 前記ブロックが、DC又はplanarイントラ予測モードで復号又は符号化される、請求項1、2及び3〜13のいずれか1項に記載の方法、又は請求項3〜13のいずれか1項に記載の装置。
- 前記ブロックが、DCモードで、復号又は符号化され、前記第1予測子が、上側の参照サンプルの平均に対応し、前記第2予測子が、左側の参照サンプルの平均に対応する、請求項1、2及び3〜14のいずれか1項に記載の方法、又は請求項3〜14のいずれか1項に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18305746 | 2018-06-18 | ||
EP18305746.2 | 2018-06-18 | ||
EP18306108.4 | 2018-08-13 | ||
EP18306108.4A EP3611920A1 (en) | 2018-08-13 | 2018-08-13 | Boundary filtering for planar and dc modes in intra prediction |
PCT/US2019/029724 WO2019245650A1 (en) | 2018-06-18 | 2019-04-29 | Boundary filtering for planar and dc modes in intra prediction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021528877A true JP2021528877A (ja) | 2021-10-21 |
JPWO2019245650A5 JPWO2019245650A5 (ja) | 2022-05-12 |
JP7473478B2 JP7473478B2 (ja) | 2024-04-23 |
Family
ID=66554474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020554486A Active JP7473478B2 (ja) | 2018-06-18 | 2019-04-29 | イントラ予測におけるplanarモード及びdcモードの境界フィルタリング |
Country Status (6)
Country | Link |
---|---|
US (1) | US11368677B2 (ja) |
EP (1) | EP3808079A1 (ja) |
JP (1) | JP7473478B2 (ja) |
CN (1) | CN112272950A (ja) |
MX (1) | MX2020013481A (ja) |
WO (1) | WO2019245650A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020211849A1 (en) * | 2019-04-19 | 2020-10-22 | Huawei Technologies Co., Ltd. | Method and apparatus for division-free intra-prediction |
CN117478878A (zh) * | 2019-07-09 | 2024-01-30 | 北京字节跳动网络技术有限公司 | 用于自适应环路滤波的样点确定 |
CN114503594B (zh) | 2019-09-22 | 2024-04-05 | 北京字节跳动网络技术有限公司 | 自适应环路滤波中样点填充的选择性应用 |
EP4022910A4 (en) | 2019-09-27 | 2022-11-16 | Beijing Bytedance Network Technology Co., Ltd. | ADAPTIVE LOOP FILTERING BETWEEN DIFFERENT VIDEO UNITS |
WO2021068906A1 (en) | 2019-10-10 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Padding process at unavailable sample locations in adaptive loop filtering |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015109695A (ja) * | 2010-01-07 | 2015-06-11 | 株式会社東芝 | 動画像符号化装置及び動画像復号化装置 |
JP2016040935A (ja) * | 2011-06-20 | 2016-03-24 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像符号化/復号化方法及びその装置 |
US20170310986A1 (en) * | 2014-12-11 | 2017-10-26 | Mediatek Inc. | Method and apparatus of intra prediction in video coding |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2658263T3 (pl) * | 2010-12-22 | 2023-03-13 | Lg Electronics Inc. | Sposób predykcji wewnątrzramkowej i urządzenie wykorzystujące ten sposób |
KR101383775B1 (ko) * | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
GB2494468B (en) * | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
US9282344B2 (en) * | 2011-11-04 | 2016-03-08 | Qualcomm Incorporated | Secondary boundary filtering for video coding |
WO2014003421A1 (ko) * | 2012-06-25 | 2014-01-03 | 한양대학교 산학협력단 | 비디오 부호화 및 복호화를 위한 방법 |
US10499053B2 (en) * | 2014-10-31 | 2019-12-03 | Mediatek Inc. | Method of improved directional intra prediction for video coding |
US10523949B2 (en) * | 2016-05-25 | 2019-12-31 | Arris Enterprises Llc | Weighted angular prediction for intra coding |
CN114286091A (zh) * | 2016-09-05 | 2022-04-05 | Lg电子株式会社 | 图像编码和解码方法、比特流存储介质及数据传输方法 |
US11166036B2 (en) * | 2016-09-30 | 2021-11-02 | Lg Electronics Inc. | Image processing method and apparatus therefor |
KR102424239B1 (ko) * | 2017-04-28 | 2022-07-25 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
-
2019
- 2019-04-29 CN CN201980038582.3A patent/CN112272950A/zh active Pending
- 2019-04-29 MX MX2020013481A patent/MX2020013481A/es unknown
- 2019-04-29 WO PCT/US2019/029724 patent/WO2019245650A1/en unknown
- 2019-04-29 JP JP2020554486A patent/JP7473478B2/ja active Active
- 2019-04-29 EP EP19724647.3A patent/EP3808079A1/en active Pending
- 2019-04-29 US US17/047,049 patent/US11368677B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015109695A (ja) * | 2010-01-07 | 2015-06-11 | 株式会社東芝 | 動画像符号化装置及び動画像復号化装置 |
JP2016040935A (ja) * | 2011-06-20 | 2016-03-24 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像符号化/復号化方法及びその装置 |
US20170310986A1 (en) * | 2014-12-11 | 2017-10-26 | Mediatek Inc. | Method and apparatus of intra prediction in video coding |
Non-Patent Citations (1)
Title |
---|
LIN, JIAN-LIANG ET AL.: "3D-CE5 related: Removal of Boundary Filters for Depth Intra Prediction", JCT3V-G0051 (VERSION 2), JPN6023022033, 23 July 2014 (2014-07-23), pages 1 - 5, ISSN: 0005073267 * |
Also Published As
Publication number | Publication date |
---|---|
MX2020013481A (es) | 2021-02-26 |
WO2019245650A1 (en) | 2019-12-26 |
US11368677B2 (en) | 2022-06-21 |
CN112272950A (zh) | 2021-01-26 |
US20210195171A1 (en) | 2021-06-24 |
EP3808079A1 (en) | 2021-04-21 |
JP7473478B2 (ja) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7473478B2 (ja) | イントラ予測におけるplanarモード及びdcモードの境界フィルタリング | |
KR20210083353A (ko) | 이웃 샘플 의존 파라메트릭 모델에 기초한 코딩 모드의 단순화 | |
US11985306B2 (en) | Method and apparatus for video encoding and decoding with matrix based intra-prediction | |
EP3954118A1 (en) | Wide angle intra prediction with sub-partitions | |
EP3854098A1 (en) | Method and device for picture encoding and decoding | |
CN111937383B (zh) | 视频编码和解码中的色度量化参数调整 | |
WO2020086248A1 (en) | Method and device for picture encoding and decoding | |
WO2020263799A1 (en) | High level syntax for controlling the transform design | |
KR20220053516A (ko) | 비디오 인코딩 및 디코딩에 대한 인트라 예측 | |
EP3641311A1 (en) | Encoding and decoding methods and apparatus | |
JP2021528893A (ja) | 可変重みを使用する複数参照イントラ予測 | |
US20220256161A1 (en) | Method and apparatus for video encoding and decoding with matrix based intra-prediction | |
US11991389B2 (en) | Method and apparatus for video encoding and decoding with optical flow based on boundary smoothed motion compensation | |
EP3611920A1 (en) | Boundary filtering for planar and dc modes in intra prediction | |
US11563975B2 (en) | Motion compensation boundary filtering | |
CN118077198A (zh) | 用于对视频进行编码/解码的方法和装置 | |
WO2024002699A1 (en) | Intra sub-partition improvements | |
WO2021001215A1 (en) | Chroma format dependent quantization matrices for video encoding and decoding | |
WO2024012810A1 (en) | Film grain synthesis using encoding information | |
WO2020260310A1 (en) | Quantization matrices selection for separate color plane mode | |
WO2023194104A1 (en) | Temporal intra mode prediction | |
WO2024064329A1 (en) | Reinforcement learning-based rate control for end-to-end neural network bsed video compression | |
EP3997876A1 (en) | Luma to chroma quantization parameter table signaling | |
CN117616750A (zh) | 基于模板的帧内模式推导 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7473478 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |