JP7317965B2 - コンテキストベースのイントラ予測 - Google Patents
コンテキストベースのイントラ予測 Download PDFInfo
- Publication number
- JP7317965B2 JP7317965B2 JP2021531144A JP2021531144A JP7317965B2 JP 7317965 B2 JP7317965 B2 JP 7317965B2 JP 2021531144 A JP2021531144 A JP 2021531144A JP 2021531144 A JP2021531144 A JP 2021531144A JP 7317965 B2 JP7317965 B2 JP 7317965B2
- Authority
- JP
- Japan
- Prior art keywords
- samples
- chroma
- cclm
- chroma samples
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 657
- 241000023320 Luma <angiosperm> Species 0.000 claims description 376
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims description 376
- 230000009466 transformation Effects 0.000 claims description 64
- 238000006243 chemical reaction Methods 0.000 claims description 55
- 229910052739 hydrogen Inorganic materials 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 20
- 239000000523 sample Substances 0.000 description 315
- 238000012545 processing Methods 0.000 description 119
- 238000005516 engineering process Methods 0.000 description 74
- 230000008569 process Effects 0.000 description 44
- 238000004590 computer program Methods 0.000 description 31
- 101150067055 minC gene Proteins 0.000 description 28
- 230000006870 function Effects 0.000 description 21
- 101150076173 cntL gene Proteins 0.000 description 18
- 238000009795 derivation Methods 0.000 description 16
- 229910052717 sulfur Inorganic materials 0.000 description 12
- 238000003491 array Methods 0.000 description 11
- 229910052698 phosphorus Inorganic materials 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000005286 illumination Methods 0.000 description 10
- 230000001419 dependent effect Effects 0.000 description 9
- 229910052760 oxygen Inorganic materials 0.000 description 9
- 230000001131 transforming effect Effects 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 229910052757 nitrogen Inorganic materials 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000013074 reference sample Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 101100155952 Escherichia coli (strain K12) uvrD gene Proteins 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100149023 Bacillus subtilis (strain 168) secA gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Color Television Systems (AREA)
Description
クロスコンポーネント予測は、複雑性と圧縮効率改善との間にバランスの良いトレードオフを持つクロマ(chroma)・ツー・ルマ(luma)予測アプローチの一形態である。
一部の実施形態において、また、クロスコンポーネント冗長性を低減させるために、クロスコンポーネント線形モデル(cross-component linear model;CCLM)予測モード(LMとしても参照される)がJEMにおいて使用され、そこでは、クロマサンプルが、以下:
JEMにおいては、単一モデルCCLMモードと複数モデルCCLMモード(MMLM)という2つのCCLMモードが存在する。名称によって示されるように、単一モデルCCLMモードは、CU全体についてルマサンプルからクロマサンプルを予測するために1つの線形モデルを使用するのに対し、MMLMでは2つのモデルが存在することができる。
一部の実施形態において、4つのルマサンプルが1つのクロマサンプルに対応する4:2:0クロマフォーマットについて、クロマ予測を実行するために、再構成ルマブロックは、クロマ信号のサイズに一致するようにダウンサンプリングされる必要がある。CCLMモードで使用されるデフォルトのダウンサンプリングフィルタは、以下:
この既存の実装は、多方向(multi-directional)LM(MDLM)を提案する。MDLMでは、2つの更なるCCLMモードが提案され、すなわち、図4Aに示すように線形モデルパラメータが上(top又はabove)の隣接サンプルのみに基づいて導出されるLM-A、及び図4Bに示すように線形モデルパラメータが左の隣接サンプルのみに基づいて導出されるLM-Lが提案される。
この既存の実装は、線形モデルパラメータαとβのLMSアルゴリズムを直線方程式、いわゆる二点法、に置き換えることを提案する。二点(LumaとChromaのカップル)(A、B)は、図5に示すように、隣接Lumaサンプルの集合内の最小値と最大値である。
α=(yB-yA)/(xB-xA)、及びβ=yA-αxA
に従って得られる。
a=0;
Shift=16;
intshift=(uiInternalBitDepth>8)?uiInternalBitDepth-9:0;
intadd=shift?1<<(shift-1):0;
intdiff=(MaxLuma-MinLuma+add)>>shift;
if(diff>0)
{
intdiv=((MaxChroma-MinChroma)*g_aiLMDivTableLow[diff-1]+32768)>>16;
a=(((MaxChroma-MinChroma)*g_aiLMDivTableHigh[diff-1]+div+add)>>shift);
}
b=MinLuma[1]-((a*MinLuma[0])>>iShift);
JEMにおいてと同様のCCLMがVTM-2.0で採用されているが、JEMにおけるMM-CCLMはVTM-2.0で採用されていない。VTM-3.0にはMDLM及び単純化されたCCLMが採用されている。
局所照明補償(Local Illumination Compensation;LIC)は、スケーリング係数aとオフセットbを用いた、照明変化に関する線形モデルに基づく。また、それは、インターモード符号化される符号化ユニット(CU)ごとに適応的に有効又は無効にされる。
現行の実装は、JEMにおけるLMモードのLMSアプローチを置き換えるように二点法を導入している。この新たな方法はCCLMにおける加算及び乗算の数を減少させるが、以下の問題を導入する。
ここで開示される技術の実施形態は、既存の実装の欠点を克服し、それにより、より高い符号化効率及びより低い計算複雑性を有する映像符号化を提供する。開示される技術に基づく、クロスコンポーネント予測のための単純化された線形モデル導出は、既存の及び将来の映像符号化標準の双方を強化することができ、種々の実装に関して説明される以下の例にて明らかになる。以下に提供される開示技術の例は、一般的概念を説明するものであり、限定するものとして解釈されることを意味するものではない。一例において、そうでないことが明示的に示されない限り、これらの例にて説明される様々な特徴は組み合わされることができる。
A:左側の上サンプル:[x-1,y]、
B:左側の上中間サンプル:[x-1,y+H/2-1]、
C:左側の下中間サンプル:[x-1,y+H/2]、
D:左側の下サンプル:[x-1,y+H-1]、
E:左側の下拡張上サンプル:[x-1,y+H]、
F:左側の下拡張上中間サンプル:[x-1,y+H+H/2-1]、
G:左側の下拡張下中間サンプル:[x-1,y+H+H/2]、
I:左側の下拡張下サンプル:[x-1,y+H+H-1]、
J:上側の左サンプル:[x,y-1]、
K:上側の左中間サンプル:[x+W/2-1,y-1]、
L:上側の右中間サンプル:[x+W/2,y-1]、
M:上側の右サンプル:[x+W-1,y-1]、
N:上側の上拡張左サンプル:[x+W,y-1]、
O:上側の上拡張左中間サンプル:[x+W+W/2-1,y-1]、
P:上側の上拡張右中間サンプル:[x+W+W/2,y-1]、及び
Q:上側の上拡張右サンプル:[x+W+W-1,y-1]
として表記される。
a. 導出は、選択されたクロマサンプルの対応するダウンサンプリングされたルマサンプルにも依存する。あるいは、導出は、例えばそれが4:4:4カラーフォーマットである場合などに、選択されたクロマサンプルの対応するルマサンプルにも依存する。
b. 例えば、CCLMにおけるパラメータα及びβは、例えば2S(例えば、S=2又は3)の位置のクロマサンプルから導出され、例えば:
i. 位置{A,D,J,M};
ii. 位置{A,B,C,D,J,K,L,M};
iii.位置{A,I,J,Q};
iv.位置{A,B,D,I,J,K,M,Q};
v.位置{A,B,D,F,J,K,M,O};
vi.位置{A,B,F,I,J,K,O,Q};
vii.位置{A,C,E,I,J,L,N,Q};
viii.位置{A,C,G,I,J,L,P,Q};
ix.位置{A,C,E,G,J,L,N,P};
x.位置{A,B,C,D};
xi.位置{A,B,D,I};
xii.位置{A,B,D,F};
xiii.位置{A,C,E,I};
xiv.位置{A,C,G,I};
xv.位置{A,C,E,G};
xvi.位置{J,K,L,M};
xvii.位置{J,K,M,Q};
xviii.位置{J,K,M,O};
xix.位置{J,K,O,Q};
xx.位置{J,L,N,Q};
xxi.位置{J,L,P,Q};
xxii.位置{J,L,N,P};
xxiii.位置{A,B,C,E,E,F,G,I};
xxiv.位置{J,K,L,M,N,O,P,Q};
などから導出される。
c. 例えば、CCLMにおけるパラメータα及びβは、以下の位置のクロマサンプルから導出される:
i. 例えば以下などの、{A,B,C,D,E,F,G,I}と{J,K,L,M,N,O,P,Q}との間の任意の組み合わせ
(a)位置A及びJ;
(b)位置B及びK;
(c)位置C及びL;
(d)位置D及びM;
(e)位置E及びN;
(f)位置F及びO;
(g)位置G及びP;
(h)位置I及びQ;
ii. {A,B,C,D,E,F,G}からフェッチされる任意の2つの異なる位置
(a)位置A及びB;
(b)位置A及びC;
(c)位置A及びD;
(d)位置A及びE;
(e)位置A及びF;
(f)位置A及びG;
(g)位置A及びI;
(h)位置D及びB;
(i)位置D及びC;
(j)位置E及びB;
(k)位置E及びC;
(l)位置I及びB;
(m)位置I及びC;
(n)位置I及びD;
(o)位置I及びE;
(p)位置I及びF;
(q)位置I及びG;
iii. {J,K,L,M,N,O,P,Q}からフェッチされる任意の2つの異なる位置
(a)位置J及びK;
(b)位置J及びL;
(c)位置J及びM;
(d)位置J及びN;
(e)位置J及びO;
(f)位置J及びP;
(g)位置J及びQ;
(h)位置M及びK;
(i)位置M及びL;
(j)位置N及びK;
(k)位置N及びL;
(l)位置Q及びK;
(m)位置Q及びL;
(n)位置Q及びM;
(o)位置Q及びN;
(p)位置Q及びO;
(q)位置Q及びP;
(r)位置Q及びQ;
iv. 一例において、2つの選択された位置が同じルマ値を持つ場合、もっと多くの位置が更にチェックされ得る。
d. 例えば、二点法でCCLMにおけるパラメータα及びβを導出するために、利用可能な全てのクロマサンプルが、最小及び最大のルマ値を見つけるために検索されるわけではない。
e. モードLM-Lでは、選択される全てのサンプルが左の隣接サンプルでなければならない。
f. モードLM-Aでは、選択される全てのサンプルが上の隣接サンプルでなければならない。
g. 選択される位置は固定されてもよいし、適応的にされてもよい。
ii. 一例において、どの位置が選択されるかは、例えばVPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CU/PU内などで、エンコーダからデコーダに信号伝達され得る。
h. 式(2)及び式(3)に示した最小二乗平均法でパラメータα及びβを導出するために、選択されたクロマサンプルが使用される。式(2)及び式(3)において、Nは、選択されたサンプルの数に設定される。
i. 二点法でパラメータα及びβを導出するために、一対の選択されたクロマサンプルが使用される。
j. 一例において、サンプルをどのように選択するかは、隣接ブロックの利用可能性に依存し得る。
a. 一例において、αは、α1、…、αNの平均として計算され、βは、β1、…、βNの平均として計算される。
(α1,β1)を用いて、CP=SignShift(α1×LR+β1,SH1)
として計算されるが、
(α2,β2)を用いると、CP=SignShift(α2×LR+β2,SH2)として計算され、Sh1はSh2に等しくなく、パラメータは結合される前にシフトされる必要がある。Sh1>Sh2とすると、結合される前に、パラメータは、
(a)α1=SignShift(α1,Sh1-Sh2)、β1=SignShift(β1,Sh1-Sh2)のようにシフトされるべきである。すると、最終的な精度は(α2,β2)となる。
b. グループ1及びグループ2の位置の一部の例:
i. グループ1:位置A及びD、グループ2:位置J及びM
ii. グループ1:位置A及びI、グループ2:位置J及びQ
iii. グループ1:位置A及びD、グループ2:位置E及びIであり、2つのグループがモードLM-Lに使用される
iv. グループ1:位置J及びM、グループ2:位置N及びQであり、2つのグループがモードLM-Aに使用される
v. グループ1:位置A及びB、グループ2:位置C及びDであり、2つのグループがモードLM-Lに使用される
vi. グループ1:位置J及びK、グループ2:位置L及びMであり、2つのグループがモードLM-Aに使用される。
α=(C1-C0)/(L1-L0)、及びβ=C0-αL0
として、α及びβを導出することができる。
a. L1がL0に等しい場合、αは0として出力される。あるいは、L1がL0に等しい場合、CCLMモードを使用する代わりに、特定のイントラ予測モード(例えば、DMモード、DC又はプレーナ)を使用して、予測ブロックを導出する。
α=SignShift(C1-C0,Floor(log2(L1-L0)))
ii. α=Shift(C1-C0,Ceiling(log2(L1-L0)))、又は
α=SignShift(C1-C0,Ceiling(log2(L1-L0)))
iii. L1-L0の値に基づいて例i又は例iiが選択され得る。
(Floor(log2(L1-L0))+Ceiling(log2(L1-L0)))/2
とされることができる。
α=Shift((C1-C0)×M[k-Z],D)、又は
α=SignShift((C1-C0)×M[k-Z],D)
vi. クロマ予測CPをその対応する(例えば、4:2:0の場合にダウンサンプリングされた)ルマサンプルLRから得るために、それが、以下のように計算される:
CP=SignShift(α×LR+β,Sh)、又は
CP=Shift(α×LR+β,Sh)
vii. Shは固定された数であってもよいし、α及びベータを計算するために用いられたC0、C1、L0、L1の値に依存してもよい。
a. Wは、BL、V、及びZに依存し得る。
α=(Shift(P×M[k-Z],D))<<W、又は
α=(SignShift(P×M[k-Z],D))<<W
として計算される。
(a)w1+w2=1
ii. P(x,y)=(w1*P1(x,y)+w2*P2(x,y)+Offset)>>shiftであり、ここで、offsetは、0又は1<<(shift-1)であり、shiftは、例えば1、2、3、…などの整数である。
iii. P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)*P2(x,y)+Offset)>>shiftであり、ここで、offsetは、0又は1<<(shift-1)であり、shiftは、例えば1、2、3、…などの整数である。
(b)例えば、x>yの場合、w1<w2(例えば、w1=1、w2=3)、
(c)例えば、x==yの場合、w1=w2(例えば、w1=2、w2=2)、
(d)例えば、x<yのときにy-xが増加する場合、w1-w2が増加する、
(e)例えば、x>yのときにx-yが増加する場合、w2-w1が増加する。
α=(MaxC-MinC)/(MaxL-MinL)
β=MinC-αMinL
i. 一例において、f1、f2、f3、f4は全て平均化関数を表す。
(b)一例において、左上の隣接ブロックが利用可能でない場合、そのことは、CCLMモードを適用しないこととみなされる。
(c)一例において、左上の隣接ブロックが利用可能でない場合、そのことは、CCLMモードを適用することとみなされる。
(d)一例において、左上の隣接ブロックがイントラ符号化されていない場合、そのことは、CCLMモードを適用しないこととみなされる。
(e)一例において、左上の隣接ブロックがイントラ符号化されていない場合、そのことは、CCLMモードを適用することとみなされる。
(i)C0=f0(Cx1,Cx2,…,CxS)、L0=f1(Lx1,Lx2,…,LxS)、C1=f2(Cy1,Cy2,…,CyT)、L1=f4(Ly1,Ly2,…,LyT)。f0、f1、f2及びf3は何らかの関数である。
(a)G0={S0,S1}、G1={S2,S3};
(b)G0={S1,S0}、G1={S3,S2};
(c)G0={S0,S2}、G1={S1,S3};
(d)G0={S2,S0}、G1={S3,S1};
(e)G0={S1,S2}、G1={S0,S3};
(f)G0={S2,S1}、G1={S3,S0};
(g)G0={S0,S3}、G1={S1,S2};
(h)G0={S3,S0}、G1={S2,S1};
(i)G0={S1,S3}、G1={S0,S2};
(j)G0={S3,S1}、G1={S2,S0};
(k)G0={S3,S2}、G1={S0,S1};
(l)G0={S2,S3}、G1={S1,S0};
(m)G0とG1とが交換されてもよい。
一例において、対応するクロマサンプルがCCLMパラメータを導出するために必要とされる位置にある隣接ルマサンプルのみが、ダウンサンプリングされる必要がある。
この文書にて開示される方法をどのように行うかは、カラーフォーマット(例えば4:2:0又は4:4:4など)に依存し得る。
CCLMパラメータを導出するために使用されるルマ及びクロマコンポーネントの最大/最小値を導出するかは、左及び上で隣接するものの利用可能性に依存し得る。例えば、左及び上のどちらの隣接ブロックも利用可能でない場合には、CCLMパラメータを導出するために使用されるルマ及びクロマコンポーネントの最大/最小値は導出されないとし得る。
一例において、CCLMで使用されるパラメータを導出するための提案される方法は、線形モデルをあてにするLIC又は他の符号化ツールで使用されるパラメータを導出するために使用され得る。
(1)widthとheightとの比rが、式(18)のように計算される。
図16は、128、64、及び32個エントリを持ち、各エントリが16ビットで表現されるルックアップテーブルの例を示している。二点LM導出プロセスは、表1及び図17に示すように、64個のエントリで簡略化される。留意すべきことには、最初のエントリはテーブルに格納されなくてもよい。
g_aiLMDivTableHighSimp_64_8[i]=(g_aiLMDivTableHighSimp_64[i]+128)>>8
g_aiLMDivTableHighSimp_64_12[i]=(g_aiLMDivTableHighSimp_64[i]+8)>>4
現在クロマブロックのブロック幅及び高さをそれぞれW及びHとする。また、現在クロマブロックの左上の座標は[0,0]であるとする。
このセクションでは、VVC標準の現段階での草案におけるものに対応する式番号を用いて式を記述する。
- イントラ予測モードpredModeIntra、
- 現在ピクチャの左上のサンプルに対する現在変換ブロックの左上のサンプルのサンプル位置(xTbC, yTbC)、
- 変換ブロック幅を規定する変数nTbW、
- 変換ブロック高さを規定する変数nTbH、
- x=-1, y=0..2*nTbH-1、及びx=0..2*nTbW-1, y=-1のクロマ隣接サンプルp[x][y]。
(xTbY, yTbY)=(xTbC<<1, yTbC<<1) (8-155)
...
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-156)
numSampL=availL? nTbH:0 (8-157)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)? (nTbW+numTopRight):0 (8-158)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)? (nTbH+numLeftBelow):0 (8-159)
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-160)
- numSampL及びnumSampTの双方が0に等しい場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-161)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. ...[現行仕様に対して変更なし]
2. ...
3. ...
4. ...
5. ...
6. [現行仕様に対して変更なし]
7. 変数minY、maxY、minC及びmaxCが、次のように導出される:
- 変数minYがは、1<<(BitDepthY)+1に等しく設定され、変数maxYは-1に等しく設定される
- avalLがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLMに等しい場合、変数aboveIs4は0に等しく設定され、それ例外の場合、それは1に等しく設定される
- avallTがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLMに等しい場合、変数LeftIs4は0に等しく設定され、それ例外の場合、それは1に等しく設定される
- 変数配列startPos[]及びpickStep[]は次のように導出される:
- startPos[0]=actualTopTemplateSampNum>>(2+aboveIs4);
- pickStep[0]=std::max(1, actualTopTemplateSampNum>>(1+aboveIs4));
- startPos[1]=actualLeftTemplateSampNum>>(2+leftIs4);
- pickStep[1]=std::max(1, actualLeftTemplateSampNum>>(1+leftIs4));
- 変数cntは0に等しく設定される
- predModeIntraがINTRA_LT_CCLMに等しい場合、変数nSXはnTbWに等しく設定され、nSYはnTbHに等しく設定され、それ以外の場合、nSXはnumSampLTに等しく設定され、nSYはnumSampLに等しく設定される
- avallTがTRUEに等しく、且つpredModeIntraがINTRA_L_CCLMに等しくない場合、変数selectLumaPix、selectChromaPixは次のように導出される:
- startPos[0]+cnt*pickStep[0]<nSX、且つcnt<4である間、以下が適用される:
- selectLumaPix[cnt]=pTopDsY[startPos[0]+cnt*pickStep[0]];
- selectChromaPix[cnt]=p[startPos[0]+cnt*pickStep[0]][-1];
- cnt++;
- avalLがTRUEに等しく、且つpredModeIntraがINTRA_T_CCLMに等しくない場合、変数selectLumaPix、selectChromaPixは次のように導出される:
- startPos[1]+cnt*pickStep[1]<nSY、且つcnt<4である間、以下が適用される:
- selectLumaPix[cnt]=pLeftDsY[startPos[1]+cnt*pickStep[1]];
- selectChromaPix[cnt]=p[-1][startPos[1]+cnt*pickStep[1]];
- cnt++;
- cntが2に等しい場合、以下が適用される:
- selectLumaPix[0]>selectLumaPix[1]である場合、minYはselectLumaPix[1]に等しく設定され、minCはselectChromaPix[1]に等しく設定され、maxYはselectLumaPix[0]に等しく設定され、そして、maxCはselectChromaPix[0]に等しく設定され、それ以外の、maxYはselectLumaPix[1]に等しく設定され、maxCはselectChromaPix[1]に等しく設定され、minYはselectLumaPix[0]に等しく設定され、そして、minCはselectChromaPix[0]に等しく設定される
- それ以外の場合、cntが4に等しい場合には、以下が適用される:
- 変数配列minGrpIdx及びmaxGrpIdxが、
-minGrpIdx[0]=0、minGrpIdx[1]=1、maxGrpIdx[0]=2、maxGrpIdx[1]=3
として初期化され、
- 以下が適用される:
- selectLumaPix[minGrpIdx[0]]>selectLumaPix[minGrpIdx[1]]の場合、minGrpIdx[0]とminGrpIdx[1とを交換する;
- selectLumaPix[maxGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]]の場合、maxGrpIdx[0]とmaxGrpIdx[1]とを交換する;
- selectLumaPix[minGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]]の場合、minGrpIdxとmaxGrpIdxとを交換する;
- selectLumaPix[minGrpIdx[1]]>selectLumaPix[maxGrpIdx[0]]の場合、minGrpIdx[1]とmaxGrpIdx[0]とを交換する;
- maxY、maxC、minY及びminCが次のように導出される:
- maxY=(selectLumaPix[maxGrpIdx[0]]+selectLumaPix[maxGrpIdx[1]]+1)>>1;
- maxC=(selectChromaPix[maxGrpIdx[0]]+selectChromaPix[maxGrpIdx[1]]+1)>>1;
- maxY=(selectLumaPix[minGrpIdx[0]]+selectLumaPix[minGrpIdx[1]]+1)>>1;
- maxC=(selectChromaPix[minGrpIdx[0]]+selectChromaPix[minGrpIdx[1]]+1)>>1;
-
8. 変数a、b、kは次のように導出される:
[変更の終了]
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる変更を示す別の例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight, nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow, nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availN&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1, numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNは(1+numIs4N)<<1に等しく設定され、pickPosN[pos]は、pos=0..(cntN-1)での(startPosN+pos*pickStepN)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、x = 0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=0..(cntT-1)のp[pickPosT[idx]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. 変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、idx=0及び1で、pSelC[idx+2]=pSelC[idx]及びpSelDsY[idx+2]=pSelDsY[idx]と設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=1, maxGrpIdx[0]=2, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx ).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)? 1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)? 1:3+x-y (8-218)
a=((3+x-y)<1)? Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k ) (8-220)
ここで、divSigTable[ ]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
[実施形態例の終了]
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる変更を示す別の例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
…
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow, nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availN&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1,numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNはMin(numSampN,(1+numIs4N)<<1)に等しく設定され、pickPosN[pos]は(startPosN+pos*pickStepN),withpos=0..(cntN-1)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、x=0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[0][0]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=0..(cntT-1)のp[pickPosT[idx]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. cntT+ cntLが0に等しくないとき、変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、CompをDsY及びCで置き換えて、pSelComp[3]をpSelComp[0]に等しく設定し、pSelComp[2]をpSelComp[1]に等しく設定し、pSelComp[0]をpSelComp[1]に等しく設定し、そして、pSelComp[1]をpSelComp[3] に等しく設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=1, maxGrpIdx[0]=2, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]] > pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
ここで、divSigTable[]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる別の変更を示す代替的な例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
…
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availT&&availL&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1,numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNはMin(numSampN,(1+numIs4N)<<1)に等しく設定され、pickPosN[pos]は、pos=0..(cntN-1)での(startPosN+pos*pickStepN)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、x=0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[0][0]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=cntL..(cntL+cntT-1)のp[pickPosT[idx-cntL]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x > 0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTL がFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. cntT+cntLが0に等しくないとき、変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、CompをDsY及びCで置き換えて、pSelComp[3]をpSelComp[0]に等しく設定し、pSelComp[2]をpSelComp[1]に等しく設定し、pSelComp[0]をpSelComp[1]に等しく設定し、そして、pSelComp[1]をpSelComp[3]に等しく設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=2, maxGrpIdx[0]=1, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]] > pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx ).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)? 1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)? 1:3+x-y (8-218)
a=((3+x-y)<1)? Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
ここで、divSigTable[]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1,y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
図30Aは、映像処理装置3000のブロック図である。装置3000は、ここに記載される方法のうちの1つ以上を実装するために使用され得る。装置3000は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信器にて具現化され得る。装置3000は、1つ以上のプロセッサ3002、1つ以上のメモリ3004、及び映像処理ハードウェア3006を含み得る。(1つ以上の)プロセッサ3002は、本文書に記載される1つ以上の方法(これらに限られないが、図18-29Cに示した方法を含む)を実行するように構成され得る。(1つ以上の)メモリ3004は、ここに記載される方法及び技術を実行するのに使用されるデータ及びコードを格納するために使用され得る。映像処理ハードウェア3006は、本文書に記載される一部の技術をハードウェア回路にて実装するために使用され得る。
座標(x-1,y)を有するサンプルA、
座標(x-1,y+H/2-1)を有するサンプルB、
座標(x-1,y+H/2)を有するサンプルC、
座標(x-1,y+H-1)を有するサンプルD、
座標(x-1,y+H)を有するサンプルE、
座標(x-1,y+H+H/2-1)を有するサンプルF、
座標(x-1,y+H+H/2)を有するサンプルG、
座標(x-1,y+H+H-1)を有するサンプルI、
座標(x,y-1)を有するサンプルJ、
座標(x+W/2-1,y-1)を有するサンプルK、
座標(x+W/2,y-1)を有するサンプルL、
座標(x+W-1,y-1)を有するサンプルM、
座標(x+W,y-1)を有するサンプルN、
座標(x+W+W/2-1,y-1)を有するサンプルO、
座標(x+W+W/2,y-1)を有するサンプルP、又は
座標(x+W+W-1,y-1)を有するサンプルQ、
のうちの少なくとも1つを有する、項5に記載の方法。
16. m=1であり、且つS1=SN-1である、項13又は14に記載の方法。
Ceiling(x)は、x以上の最小の整数を出力する天井関数である、項2に記載の方法。
22. (Lx1,Lx2,…,LxS)は、一群のルマサンプルのうちの最小サンプルである、項16に記載の方法。
19. 前記現在映像ブロックの前記符号化モードは、左の隣接サンプルからの2つのサンプルと上の隣接サンプルからの2つのサンプルとを使用する第1の線形モード、左の隣接サンプルのみを使用する第2の線形モード、及び上の隣接サンプルのみを使用する第3の線形モードのうちの1つであり、前記現在映像ブロックの左上のサンプルの座標は(x,y)であり、前記現在映像ブロックの幅及び高さはそれぞれW及びHである、項11に記載の方法。
i) G0={S0,S1}、G1={S2,S3}、
ii) G0={S1,S0}、G1={S3,S2}、
iii) G0={S0,S2}、G1={S1,S3}、
iv) G0={S2,S0}、G1={S3,S1}、
v) G0={S1,S2}、G1={S0,S3}、
vi) G0={S2,S1}、G1={S3,S0}、
vii) G0={S0,S3}、G1={S1,S2}、
viii) G0={S3,S0}、G1={S2,S1}、
ix) G0={S1,S3}、G1={S0,S2}、
x) G0={S3,S1}、G1={S2,S0}、
xi) G0={S3,S2}、G1={S0,S1}、又は
xii) Xii)G0={S2,S3}、G1={S1,S0}、
のうちの1つを含み、
S0、S1、S2、S3は、それぞれ、前記4つのクロマサンプルを含み、それぞれ、対応するルマサンプルを更に含む、
項5に記載の方法。
Claims (16)
- 映像コーディング方法であって、
クロマブロックである映像の現在映像ブロックと前記映像のビットストリームとの間での変換のために、少なくとも前記現在映像ブロックの隣接クロマサンプルからの2つ以上のクロマサンプルに基づいて、クロスコンポーネント線形モデル(CCLM)のパラメータを決定するステップであり、前記2つ以上のクロマサンプルは、前記現在映像ブロックのCCLMモードと、前記隣接クロマサンプルの利用可能性とに基づいて選択される、ステップと、
前記現在映像ブロックに対応するルマブロック内に位置するルマサンプルに前記CCLMを適用して前記現在映像ブロックの予測値を導出するステップと、
前記予測値に基づいて前記変換を実行するステップと、
を有し、
前記現在映像ブロックの前記CCLMモードは、左の隣接クロマサンプル及び上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第1のCCLMモードと、左の隣接クロマサンプル及び左下の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第2のCCLMモードと、上の隣接クロマサンプル及び右上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第3のCCLMモードと、のうちの1つであり、前記現在映像ブロックの幅及び高さは、それぞれ、W及びHであり、
前記第2のCCLMモードにおいて、前記左の隣接クロマサンプル及び前記左下の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記左下の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記第3のCCLMモードにおいて、前記上の隣接クロマサンプル及び前記右上の隣接クロマサンプルの双方が利用可能であることに応答して、前記上の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記右上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記CCLMモードが前記第1のCCLMモードであるとき、前記左の隣接クロマサンプル及び前記上の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記2つ以上のクロマサンプルは、更に前記W及び/又は前記Hに基づいて選択され、
前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Wが2に等しいことに応答して、前記上の隣接クロマサンプルからちょうど2つのクロマサンプルが選択され、
前記第1のCCLMモードにおいて、前記上の隣接クロマサンプルのみが利用可能であり且つ前記Wが2より大きいことに応答して、前記上の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、
方法。 - 前記隣接クロマサンプルは、前記現在映像ブロックに対して、前記左の隣接クロマサンプル、前記上の隣接クロマサンプル、前記右上の隣接クロマサンプル、又は前記左下の隣接クロマサンプルを含む、請求項1に記載の方法。
- 前記左の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Hが2に等しいことに応答して、前記左の隣接クロマサンプルからちょうど2つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記左の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Hが2より大きいことに応答して、前記左の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記左の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第2のCCLMモードであり、且つ前記Hが2に等しいことに応答して、前記左の隣接クロマサンプルからちょうど2つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記左の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第2のCCLMモードであり、且つ前記Hが2より大きいことに応答して、前記左の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第3のCCLMモードであり、且つ前記Wが2に等しいことに応答して、前記上の隣接クロマサンプルからちょうど2つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第3のCCLMモードであり、且つ前記Wが2より大きいことに応答して、前記上の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、請求項1又は2に記載の方法。
- 前記2つ以上のクロマサンプルに対応するルマサンプルを決定するステップ、を更に有する請求項1乃至8のいずれか一項に記載の方法。
- 4つのルマサンプルが決定されたことに応答して、前記4つのルマサンプルのうちの2つの最大値が平均されて第1の平均ルマ値が導出され、前記4つのルマサンプルのうちの2つの最小値が平均されて第2の平均ルマ値が導出される、請求項9に記載の方法。
- CCLMの前記パラメータを導出するために、前記第1の平均ルマ値及び前記第2の平均ルマ値が使用される、請求項10に記載の方法。
- 前記変換の前記実行は、前記ビットストリームから前記現在映像ブロックを復号することを含む、請求項1乃至11のいずれか一項に記載の方法。
- 前記変換の前記実行は、前記現在映像ブロックを前記ビットストリームへと符号化することを含む、請求項1乃至11のいずれか一項に記載の方法。
- プロセッサと、命令を有する非一時的なメモリとを有する映像コーディング装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
クロマブロックである映像の現在映像ブロックと前記映像のビットストリームとの間での変換のために、少なくとも前記現在映像ブロックの隣接クロマサンプルからの2つ以上のクロマサンプルに基づいて、クロスコンポーネント線形モデル(CCLM)のパラメータを決定させ、前記2つ以上のクロマサンプルは、前記現在映像ブロックのCCLMモードと、前記隣接クロマサンプルの利用可能性とに基づいて選択され、
前記現在映像ブロックに対応するルマブロック内に位置するルマサンプルに前記CCLMを適用させて、前記現在映像ブロックの予測値を導出させ、
前記予測値に基づいて前記変換を実行させ、
前記現在映像ブロックの前記CCLMモードは、左の隣接クロマサンプル及び上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第1のCCLMモードと、左の隣接クロマサンプル及び左下の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第2のCCLMモードと、上の隣接クロマサンプル及び右上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第3のCCLMモードと、のうちの1つであり、前記現在映像ブロックの幅及び高さは、それぞれ、W及びHであり、
前記第2のCCLMモードにおいて、前記左の隣接クロマサンプル及び前記左下の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記左下の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記第3のCCLMモードにおいて、前記上の隣接クロマサンプル及び前記右上の隣接クロマサンプルの双方が利用可能であることに応答して、前記上の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記右上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記CCLMモードが前記第1のCCLMモードであるとき、前記左の隣接クロマサンプル及び前記上の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記2つ以上のクロマサンプルは、更に前記W及び/又は前記Hに基づいて選択され、
前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Wが2に等しいことに応答して、前記上の隣接クロマサンプルからちょうど2つのクロマサンプルが選択され、
前記第1のCCLMモードにおいて、前記上の隣接クロマサンプルのみが利用可能であり且つ前記Wが2より大きいことに応答して、前記上の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、
装置。 - 命令を格納した非一時的なコンピュータ読み取り可能記憶媒体であって、前記命令は、プロセッサに、
クロマブロックである映像の現在映像ブロックと前記映像のビットストリームとの間での変換のために、少なくとも前記現在映像ブロックの隣接クロマサンプルからの2つ以上のクロマサンプルに基づいて、クロスコンポーネント線形モデル(CCLM)のパラメータを決定させ、前記2つ以上のクロマサンプルは、前記現在映像ブロックのCCLMモードと、前記隣接クロマサンプルの利用可能性とに基づいて選択され、
前記現在映像ブロックに対応するルマブロック内に位置するルマサンプルに前記CCLMを適用させて、前記現在映像ブロックの予測値を導出させ、
前記予測値に基づいて前記変換を実行させ、
前記現在映像ブロックの前記CCLMモードは、左の隣接クロマサンプル及び上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第1のCCLMモードと、左の隣接クロマサンプル及び左下の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第2のCCLMモードと、上の隣接クロマサンプル及び右上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第3のCCLMモードと、のうちの1つであり、前記現在映像ブロックの幅及び高さは、それぞれ、W及びHであり、
前記第2のCCLMモードにおいて、前記左の隣接クロマサンプル及び前記左下の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記左下の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記第3のCCLMモードにおいて、前記上の隣接クロマサンプル及び前記右上の隣接クロマサンプルの双方が利用可能であることに応答して、前記上の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記右上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記CCLMモードが前記第1のCCLMモードであるとき、前記左の隣接クロマサンプル及び前記上の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記2つ以上のクロマサンプルは、更に前記W及び/又は前記Hに基づいて選択され、
前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Wが2に等しいことに応答して、前記上の隣接クロマサンプルからちょうど2つのクロマサンプルが選択され、
前記第1のCCLMモードにおいて、前記上の隣接クロマサンプルのみが利用可能であり且つ前記Wが2より大きいことに応答して、前記上の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、
コンピュータ読み取り可能記憶媒体。 - 映像のビットストリームを格納する方法であって、
少なくとも前記映像の現在映像ブロックの隣接クロマサンプルからの2つ以上のクロマサンプルに基づいて、クロスコンポーネント線形モデル(CCLM)のパラメータを決定するステップであり、前記2つ以上のクロマサンプルは、前記現在映像ブロックのCCLMモードと、前記隣接クロマサンプルの利用可能性とに基づいて選択される、ステップと、
前記現在映像ブロックに対応するルマブロック内に位置するルマサンプルに前記CCLMを適用して前記現在映像ブロックの予測値を導出するステップと、
前記予測値に基づいて前記ビットストリームを生成するステップと、
前記ビットストリームを非一時的なコンピュータ読み取り可能記録媒体に格納するステップと、
を有し、
前記現在映像ブロックの前記CCLMモードは、左の隣接クロマサンプル及び上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第1のCCLMモードと、左の隣接クロマサンプル及び左下の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第2のCCLMモードと、上の隣接クロマサンプル及び右上の隣接クロマサンプルに基づいてCCLMの前記パラメータを導出する第3のCCLMモードと、のうちの1つであり、前記現在映像ブロックの幅及び高さは、それぞれ、W及びHであり、
前記第2のCCLMモードにおいて、前記左の隣接クロマサンプル及び前記左下の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記左下の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記第3のCCLMモードにおいて、前記上の隣接クロマサンプル及び前記右上の隣接クロマサンプルの双方が利用可能であることに応答して、前記上の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記右上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記CCLMモードが前記第1のCCLMモードであるとき、前記左の隣接クロマサンプル及び前記上の隣接クロマサンプルの双方が利用可能であることに応答して、前記左の隣接クロマサンプルから2つのクロマサンプルが選択され、且つ前記上の隣接クロマサンプルから他の2つのクロマサンプルが選択され、
前記2つ以上のクロマサンプルは、更に前記W及び/又は前記Hに基づいて選択され、
前記上の隣接クロマサンプルのみが利用可能であり、前記現在映像ブロックの前記CCLMモードが前記第1のCCLMモードであり、且つ前記Wが2に等しいことに応答して、前記上の隣接クロマサンプルからちょうど2つのクロマサンプルが選択され、
前記第1のCCLMモードにおいて、前記上の隣接クロマサンプルのみが利用可能であり且つ前記Wが2より大きいことに応答して、前記上の隣接クロマサンプルからちょうど4つのクロマサンプルが選択される、
方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023065710A JP2023083395A (ja) | 2018-12-07 | 2023-04-13 | コンテキストベースのイントラ予測 |
Applications Claiming Priority (19)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018119709 | 2018-12-07 | ||
CNPCT/CN2018/119709 | 2018-12-07 | ||
CNPCT/CN2018/125412 | 2018-12-29 | ||
CN2018125412 | 2018-12-29 | ||
CN2019070002 | 2019-01-01 | ||
CNPCT/CN2019/070002 | 2019-01-01 | ||
CNPCT/CN2019/075874 | 2019-02-22 | ||
CN2019075874 | 2019-02-22 | ||
CN2019075993 | 2019-02-24 | ||
CNPCT/CN2019/075993 | 2019-02-24 | ||
CNPCT/CN2019/076195 | 2019-02-26 | ||
CN2019076195 | 2019-02-26 | ||
CN2019079396 | 2019-03-24 | ||
CNPCT/CN2019/079396 | 2019-03-24 | ||
CN2019079431 | 2019-03-25 | ||
CNPCT/CN2019/079431 | 2019-03-25 | ||
CN2019079769 | 2019-03-26 | ||
CNPCT/CN2019/079769 | 2019-03-26 | ||
PCT/CN2019/123229 WO2020114445A1 (en) | 2018-12-07 | 2019-12-05 | Context-based intra prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023065710A Division JP2023083395A (ja) | 2018-12-07 | 2023-04-13 | コンテキストベースのイントラ予測 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022508294A JP2022508294A (ja) | 2022-01-19 |
JP7317965B2 true JP7317965B2 (ja) | 2023-07-31 |
Family
ID=70974944
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531144A Active JP7317965B2 (ja) | 2018-12-07 | 2019-12-05 | コンテキストベースのイントラ予測 |
JP2023065710A Pending JP2023083395A (ja) | 2018-12-07 | 2023-04-13 | コンテキストベースのイントラ予測 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023065710A Pending JP2023083395A (ja) | 2018-12-07 | 2023-04-13 | コンテキストベースのイントラ予測 |
Country Status (12)
Country | Link |
---|---|
US (2) | US11057642B2 (ja) |
EP (1) | EP3871415A4 (ja) |
JP (2) | JP7317965B2 (ja) |
KR (2) | KR102676917B1 (ja) |
CN (2) | CN113170168B (ja) |
AU (1) | AU2019391197B2 (ja) |
BR (1) | BR112021010428A2 (ja) |
CA (1) | CA3121671C (ja) |
MX (1) | MX2021006254A (ja) |
SG (1) | SG11202105759QA (ja) |
WO (1) | WO2020114445A1 (ja) |
ZA (1) | ZA202103763B (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020053805A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | Single-line cross component linear model prediction mode |
GB2571313B (en) * | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
GB2589769B (en) | 2018-07-15 | 2023-02-15 | Beijing Bytedance Network Tech Co Ltd | Cross-component coding order derivation |
KR102483942B1 (ko) * | 2018-07-16 | 2022-12-30 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 인코더, 비디오 디코더 및 대응하는 인코딩 및 디코딩 방법 |
WO2020035837A1 (en) | 2018-08-17 | 2020-02-20 | Beijing Bytedance Network Technology Co., Ltd. | Simplified cross component prediction |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
WO2020094061A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Multi-models for intra prediction |
WO2020098644A1 (en) * | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Bandwidth control methods for inter prediction |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
CN113170122B (zh) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 帧内预测的参数推导 |
CA3121671C (en) | 2018-12-07 | 2024-06-18 | Beijing Bytedance Network Technology Co., Ltd. | Context-based intra prediction |
WO2020130745A1 (ko) * | 2018-12-21 | 2020-06-25 | 삼성전자 주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
CN113261291B (zh) | 2018-12-22 | 2024-07-26 | 北京字节跳动网络技术有限公司 | 基于多个参数的两步交叉分量预测模式 |
CN116614633A (zh) * | 2019-01-02 | 2023-08-18 | Oppo广东移动通信有限公司 | 解码预测方法、装置及计算机存储介质 |
AU2020226565C1 (en) | 2019-02-22 | 2024-01-11 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
AU2020226566A1 (en) | 2019-02-24 | 2021-08-19 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation for intra prediction |
KR102635518B1 (ko) | 2019-03-06 | 2024-02-07 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 변환된 단예측 후보의 사용 |
CN113545070B (zh) | 2019-03-08 | 2023-10-03 | 北京字节跳动网络技术有限公司 | 视频处理中整形信息的信令通知 |
WO2020182815A1 (en) * | 2019-03-11 | 2020-09-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Encoder and decoder, encoding method and decoding method with profile and level dependent coding options |
CN117880494A (zh) | 2019-03-24 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 用于帧内预测的参数推导的条件 |
MX2021012472A (es) | 2019-04-18 | 2021-11-12 | Beijing Bytedance Network Tech Co Ltd | Restriccion de la aplicabilidad del modo de componentes cruzados. |
BR112021019675A2 (pt) | 2019-04-23 | 2021-12-07 | Beijing Bytedance Network Tech Co Ltd | Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador |
CN117221558A (zh) | 2019-05-08 | 2023-12-12 | 北京字节跳动网络技术有限公司 | 跨分量编解码的适用性条件 |
KR20220024006A (ko) | 2019-06-22 | 2022-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 크로마 잔차 스케일링을 위한 신택스 요소 |
JP7460748B2 (ja) | 2019-07-07 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのシグナリング |
EP4042692A4 (en) | 2019-10-29 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | COMPONENT ADAPTIVE LOOP FILTER |
WO2021115362A1 (en) | 2019-12-11 | 2021-06-17 | Beijing Bytedance Network Technology Co., Ltd. | Sample padding for cross-component adaptive loop filtering |
WO2021136504A1 (en) | 2019-12-31 | 2021-07-08 | Beijing Bytedance Network Technology Co., Ltd. | Cross-component prediction with multiple-parameter model |
EP4173290A4 (en) | 2020-06-30 | 2024-01-10 | Beijing Bytedance Network Technology Co., Ltd. | BOUNDARY LOCATION FOR ADAPTIVE LOOP FILTERING |
WO2023084155A1 (en) * | 2021-11-15 | 2023-05-19 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
US12052422B2 (en) * | 2022-01-31 | 2024-07-30 | Tencent America LLC | Cross-component planar prediction in image and video compression |
WO2024081291A1 (en) * | 2022-10-12 | 2024-04-18 | Beijing Dajia Internet Information Technology Co., Ltd | Method and apparatus for cross-component prediction for video coding |
WO2024138169A2 (en) * | 2022-12-23 | 2024-06-27 | Bytedance Inc. | Method, apparatus, and medium for video processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013001794A1 (ja) | 2011-06-27 | 2013-01-03 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及び画像符号化復号装置 |
US9462273B2 (en) | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
Family Cites Families (102)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101138392B1 (ko) | 2004-12-30 | 2012-04-26 | 삼성전자주식회사 | 색차 성분의 상관관계를 이용한 컬러 영상의 부호화,복호화 방법 및 그 장치 |
US20080089411A1 (en) | 2006-10-16 | 2008-04-17 | Nokia Corporation | Multiple-hypothesis cross-layer prediction |
JP2010135864A (ja) | 2007-03-29 | 2010-06-17 | Toshiba Corp | 画像符号化方法及び装置並びに画像復号化方法及び装置 |
CN101877785A (zh) | 2009-04-29 | 2010-11-03 | 祝志怡 | 一种基于混合预测的视频编码方法 |
US9288500B2 (en) | 2011-05-12 | 2016-03-15 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
JP2013034162A (ja) * | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
JP2013034163A (ja) * | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
US9693070B2 (en) * | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
TW201309036A (zh) | 2011-06-28 | 2013-02-16 | Samsung Electronics Co Ltd | 使用亮度成分影像的預測色度成分影像用的裝置與方法 |
ES2908152T3 (es) | 2011-06-30 | 2022-04-27 | Sun Patent Trust | Procedimiento de decodificación de imágenes |
US8724711B2 (en) | 2011-07-12 | 2014-05-13 | Intel Corporation | Luma-based chroma intra prediction |
GB2495942B (en) | 2011-10-25 | 2014-09-03 | Canon Kk | Method and apparatus for processing components of an image |
US9344722B2 (en) | 2011-11-18 | 2016-05-17 | Futurewei Technologies, Inc. | Scanning of prediction residuals in high efficiency video coding |
WO2013102293A1 (en) | 2012-01-04 | 2013-07-11 | Mediatek Singapore Pte. Ltd. | Improvements of luma-based chroma intra prediction |
WO2013109898A1 (en) | 2012-01-19 | 2013-07-25 | Futurewei Technologies, Inc. | Reference pixel reduction for intra lm prediction |
CN103379321B (zh) | 2012-04-16 | 2017-02-01 | 华为技术有限公司 | 视频图像分量的预测方法和装置 |
WO2013155662A1 (en) | 2012-04-16 | 2013-10-24 | Mediatek Singapore Pte. Ltd. | Methods and apparatuses of simplification for intra chroma lm mode |
CN103916673B (zh) | 2013-01-06 | 2017-12-22 | 华为技术有限公司 | 基于双向预测的编码方法、解码方法和装置 |
WO2014154094A1 (en) | 2013-03-26 | 2014-10-02 | Mediatek Inc. | Method of cross color intra prediction |
US10003815B2 (en) | 2013-06-03 | 2018-06-19 | Qualcomm Incorporated | Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures |
JP2017501599A (ja) | 2013-10-07 | 2017-01-12 | ヴィド スケール インコーポレイテッド | マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理 |
KR101884408B1 (ko) | 2014-06-19 | 2018-08-02 | 브이아이디 스케일, 인크. | 3차원 기반 컬러 매핑에서의 모델 파라미터 최적화를 위한 시스템 및 방법 |
US10200700B2 (en) | 2014-06-20 | 2019-02-05 | Qualcomm Incorporated | Cross-component prediction in video coding |
CN107079166A (zh) | 2014-10-28 | 2017-08-18 | 联发科技(新加坡)私人有限公司 | 用于视频编码的引导交叉分量预测的方法 |
MX2017005892A (es) | 2014-11-05 | 2017-06-27 | Samsung Electronics Co Ltd | Aparato y metodo de codificacion de prediccion por muestra. |
MX2017008774A (es) | 2014-12-31 | 2018-02-13 | Nokia Technologies Oy | Prediccion inter-capa para codificacion y decodificacion de video escalable. |
WO2016115708A1 (en) | 2015-01-22 | 2016-07-28 | Mediatek Singapore Pte. Ltd. | Methods for chroma component coding with separate intra prediction mode |
CN107211121B (zh) | 2015-01-22 | 2020-10-23 | 联发科技(新加坡)私人有限公司 | 视频编码方法与视频解码方法 |
WO2016200100A1 (ko) | 2015-06-10 | 2016-12-15 | 삼성전자 주식회사 | 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치 |
US10148977B2 (en) | 2015-06-16 | 2018-12-04 | Futurewei Technologies, Inc. | Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions |
JP2018524897A (ja) | 2015-06-19 | 2018-08-30 | ノキア テクノロジーズ オーユー | ビデオの符号化・復号装置、方法、およびコンピュータプログラム |
CN113810691A (zh) | 2015-07-08 | 2021-12-17 | 交互数字麦迪逊专利控股公司 | 用于使用交叉平面滤波的增强色度编码的方法和装置 |
US20170016972A1 (en) | 2015-07-13 | 2017-01-19 | Siemens Medical Solutions Usa, Inc. | Fast Prospective Motion Correction For MR Imaging |
JP6559337B2 (ja) | 2015-09-23 | 2019-08-14 | ノキア テクノロジーズ オーユー | 360度パノラマビデオの符号化方法、符号化装置、及びコンピュータプログラム |
JP2017538381A (ja) | 2015-10-09 | 2017-12-21 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | ビデオ符号化における成分間予測 |
US20170150156A1 (en) * | 2015-11-25 | 2017-05-25 | Qualcomm Incorporated | Illumination compensation with non-square predictive blocks in video coding |
WO2017139937A1 (en) | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
FI20165256L (fi) | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
WO2017201141A1 (en) | 2016-05-17 | 2017-11-23 | Arris Enterprises Llc | Template matching for jvet intra prediction |
US20190306516A1 (en) | 2016-05-24 | 2019-10-03 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
CA3025340A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | General block partitioning method |
MX2018014487A (es) | 2016-05-25 | 2019-08-12 | Arris Entpr Llc | Prediccion angular ponderada para intra codificacion. |
CA3025334C (en) | 2016-05-25 | 2021-07-13 | Arris Enterprises Llc | Binary ternary quad tree partitioning for jvet coding of video data |
US10645395B2 (en) | 2016-05-25 | 2020-05-05 | Arris Enterprises Llc | Weighted angular prediction coding for intra coding |
US11146821B2 (en) | 2016-05-25 | 2021-10-12 | Arris Enterprises Llc | JVET coding block structure with asymmetrical partitioning |
CN114866775A (zh) | 2016-05-27 | 2022-08-05 | 松下电器(美国)知识产权公司 | 编码方法及解码方法 |
US10484712B2 (en) | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
FI20165547A (fi) | 2016-06-30 | 2017-12-31 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten |
US10944976B2 (en) | 2016-07-22 | 2021-03-09 | Sharp Kabushiki Kaisha | Systems and methods for coding video data using adaptive component scaling |
WO2018021374A1 (ja) | 2016-07-29 | 2018-02-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2018030293A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2018030294A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN109479134A (zh) | 2016-08-10 | 2019-03-15 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、编码方法及解码方法 |
US10326986B2 (en) | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10368107B2 (en) | 2016-08-15 | 2019-07-30 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10419757B2 (en) | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
US10652575B2 (en) | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
US10382781B2 (en) | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
GB2555788A (en) | 2016-11-08 | 2018-05-16 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
US10477240B2 (en) | 2016-12-19 | 2019-11-12 | Qualcomm Incorporated | Linear model prediction mode with sample accessing for video coding |
WO2018116925A1 (ja) | 2016-12-21 | 2018-06-28 | シャープ株式会社 | イントラ予測画像生成装置、画像復号装置、および画像符号化装置 |
US10674165B2 (en) | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
WO2018125944A1 (en) | 2016-12-28 | 2018-07-05 | Arris Enterprises Llc | Improved video bitstream coding |
US10277895B2 (en) | 2016-12-28 | 2019-04-30 | Arris Enterprises Llc | Adaptive unequal weight planar prediction |
US20180199062A1 (en) | 2017-01-11 | 2018-07-12 | Qualcomm Incorporated | Intra prediction techniques for video coding |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10694181B2 (en) | 2017-01-27 | 2020-06-23 | Qualcomm Incorporated | Bilateral filters in video coding with reduced complexity |
US10542264B2 (en) | 2017-04-04 | 2020-01-21 | Arris Enterprises Llc | Memory reduction implementation for weighted angular prediction |
CN114422780A (zh) | 2017-04-28 | 2022-04-29 | 夏普株式会社 | 图像解码装置以及图像编码装置 |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
US11190799B2 (en) | 2017-06-21 | 2021-11-30 | Lg Electronics Inc. | Intra-prediction mode-based image processing method and apparatus therefor |
WO2019004283A1 (ja) | 2017-06-28 | 2019-01-03 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
WO2019006300A1 (en) | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
WO2019006363A1 (en) | 2017-06-30 | 2019-01-03 | Vid Scale, Inc. | LOCAL LIGHTING COMPENSATION USING GENERALIZED BI-PREDICTION |
WO2019010267A1 (en) | 2017-07-05 | 2019-01-10 | Arris Enterprises Llc | POST-FILTERING FOR WEIGHTED ANGULAR PREDICTION |
CN109274969B (zh) | 2017-07-17 | 2020-12-22 | 华为技术有限公司 | 色度预测的方法和设备 |
WO2019023209A1 (en) | 2017-07-24 | 2019-01-31 | Arris Enterprises Llc | INTRA MODE JVET CODING |
CN115174912A (zh) | 2017-07-24 | 2022-10-11 | 艾锐势有限责任公司 | 帧内模式jvet编译方法 |
JP6994868B2 (ja) | 2017-08-09 | 2022-01-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
EP3682639A1 (en) | 2017-10-02 | 2020-07-22 | ARRIS Enterprises LLC | System and method for reducing blocking artifacts and providing improved coding efficiency |
GB2567249A (en) | 2017-10-09 | 2019-04-10 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US10965941B2 (en) | 2017-10-09 | 2021-03-30 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
WO2019074985A1 (en) | 2017-10-09 | 2019-04-18 | Arris Enterprises Llc | PLANAR PLANAR WEATHER ADAPTIVE PREDICTION |
WO2019126163A1 (en) | 2017-12-18 | 2019-06-27 | Arris Enterprises, Inc. | System and method for constructing a plane for planar prediction |
US20190313108A1 (en) | 2018-04-05 | 2019-10-10 | Qualcomm Incorporated | Non-square blocks in video coding |
US10609402B2 (en) | 2018-05-02 | 2020-03-31 | Tencent America LLC | Method and apparatus for prediction and transform for small blocks |
US20190342546A1 (en) * | 2018-05-03 | 2019-11-07 | FG Innovation Company Limited | Device and method for coding video data based on different reference sets in linear model prediction |
WO2020003274A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
WO2020009357A1 (ko) | 2018-07-02 | 2020-01-09 | 엘지전자 주식회사 | Cclm에 기반한 인트라 예측 방법 및 그 장치 |
KR102483942B1 (ko) | 2018-07-16 | 2022-12-30 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 인코더, 비디오 디코더 및 대응하는 인코딩 및 디코딩 방법 |
CN109005408B (zh) | 2018-08-01 | 2020-05-29 | 北京奇艺世纪科技有限公司 | 一种帧内预测方法、装置及电子设备 |
CA3115177C (en) | 2018-10-05 | 2024-06-04 | Huawei Technologies Co., Ltd. | Intra prediction method and device |
WO2020094061A1 (en) | 2018-11-06 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Multi-models for intra prediction |
US11197005B2 (en) * | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
US11178396B2 (en) * | 2018-11-14 | 2021-11-16 | Tencent America LLC | Constrained intra prediction and unified most probable mode list generation |
CN113170122B (zh) | 2018-12-01 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 帧内预测的参数推导 |
CA3121671C (en) | 2018-12-07 | 2024-06-18 | Beijing Bytedance Network Technology Co., Ltd. | Context-based intra prediction |
US11095921B2 (en) | 2018-12-18 | 2021-08-17 | Tencent America LLC | Method and apparatus for video encoding or decoding |
KR102392701B1 (ko) | 2019-01-15 | 2022-04-28 | 엘지전자 주식회사 | 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 |
AU2020226565C1 (en) | 2019-02-22 | 2024-01-11 | Beijing Bytedance Network Technology Co., Ltd. | Neighbouring sample selection for intra prediction |
AU2020226566A1 (en) | 2019-02-24 | 2021-08-19 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation for intra prediction |
-
2019
- 2019-12-05 CA CA3121671A patent/CA3121671C/en active Active
- 2019-12-05 WO PCT/CN2019/123229 patent/WO2020114445A1/en active Application Filing
- 2019-12-05 AU AU2019391197A patent/AU2019391197B2/en active Active
- 2019-12-05 KR KR1020217015768A patent/KR102676917B1/ko active IP Right Grant
- 2019-12-05 KR KR1020237042214A patent/KR20230170146A/ko active Application Filing
- 2019-12-05 BR BR112021010428-3A patent/BR112021010428A2/pt unknown
- 2019-12-05 MX MX2021006254A patent/MX2021006254A/es unknown
- 2019-12-05 EP EP19892183.5A patent/EP3871415A4/en active Pending
- 2019-12-05 CN CN201980078549.3A patent/CN113170168B/zh active Active
- 2019-12-05 SG SG11202105759QA patent/SG11202105759QA/en unknown
- 2019-12-05 JP JP2021531144A patent/JP7317965B2/ja active Active
- 2019-12-05 CN CN202311527606.6A patent/CN117336503A/zh active Pending
-
2020
- 2020-08-07 US US16/987,670 patent/US11057642B2/en active Active
-
2021
- 2021-06-01 ZA ZA2021/03763A patent/ZA202103763B/en unknown
- 2021-06-03 US US17/338,601 patent/US11595687B2/en active Active
-
2023
- 2023-04-13 JP JP2023065710A patent/JP2023083395A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013001794A1 (ja) | 2011-06-27 | 2013-01-03 | パナソニック株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及び画像符号化復号装置 |
US9462273B2 (en) | 2011-11-04 | 2016-10-04 | Huawei Technologies Co., Ltd. | Intra-frame prediction and decoding methods and apparatuses for image signal |
Non-Patent Citations (3)
Title |
---|
Christian Helmrich,"Improved robustness for calculation of cross-component linear model parameters",JVET-M0093 (version 1),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年12月28日,Pages 1-4,[令和4年5月17日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4896> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/13_Marrakech/wg11/JVET-M0093-v1.zip>. |
Jangwon Choi, et al.,"CE3-related : Reduced number of reference samples for CCLM parameter calculation",JVET-L0138 (version 3),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年10月06日,Pages 1-5,[令和4年5月20日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4219> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0138-v3.zip>. |
Xiang Ma, et al.,"CE3: CCLM/MDLM using simplified coefficients derivation method (Test 5.6.1, 5.6.2 and 5.6.3)",JVET-L0340 (version 5),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年10月23日,Pages 1-6,[令和4年5月17日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4437> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0340-v5.zip>. |
Also Published As
Publication number | Publication date |
---|---|
KR20210091182A (ko) | 2021-07-21 |
EP3871415A4 (en) | 2022-04-13 |
ZA202103763B (en) | 2022-10-26 |
KR102676917B1 (ko) | 2024-06-19 |
WO2020114445A1 (en) | 2020-06-11 |
CA3121671C (en) | 2024-06-18 |
CN117336503A (zh) | 2024-01-02 |
CA3121671A1 (en) | 2020-06-11 |
BR112021010428A2 (pt) | 2021-08-24 |
MX2021006254A (es) | 2021-07-06 |
EP3871415A1 (en) | 2021-09-01 |
US11057642B2 (en) | 2021-07-06 |
US20210297694A1 (en) | 2021-09-23 |
KR20230170146A (ko) | 2023-12-18 |
AU2019391197A1 (en) | 2021-06-17 |
US20200366933A1 (en) | 2020-11-19 |
JP2022508294A (ja) | 2022-01-19 |
US11595687B2 (en) | 2023-02-28 |
CN113170168A (zh) | 2021-07-23 |
CN113170168B (zh) | 2023-12-08 |
SG11202105759QA (en) | 2021-06-29 |
AU2019391197B2 (en) | 2023-05-25 |
JP2023083395A (ja) | 2023-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317965B2 (ja) | コンテキストベースのイントラ予測 | |
JP7212157B2 (ja) | イントラ予測のための簡略化パラメータ導出 | |
JP7123268B2 (ja) | イントラ予測のためのパラメータ導出 | |
JP2023160996A (ja) | イントラ予測のための隣接サンプル選択 | |
CN113170122B (zh) | 帧内预测的参数推导 | |
CN113767631B (zh) | 用于帧内预测的参数推导中的条件 | |
CN113632474A (zh) | 用于帧间预测的参数推导 | |
RU2806083C2 (ru) | Контекстно-ориентированное внутреннее предсказание | |
RU2810900C2 (ru) | Выбор соседней выборки для внутреннего предсказания |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220831 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230413 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230413 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230424 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7317965 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |