JP2022506285A - イントラ予測のための簡略化パラメータ導出 - Google Patents
イントラ予測のための簡略化パラメータ導出 Download PDFInfo
- Publication number
- JP2022506285A JP2022506285A JP2021523513A JP2021523513A JP2022506285A JP 2022506285 A JP2022506285 A JP 2022506285A JP 2021523513 A JP2021523513 A JP 2021523513A JP 2021523513 A JP2021523513 A JP 2021523513A JP 2022506285 A JP2022506285 A JP 2022506285A
- Authority
- JP
- Japan
- Prior art keywords
- sample
- item
- samples
- chroma
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009795 derivation Methods 0.000 title description 16
- 238000000034 method Methods 0.000 claims abstract description 719
- 241000023320 Luma <angiosperm> Species 0.000 claims abstract description 343
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 claims abstract description 343
- 238000006243 chemical reaction Methods 0.000 claims abstract description 110
- 230000009466 transformation Effects 0.000 claims abstract description 80
- 230000008569 process Effects 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 24
- 238000003672 processing method Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 abstract description 98
- 239000000523 sample Substances 0.000 description 651
- 101150067055 minC gene Proteins 0.000 description 27
- 229910052739 hydrogen Inorganic materials 0.000 description 15
- 101150076173 cntL gene Proteins 0.000 description 13
- 238000005286 illumination Methods 0.000 description 12
- 229910052717 sulfur Inorganic materials 0.000 description 12
- 229910052698 phosphorus Inorganic materials 0.000 description 11
- 230000008859 change Effects 0.000 description 9
- 229910052760 oxygen Inorganic materials 0.000 description 9
- 239000013074 reference sample Substances 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 238000003491 array Methods 0.000 description 6
- 239000013256 coordination polymer Substances 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 229910052757 nitrogen Inorganic materials 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 101100155952 Escherichia coli (strain K12) uvrD gene Proteins 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 101100149023 Bacillus subtilis (strain 168) secA gene Proteins 0.000 description 1
- 108091026890 Coding region Proteins 0.000 description 1
- 241000947853 Vibrionales Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/149—Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Color Television Systems (AREA)
Abstract
Description
クロスコンポーネント予測は、複雑性と圧縮効率改善との間にバランスの良いトレードオフを持つクロマ(chroma)・ツー・ルマ(luma)予測アプローチの一形態である。
一部の実施形態において、また、クロスコンポーネント冗長性を低減させるために、クロスコンポーネント線形モデル(cross-component linear model;CCLM)予測モード(LMとしても参照される)がJEMにおいて使用され、そこでは、クロマサンプルが、以下:
JEMにおいては、単一モデルCCLMモードと複数モデルCCLMモード(MMLM)という2つのCCLMモードが存在する。名称によって示されるように、単一モデルCCLMモードは、CU全体についてルマサンプルからクロマサンプルを予測するために1つの線形モデルを使用するのに対し、MMLMでは2つのモデルが存在することができる。
一部の実施形態において、4つのルマサンプルが1つのクロマサンプルに対応する4:2:0クロマフォーマットについて、クロマ予測を実行するために、再構成ルマブロックは、クロマ信号のサイズに一致するようにダウンサンプリングされる必要がある。CCLMモードで使用されるデフォルトのダウンサンプリングフィルタは、以下:
この既存の実装は、多方向(multi-directional)LM(MDLM)を提案する。MDLMでは、2つの更なるCCLMモードが提案され、すなわち、図4Aに示すように線形モデルパラメータが上(top又はabove)の隣接サンプルのみに基づいて導出されるLM-A、及び図4Bに示すように線形モデルパラメータが左の隣接サンプルのみに基づいて導出されるLM-Lが提案される。
この既存の実装は、線形モデルパラメータαとβのLMSアルゴリズムを直線方程式、いわゆる二点法、に置き換えることを提案する。二点(LumaとChromaのカップル)(A、B)は、図5に示すように、隣接Lumaサンプルの集合内の最小値と最大値である。
α=(yB-yA)/(xB-xA)、及びβ=yA-αxA
に従って得られる。
a=0;
Shift=16;
intshift=(uiInternalBitDepth>8)?uiInternalBitDepth-9:0;
intadd=shift?1<<(shift-1):0;
intdiff=(MaxLuma-MinLuma+add)>>shift;
if(diff>0)
{
intdiv=((MaxChroma-MinChroma)*g_aiLMDivTableLow[diff-1]+32768)>>16;
a=(((MaxChroma-MinChroma)*g_aiLMDivTableHigh[diff-1]+div+add)>>shift);
}
b=MinLuma[1]-((a*MinLuma[0])>>iShift);
JEMにおいてと同様のCCLMがVTM-2.0で採用されているが、JEMにおけるMM-CCLMはVTM-2.0で採用されていない。VTM-3.0にはMDLM及び単純化されたCCLMが採用されている。
局所照明補償(Local Illumination Compensation;LIC)は、スケーリング係数aとオフセットbを用いた、照明変化に関する線形モデルに基づく。また、それは、インターモード符号化される符号化ユニット(CU)ごとに適応的に有効又は無効にされる。
現行の実装は、JEMにおけるLMモードのLMSアプローチを置き換えるように二点法を導入している。この新たな方法はCCLMにおける加算及び乗算の数を減少させるが、以下の問題を導入する。
ここで開示される技術の実施形態は、既存の実装の欠点を克服し、それにより、より高い符号化効率及びより低い計算複雑性を有する映像符号化を提供する。開示される技術に基づく、クロスコンポーネント予測のための単純化された線形モデル導出は、既存の及び将来の映像符号化標準の双方を強化することができ、種々の実装に関して説明される以下の例にて明らかになる。以下に提供される開示技術の例は、一般的概念を説明するものであり、限定するものとして解釈されることを意味するものではない。一例において、そうでないことが明示的に示されない限り、これらの例にて説明される様々な特徴は組み合わされることができる。
A:左側の上サンプル:[x-1,y]、
B:左側の上中間サンプル:[x-1,y+H/2-1]、
C:左側の下中間サンプル:[x-1,y+H/2]、
D:左側の下サンプル:[x-1,y+H-1]、
E:左側の下拡張上サンプル:[x-1,y+H]、
F:左側の下拡張上中間サンプル:[x-1,y+H+H/2-1]、
G:左側の下拡張下中間サンプル:[x-1,y+H+H/2]、
I:左側の下拡張下サンプル:[x-1,y+H+H-1]、
J:上側の左サンプル:[x,y-1]、
K:上側の左中間サンプル:[x+W/2-1,y-1]、
L:上側の右中間サンプル:[x+W/2,y-1]、
M:上側の右サンプル:[x+W-1,y-1]、
N:上側の上拡張左サンプル:[x+W,y-1]、
O:上側の上拡張左中間サンプル:[x+W+W/2-1,y-1]、
P:上側の上拡張右中間サンプル:[x+W+W/2,y-1]、及び
Q:上側の上拡張右サンプル:[x+W+W-1,y-1]
として表記される。
a. 導出は、選択されたクロマサンプルの対応するダウンサンプリングされたルマサンプルにも依存する。あるいは、導出は、例えばそれが4:4:4カラーフォーマットである場合などに、選択されたクロマサンプルの対応するルマサンプルにも依存する。
b. 例えば、CCLMにおけるパラメータα及びβは、例えば2S(例えば、S=2又は3)の位置のクロマサンプルから導出され、例えば:
i. 位置{A,D,J,M};
ii. 位置{A,B,C,D,J,K,L,M};
iii.位置{A,I,J,Q};
iv.位置{A,B,D,I,J,K,M,Q};
v.位置{A,B,D,F,J,K,M,O};
vi.位置{A,B,F,I,J,K,O,Q};
vii.位置{A,C,E,I,J,L,N,Q};
viii.位置{A,C,G,I,J,L,P,Q};
ix.位置{A,C,E,G,J,L,N,P};
x.位置{A,B,C,D};
xi.位置{A,B,D,I};
xii.位置{A,B,D,F};
xiii.位置{A,C,E,I};
xiv.位置{A,C,G,I};
xv.位置{A,C,E,G};
xvi.位置{J,K,L,M};
xvii.位置{J,K,M,Q};
xviii.位置{J,K,M,O};
xix.位置{J,K,O,Q};
xx.位置{J,L,N,Q};
xxi.位置{J,L,P,Q};
xxii.位置{J,L,N,P};
xxiii.位置{A,B,C,E,E,F,G,I};
xxiv.位置{J,K,L,M,N,O,P,Q};
などから導出される。
c. 例えば、CCLMにおけるパラメータα及びβは、以下の位置のクロマサンプルから導出される:
i. 例えば以下などの、{A,B,C,D,E,F,G,I}と{J,K,L,M,N,O,P,Q}との間の任意の組み合わせ
(a)位置A及びJ;
(b)位置B及びK;
(c)位置C及びL;
(d)位置D及びM;
(e)位置E及びN;
(f)位置F及びO;
(g)位置G及びP;
(h)位置I及びQ;
ii. {A,B,C,D,E,F,G}からフェッチされる任意の2つの異なる位置
(a)位置A及びB;
(b)位置A及びC;
(c)位置A及びD;
(d)位置A及びE;
(e)位置A及びF;
(f)位置A及びG;
(g)位置A及びI;
(h)位置D及びB;
(i)位置D及びC;
(j)位置E及びB;
(k)位置E及びC;
(l)位置I及びB;
(m)位置I及びC;
(n)位置I及びD;
(o)位置I及びE;
(p)位置I及びF;
(q)位置I及びG;
iii. {J,K,L,M,N,O,P,Q}からフェッチされる任意の2つの異なる位置
(a)位置J及びK;
(b)位置J及びL;
(c)位置J及びM;
(d)位置J及びN;
(e)位置J及びO;
(f)位置J及びP;
(g)位置J及びQ;
(h)位置M及びK;
(i)位置M及びL;
(j)位置N及びK;
(k)位置N及びL;
(l)位置Q及びK;
(m)位置Q及びL;
(n)位置Q及びM;
(o)位置Q及びN;
(p)位置Q及びO;
(q)位置Q及びP;
(r)位置Q及びQ;
iv. 一例において、2つの選択された位置が同じルマ値を持つ場合、もっと多くの位置が更にチェックされ得る。
d. 例えば、二点法でCCLMにおけるパラメータα及びβを導出するために、利用可能な全てのクロマサンプルが、最小及び最大のルマ値を見つけるために検索されるわけではない。
e. モードLM-Lでは、選択される全てのサンプルが左の隣接サンプルでなければならない。
f. モードLM-Aでは、選択される全てのサンプルが上の隣接サンプルでなければならない。
g. 選択される位置は固定されてもよいし、適応的にされてもよい。
ii. 一例において、どの位置が選択されるかは、例えばVPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CU/PU内などで、エンコーダからデコーダに信号伝達され得る。
h. 式(2)及び式(3)に示した最小二乗平均法でパラメータα及びβを導出するために、選択されたクロマサンプルが使用される。式(2)及び式(3)において、Nは、選択されたサンプルの数に設定される。
i. 二点法でパラメータα及びβを導出するために、一対の選択されたクロマサンプルが使用される。
j. 一例において、サンプルをどのように選択するかは、隣接ブロックの利用可能性に依存し得る。
a. 一例において、αは、α1、…、αNの平均として計算され、βは、β1、…、βNの平均として計算される。
(α1,β1)を用いて、CP=SignShift(α1×LR+β1,SH1)
として計算されるが、
(α2,β2)を用いると、CP=SignShift(α2×LR+β2,SH2)として計算され、Sh1はSh2に等しくなく、パラメータは結合される前にシフトされる必要がある。Sh1>Sh2とすると、結合される前に、パラメータは、
(a)α1=SignShift(α1,Sh1-Sh2)、β1=SignShift(β1,Sh1-Sh2)のようにシフトされるべきである。すると、最終的な精度は(α2,β2)となる。
b. グループ1及びグループ2の位置の一部の例:
i. グループ1:位置A及びD、グループ2:位置J及びM
ii. グループ1:位置A及びI、グループ2:位置J及びQ
iii. グループ1:位置A及びD、グループ2:位置E及びIであり、2つのグループがモードLM-Lに使用される
iv. グループ1:位置J及びM、グループ2:位置N及びQであり、2つのグループがモードLM-Aに使用される
v. グループ1:位置A及びB、グループ2:位置C及びDであり、2つのグループがモードLM-Lに使用される
vi. グループ1:位置J及びK、グループ2:位置L及びMであり、2つのグループがモードLM-Aに使用される。
α=(C1-C0)/(L1-L0)、及びβ=C0-αL0
として、α及びβを導出することができる。
a. L1がL0に等しい場合、αは0として出力される。あるいは、L1がL0に等しい場合、CCLMモードを使用する代わりに、特定のイントラ予測モード(例えば、DMモード、DC又はプレーナ)を使用して、予測ブロックを導出する。
α=SignShift(C1-C0,Floor(log2(L1-L0)))
ii. α=Shift(C1-C0,Ceiling(log2(L1-L0)))、又は
α=SignShift(C1-C0,Ceiling(log2(L1-L0)))
iii. L1-L0の値に基づいて例i又は例iiが選択され得る。
(Floor(log2(L1-L0))+Ceiling(log2(L1-L0)))/2
とされることができる。
α=Shift((C1-C0)×M[k-Z],D)、又は
α=SignShift((C1-C0)×M[k-Z],D)
vi. クロマ予測CPをその対応する(例えば、4:2:0の場合にダウンサンプリングされた)ルマサンプルLRから得るために、それが、以下のように計算される:
CP=SignShift(α×LR+β,Sh)、又は
CP=Shift(α×LR+β,Sh)
vii. Shは固定された数であってもよいし、α及びベータを計算するために用いられたC0、C1、L0、L1の値に依存してもよい。
a. Wは、BL、V、及びZに依存し得る。
α=(Shift(P×M[k-Z],D))<<W、又は
α=(SignShift(P×M[k-Z],D))<<W
として計算される。
(a)w1+w2=1
ii. P(x,y)=(w1*P1(x,y)+w2*P2(x,y)+Offset)>>shiftであり、ここで、offsetは、0又は1<<(shift-1)であり、shiftは、例えば1、2、3、…などの整数である。
iii. P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)*P2(x,y)+Offset)>>shiftであり、ここで、offsetは、0又は1<<(shift-1)であり、shiftは、例えば1、2、3、…などの整数である。
(b)例えば、x>yの場合、w1<w2(例えば、w1=1、w2=3)、
(c)例えば、x==yの場合、w1=w2(例えば、w1=2、w2=2)、
(d)例えば、x<yのときにy-xが増加する場合、w1-w2が増加する、
(e)例えば、x>yのときにx-yが増加する場合、w2-w1が増加する。
α=(MaxC-MinC)/(MaxL-MinL)
β=MinC-αMinL
i. 一例において、f1、f2、f3、f4は全て平均化関数を表す。
(b)一例において、左上の隣接ブロックが利用可能でない場合、そのことは、CCLMモードを適用しないこととみなされる。
(c)一例において、左上の隣接ブロックが利用可能でない場合、そのことは、CCLMモードを適用することとみなされる。
(d)一例において、左上の隣接ブロックがイントラ符号化されていない場合、そのことは、CCLMモードを適用しないこととみなされる。
(e)一例において、左上の隣接ブロックがイントラ符号化されていない場合、そのことは、CCLMモードを適用することとみなされる。
(i)C0=f0(Cx1,Cx2,…,CxS)、L0=f1(Lx1,Lx2,…,LxS)、C1=f2(Cy1,Cy2,…,CyT)、L1=f4(Ly1,Ly2,…,LyT)。f0、f1、f2及びf3は何らかの関数である。
(a)G0={S0,S1}、G1={S2,S3};
(b)G0={S1,S0}、G1={S3,S2};
(c)G0={S0,S2}、G1={S1,S3};
(d)G0={S2,S0}、G1={S3,S1};
(e)G0={S1,S2}、G1={S0,S3};
(f)G0={S2,S1}、G1={S3,S0};
(g)G0={S0,S3}、G1={S1,S2};
(h)G0={S3,S0}、G1={S2,S1};
(i)G0={S1,S3}、G1={S0,S2};
(j)G0={S3,S1}、G1={S2,S0};
(k)G0={S3,S2}、G1={S0,S1};
(l)G0={S2,S3}、G1={S1,S0};
(m)G0とG1とが交換されてもよい。
一例において、対応するクロマサンプルがCCLMパラメータを導出するために必要とされる位置にある隣接ルマサンプルのみが、ダウンサンプリングされる必要がある。
この文書にて開示される方法をどのように行うかは、カラーフォーマット(例えば4:2:0又は4:4:4など)に依存し得る。
CCLMパラメータを導出するために使用されるルマ及びクロマコンポーネントの最大/最小値を導出するかは、左及び上で隣接するものの利用可能性に依存し得る。例えば、左及び上のどちらの隣接ブロックも利用可能でない場合には、CCLMパラメータを導出するために使用されるルマ及びクロマコンポーネントの最大/最小値は導出されないとし得る。
一例において、CCLMで使用されるパラメータを導出するための提案される方法は、線形モデルをあてにするLIC又は他の符号化ツールで使用されるパラメータを導出するために使用され得る。
(1)widthとheightとの比rが、式(18)のように計算される。
図16は、128、64、及び32個エントリを持ち、各エントリが16ビットで表現されるルックアップテーブルの例を示している。二点LM導出プロセスは、表1及び図17に示すように、64個のエントリで簡略化される。留意すべきことには、最初のエントリはテーブルに格納されなくてもよい。
g_aiLMDivTableHighSimp_64_8[i]=(g_aiLMDivTableHighSimp_64[i]+128)>>8
g_aiLMDivTableHighSimp_64_12[i]=(g_aiLMDivTableHighSimp_64[i]+8)>>4
現在クロマブロックのブロック幅及び高さをそれぞれW及びHとする。また、現在クロマブロックの左上の座標は[0,0]であるとする。
このセクションでは、VVC標準の現段階での草案におけるものに対応する式番号を用いて式を記述する。
- イントラ予測モードpredModeIntra、
- 現在ピクチャの左上のサンプルに対する現在変換ブロックの左上のサンプルのサンプル位置(xTbC, yTbC)、
- 変換ブロック幅を規定する変数nTbW、
- 変換ブロック高さを規定する変数nTbH、
- x=-1, y=0..2*nTbH-1、及びx=0..2*nTbW-1, y=-1のクロマ隣接サンプルp[x][y]。
(xTbY, yTbY)=(xTbC<<1, yTbC<<1) (8-155)
...
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-156)
numSampL=availL? nTbH:0 (8-157)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)? (nTbW+numTopRight):0 (8-158)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)? (nTbH+numLeftBelow):0 (8-159)
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-160)
- numSampL及びnumSampTの双方が0に等しい場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-161)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. ...[現行仕様に対して変更なし]
2. ...
3. ...
4. ...
5. ...
6. [現行仕様に対して変更なし]
7. 変数minY、maxY、minC及びmaxCが、次のように導出される:
- 変数minYがは、1<<(BitDepthY)+1に等しく設定され、変数maxYは-1に等しく設定される
- avalLがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLMに等しい場合、変数aboveIs4は0に等しく設定され、それ例外の場合、それは1に等しく設定される
- avallTがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLMに等しい場合、変数LeftIs4は0に等しく設定され、それ例外の場合、それは1に等しく設定される
- 変数配列startPos[]及びpickStep[]は次のように導出される:
- startPos[0]=actualTopTemplateSampNum>>(2+aboveIs4);
- pickStep[0]=std::max(1, actualTopTemplateSampNum>>(1+aboveIs4));
- startPos[1]=actualLeftTemplateSampNum>>(2+leftIs4);
- pickStep[1]=std::max(1, actualLeftTemplateSampNum>>(1+leftIs4));
- 変数cntは0に等しく設定される
- predModeIntraがINTRA_LT_CCLMに等しい場合、変数nSXはnTbWに等しく設定され、nSYはnTbHに等しく設定され、それ以外の場合、nSXはnumSampLTに等しく設定され、nSYはnumSampLに等しく設定される
- avallTがTRUEに等しく、且つpredModeIntraがINTRA_L_CCLMに等しくない場合、変数selectLumaPix、selectChromaPixは次のように導出される:
- startPos[0]+cnt*pickStep[0]<nSX、且つcnt<4である間、以下が適用される:
- selectLumaPix[cnt]=pTopDsY[startPos[0]+cnt*pickStep[0]];
- selectChromaPix[cnt]=p[startPos[0]+cnt*pickStep[0]][-1];
- cnt++;
- avalLがTRUEに等しく、且つpredModeIntraがINTRA_T_CCLMに等しくない場合、変数selectLumaPix、selectChromaPixは次のように導出される:
- startPos[1]+cnt*pickStep[1]<nSY、且つcnt<4である間、以下が適用される:
- selectLumaPix[cnt]=pLeftDsY[startPos[1]+cnt*pickStep[1]];
- selectChromaPix[cnt]=p[-1][startPos[1]+cnt*pickStep[1]];
- cnt++;
- cntが2に等しい場合、以下が適用される:
- selectLumaPix[0]>selectLumaPix[1]である場合、minYはselectLumaPix[1]に等しく設定され、minCはselectChromaPix[1]に等しく設定され、maxYはselectLumaPix[0]に等しく設定され、そして、maxCはselectChromaPix[0]に等しく設定され、それ以外の、maxYはselectLumaPix[1]に等しく設定され、maxCはselectChromaPix[1]に等しく設定され、minYはselectLumaPix[0]に等しく設定され、そして、minCはselectChromaPix[0]に等しく設定される
- それ以外の場合、cntが4に等しい場合には、以下が適用される:
- 変数配列minGrpIdx及びmaxGrpIdxが、
-minGrpIdx[0]=0、minGrpIdx[1]=1、maxGrpIdx[0]=2、maxGrpIdx[1]=3
として初期化され、
- 以下が適用される:
- selectLumaPix[minGrpIdx[0]]>selectLumaPix[minGrpIdx[1]]の場合、minGrpIdx[0]とminGrpIdx[1とを交換する;
- selectLumaPix[maxGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]]の場合、maxGrpIdx[0]とmaxGrpIdx[1]とを交換する;
- selectLumaPix[minGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]]の場合、minGrpIdxとmaxGrpIdxとを交換する;
- selectLumaPix[minGrpIdx[1]]>selectLumaPix[maxGrpIdx[0]]の場合、minGrpIdx[1]とmaxGrpIdx[0]とを交換する;
- maxY、maxC、minY及びminCが次のように導出される:
- maxY=(selectLumaPix[maxGrpIdx[0]]+selectLumaPix[maxGrpIdx[1]]+1)>>1;
- maxC=(selectChromaPix[maxGrpIdx[0]]+selectChromaPix[maxGrpIdx[1]]+1)>>1;
- maxY=(selectLumaPix[minGrpIdx[0]]+selectLumaPix[minGrpIdx[1]]+1)>>1;
- maxC=(selectChromaPix[minGrpIdx[0]]+selectChromaPix[minGrpIdx[1]]+1)>>1;
-
8. 変数a、b、kは次のように導出される:
[変更の終了]
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる変更を示す別の例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight, nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow, nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availN&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1, numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNは(1+numIs4N)<<1に等しく設定され、pickPosN[pos]は、pos=0..(cntN-1)での(startPosN+pos*pickStepN)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、x = 0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[ 0 ][ 0 ]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=0..(cntT-1)のp[pickPosT[idx]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. 変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、idx=0及び1で、pSelC[idx+2]=pSelC[idx]及びpSelDsY[idx+2]=pSelDsY[idx]と設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=1, maxGrpIdx[0]=2, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx ).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)? 1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)? 1:3+x-y (8-218)
a=((3+x-y)<1)? Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k ) (8-220)
ここで、divSigTable[ ]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
[実施形態例の終了]
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる変更を示す別の例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
…
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow, nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availN&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1,numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNはMin(numSampN,(1+numIs4N)<<1)に等しく設定され、pickPosN[pos]は(startPosN+pos*pickStepN),withpos=0..(cntN-1)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、x=0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x, yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[0][0]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=0..(cntT-1)のp[pickPosT[idx]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. cntT+ cntLが0に等しくないとき、変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、CompをDsY及びCで置き換えて、pSelComp[3]をpSelComp[0]に等しく設定し、pSelComp[2]をpSelComp[1]に等しく設定し、pSelComp[0]をpSelComp[1]に等しく設定し、そして、pSelComp[1]をpSelComp[3] に等しく設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=1, maxGrpIdx[0]=2, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]] > pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
ここで、divSigTable[]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
このセクションでは、VVC標準の現段階での作業草案に対して行うことができる別の変更を示す代替的な例示実施形態が記述される。ここでの式番号は、VVC標準における対応する式番号を指す。
…
右及び右上の利用可能な隣接クロマサンプルの数numTopSampと、左及び左下の利用可能な隣接クロマサンプルの数nLeftSampは、次のように導出される:
- predModeIntraがINTRA_LT_CCLMに等しい場合、以下が適用される:
numSampT=availT? nTbW:0 (8-157)
numSampL=availL? nTbH:0 (8-158)
- それ以外の場合、以下が適用される:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
変数bCTUboundaryは次のように導出される:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)? TRUE:FALSE (8-161)
変数cntN、及びNをL及びTで置き換えての配列pickPosN[]は、次のように導出される:
- 変数numIs4Nは((availT&&availL&&predModeIntra==INTRA_LT_CCLM)? 0:1)に等しく設定される
- 変数startPosNはnumSampN>>(2+numIs4N)に等しく設定される
- 変数pickStepNはMax(1,numSampN>>(1+numIs4N))に等しく設定される
- availNがTRUEに等しく、且つpredModeIntraがINTRA_LT_CCLM又はINTRA_N_CCLMに等しい場合、cntNはMin(numSampN,(1+numIs4N)<<1)に等しく設定され、pickPosN[pos]は、pos=0..(cntN-1)での(startPosN+pos*pickStepN)に等しく設定される
- それ以外の場合、cntNは0に等しく設定される
x=0..nTbW-1, y=0..nTbH-1の予測サンプルpredSamples[x][y]は次のように導出される:
- numSampL及びnumSampTの両方が0に等し場合、以下が適用される:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
- それ以外の場合、以下の順序付けられたステップが適用される:
1. 位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、x=0..nTbW*2-1, y=0..nTbH*2-1のコロケートルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
2. 隣接ルマサンプルpY[x][y]が次のように導出される:
- numSampLが0よりも大きいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左の、x=-1..-3, y=0..2*numSampL-1のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- numSampTがおよりも大きいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する上の、x=0..2*numSampT-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
- availTLがTRUEに等しいとき、位置(xTbY+x,yTbY+y)でのデブロッキングフィルタプロセスに先立って、隣接する左上の、x=-1, y=-1,-2のルマサンプルpY[x][y]が再構成ルマサンプルに等しく設定される
3. ダウンサンプリングされたx=0..nTbW-1, y=0..nTbH-1のコロケートルマサンプルpDsY[x][y]が次のように導出される:
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x=1..nTbW-1, y=1..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
- availLがTRUEに等しい場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
- それ以外の場合、y=1..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
- availTがTRUEに等しい場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
- それ以外の場合、x=1..nTbW-1のpDsY[x][0]は次のように導出される:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
- availLがTRUEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
- そうでなく、availLがTRUEに等しく、且つavailTがFALSEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
- そうでなく、availLがFALSEに等しく、且つavailTがTRUEに等しい場合、pDsY[0][0]は次のように導出される:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
- それ以外の場合(availLがFALSEに等しく、且つavailTがFALSEに等しい)、pDsY[0][0]は次のように導出される:
pDsY[0][0]=pY[0][0] (8-171)
- それ以外の場合、以下が適用される:
- x=1..nTbW-1, y=0..nTbH-1のpDsY[x][y]は次のように導出される:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
- availLがTRUEに等しい場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
- それ以外の場合、y=0..nTbH-1のpDsY[0][y]は次のように導出される:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4. numSampLが0よりも大きいとき、選択される隣接する左クロマサンプルpSelC[idx]は、idx=0..(cntL-1)のp[-1][pickPosL[idx]]に等しく設定され、選択されるダウンサンプリングされた左のidx=0..(cntL-1)のルマサンプルpSelDsY[idx]は次のように導出される:
- 変数yはpickPosL[idx]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- If y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
- それ以外の場合、
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
- それ以外の場合、以下が適用される:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5. numSampTが0よりも大きいとき、選択される隣接する上クロマサンプルpSelC[idx]は、idx=cntL..(cntL+cntT-1)のp[pickPosT[idx-cntL]][-1]に等しく設定され、ダウンサンプリングされた隣接する上の、idx=cntL..(cntL+cntT-1)のルマサンプルpSelDsY[idx]は次のように規定される:
- xはpickPosT[idx-cntL]に等しく設定される
- sps_cclm_colocated_chroma_flagが1に等しい場合、以下が適用される:
- x > 0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
- それ以外の場合、
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
- それ以外の場合(availTL がFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-184)
- それ以外の場合、以下が適用される:
- x>0の場合:
- bCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]+2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
- それ以外の場合(bCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
- それ以外の場合
- availTLがTRUEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
- そうでなく、availTLがTRUEに等しく、且つbCTUboundaryがTRUEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
- そうでなく、availTLがFALSEに等しく、且つbCTUboundaryがFALSEに等しい場合、以下が適用される:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
- それ以外の場合(availTLがFALSEに等しく、且つbCTUboundaryがTRUEに等しい)、以下が適用される:
pSelDsY[idx]=pY[0][-1] (8-190)
6. cntT+cntLが0に等しくないとき、変数minY、maxY、minC及びmaxCが次のように導出される:
-
- cntT+cntLが2に等しいとき、CompをDsY及びCで置き換えて、pSelComp[3]をpSelComp[0]に等しく設定し、pSelComp[2]をpSelComp[1]に等しく設定し、pSelComp[0]をpSelComp[1]に等しく設定し、そして、pSelComp[1]をpSelComp[3]に等しく設定する
- 配列minGrpIdx[]及びmaxGrpIdx[]は以下のように設定される:minGrpIdx[0]=0, minGrpIdx[1]=2, maxGrpIdx[0]=1, maxGrpIdx[1]=3
- If pSelDsY[minGrpIdx[0]] > pSelDsY[minGrpIdx[1]], Swap(minGrpIdx[0], minGrpIdx[1]).
- If pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(maxGrpIdx[0], maxGrpIdx[1]).
- If pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]], Swap(minGrpIdx, maxGrpIdx ).
- If pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]], Swap(minGrpIdx[1], maxGrpIdx[0]).
- maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1.
- maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1.
- minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1.
- minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1.
7. 変数a、b、及びkが次のように導出される:
- numSampLが0に等しく、且つnumSampTが0に等しい場合、以下が適用される:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
- それ以外の場合、以下が適用される:
diff=maxY-minY (8-211)
- diffが0に等しくない場合、以下が適用される:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)? 1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)? 1:3+x-y (8-218)
a=((3+x-y)<1)? Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
ここで、divSigTable[]は次のように規定される:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
- それ以外の場合(diffが0に等しい)、以下が適用される:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8. x=0..nTbW-1,y=0..nTbH-1の予測サンプルpredSamples[x][y]が次のように導出される:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
図30Aは、映像処理装置3000のブロック図である。装置3000は、ここに記載される方法のうちの1つ以上を実装するために使用され得る。装置3000は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信器にて具現化され得る。装置3000は、1つ以上のプロセッサ3002、1つ以上のメモリ3004、及び映像処理ハードウェア3006を含み得る。(1つ以上の)プロセッサ3002は、本文書に記載される1つ以上の方法(これらに限られないが、図18-29Cに示した方法を含む)を実行するように構成され得る。(1つ以上の)メモリ3004は、ここに記載される方法及び技術を実行するのに使用されるデータ及びコードを格納するために使用され得る。映像処理ハードウェア3006は、本文書に記載される一部の技術をハードウェア回路にて実装するために使用され得る。
座標(x-1,y)を有するサンプルA、
座標(x-1,y+H/2-1)を有するサンプルB、
座標(x-1,y+H/2)を有するサンプルC、
座標(x-1,y+H-1)を有するサンプルD、
座標(x-1,y+H)を有するサンプルE、
座標(x-1,y+H+H/2-1)を有するサンプルF、
座標(x-1,y+H+H/2)を有するサンプルG、
座標(x-1,y+H+H-1)を有するサンプルI、
座標(x,y-1)を有するサンプルJ、
座標(x+W/2-1,y-1)を有するサンプルK、
座標(x+W/2,y-1)を有するサンプルL、
座標(x+W-1,y-1)を有するサンプルM、
座標(x+W,y-1)を有するサンプルN、
座標(x+W+W/2-1,y-1)を有するサンプルO、
座標(x+W+W/2,y-1)を有するサンプルP、又は
座標(x+W+W-1,y-1)を有するサンプルQ、
のうちの少なくとも1つを有する、項5に記載の方法。
16. m=1であり、且つS1=SN-1である、項13又は14に記載の方法。
Ceiling(x)は、x以上の最小の整数を出力する天井関数である、項2に記載の方法。
23. (Lx1,Lx2,…,LxS)は、一群のルマサンプルのうちの最小サンプルである、項17に記載の方法。
19. 前記現在映像ブロックの前記符号化モードは、左の隣接サンプルのみを使用する第2の線形モード及び上の隣接サンプルのみを使用する第3の線形モードとは異なる第1の線形モードであり、前記現在映像ブロックの左上のサンプルの座標は(x,y)であり、前記現在映像ブロックの幅及び高さはそれぞれW及びHである、項11に記載の方法。
i) G0={S0,S1}、G1={S2,S3}、
ii) G0={S1,S0}、G1={S3,S2}、
iii) G0={S0,S2}、G1={S1,S3}、
iv) G0={S2,S0}、G1={S3,S1}、
v) G0={S1,S2}、G1={S0,S3}、
vi) G0={S2,S1}、G1={S3,S0}、
vii) G0={S0,S3}、G1={S1,S2}、
viii) G0={S3,S0}、G1={S2,S1}、
ix) G0={S1,S3}、G1={S0,S2}、
x) G0={S3,S1}、G1={S2,S0}、
xi) G0={S3,S2}、G1={S0,S1}、又は
xii) Xii)G0={S2,S3}、G1={S1,S0}、
のうちの1つを含み、
S0、S1、S2、S3は、それぞれ、前記4つのクロマサンプルを含み、それぞれ、対応するルマサンプルを更に含む、
項5に記載の方法。
Claims (16)
- 映像処理の方法であって、
クロマブロックである映像の現在映像ブロックと前記映像の符号化表現との間での変換のために、2つのクロマサンプル及び対応する2つのルマサンプルによって完全に決定可能なクロスコンポーネント線形モデルのパラメータを決定するステップと、
前記決定に基づいて前記変換を実行するステップと、
を有する方法。 - 前記2つのクロマサンプルはC0及びC1と表記され、前記対応するルマサンプルはL0及びL1と表記され、前記クロスコンポーネント線形モデルの前記パラメータはα及びβと表記され、α及びβは、α=(C1-C0)/(L1-L0)及びβ=C0-α×L0なる式によって定義される、請求項1に記載の方法。
- L1がL0に等しい場合、β=C0である、請求項2に記載の方法。
- L1がL0に等しい場合、前記クロスコンポーネント線形モデルのモード以外のイントラ予測モードが使用される、請求項2に記載の方法。
- αは、除算演算を排除して決定される、請求項2に記載の方法。
- αは、ルックアップテーブルを用いない処理を使用して決定され、該処理は除算演算を含まない、請求項2に記載の方法。
- 前記クロスコンポーネント線形モデルの前記パラメータは、(L1-L0)の値に基づいて決定される値を持つ、請求項2に記載の方法。
- α=Shift(C1-C0,Floor(log2(L1-L0)))であり、ただし、Shift(x,s)=(x+off)>>sであり、offは整数であり、Floor(x)は、xの整数部を出力するフロア関数である、請求項2に記載の方法。
- α=Shift(C1-C0,Ceiling(log2(L1-L0)))であり、ただし、Shift(x,s)=(x+off)>>sであり、offは整数であり、
Ceiling(x)は、x以上の最小の整数を出力する天井関数である、請求項2に記載の方法。 - log2(x)の値を得るための処理が、xの最上位桁の位置を調べることによって実行される、請求項8又は9に記載の方法。
- 前記パラメータの前記決定はKビット以内で行われ、Kは、8、10、12、16、24又は32である、請求項1に記載の方法。
- 中間変数が、前記Kビット以内になるようにクリッピング又は右シフトされる、請求項11に記載の方法。
- 前記変換の前記実行は、前記現在ブロックから前記符号化表現を生成することを含む、請求項1乃至12のいずれかに記載の方法。
- 前記変換の実行は、前記符号化表現から前記現在ブロックを生成することを含む、請求項1乃至12のいずれかに記載の方法。
- プロセッサと、命令を有する非一時的なメモリとを有する映像システム内の装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、請求項1乃至14のいずれか一項に記載の方法を実行させる、装置。
- 非一時的なコンピュータ読み取り可能媒体に格納されたコンピュータプログラムプロダクトであって、請求項1乃至14のいずれか一項に記載の方法を実行するためのプログラムコードを含むコンピュータプログラムプロダクト。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023002914A JP2023033408A (ja) | 2018-11-06 | 2023-01-12 | イントラ予測のための簡略化パラメータ導出 |
Applications Claiming Priority (23)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2018/114158 | 2018-11-06 | ||
CN2018114158 | 2018-11-06 | ||
CNPCT/CN2018/118799 | 2018-12-01 | ||
CN2018118799 | 2018-12-01 | ||
CNPCT/CN2018/119709 | 2018-12-07 | ||
CN2018119709 | 2018-12-07 | ||
CNPCT/CN2018/125412 | 2018-12-29 | ||
CN2018125412 | 2018-12-29 | ||
CNPCT/CN2019/070002 | 2019-01-01 | ||
CN2019070002 | 2019-01-01 | ||
CN2019075874 | 2019-02-22 | ||
CNPCT/CN2019/075874 | 2019-02-22 | ||
CNPCT/CN2019/075993 | 2019-02-24 | ||
CN2019075993 | 2019-02-24 | ||
CNPCT/CN2019/076195 | 2019-02-26 | ||
CN2019076195 | 2019-02-26 | ||
CNPCT/CN2019/079396 | 2019-03-24 | ||
CN2019079396 | 2019-03-24 | ||
CN2019079431 | 2019-03-25 | ||
CNPCT/CN2019/079431 | 2019-03-25 | ||
CNPCT/CN2019/079769 | 2019-03-26 | ||
CN2019079769 | 2019-03-26 | ||
PCT/CN2019/116028 WO2020094067A1 (en) | 2018-11-06 | 2019-11-06 | Simplified parameter derivation for intra prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023002914A Division JP2023033408A (ja) | 2018-11-06 | 2023-01-12 | イントラ予測のための簡略化パラメータ導出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022506285A true JP2022506285A (ja) | 2022-01-17 |
JP7212157B2 JP7212157B2 (ja) | 2023-01-24 |
Family
ID=70610795
Family Applications (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523516A Active JP7422757B2 (ja) | 2018-11-06 | 2019-11-06 | 位置ベースのイントラ予測 |
JP2021523511A Pending JP2022506283A (ja) | 2018-11-06 | 2019-11-06 | イントラ予測のためのパラメータ導出における複雑性低減 |
JP2021523513A Active JP7212157B2 (ja) | 2018-11-06 | 2019-11-06 | イントラ予測のための簡略化パラメータ導出 |
JP2021523502A Pending JP2022506277A (ja) | 2018-11-06 | 2019-11-06 | 位置依存のイントラ予測 |
JP2023002914A Pending JP2023033408A (ja) | 2018-11-06 | 2023-01-12 | イントラ予測のための簡略化パラメータ導出 |
JP2023065495A Pending JP2023083394A (ja) | 2018-11-06 | 2023-04-13 | 位置依存のイントラ予測 |
JP2023179944A Pending JP2023184579A (ja) | 2018-11-06 | 2023-10-19 | 位置ベースのイントラ予測 |
JP2023181439A Pending JP2023184580A (ja) | 2018-11-06 | 2023-10-20 | イントラ予測のためのパラメータ導出における複雑性低減 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523516A Active JP7422757B2 (ja) | 2018-11-06 | 2019-11-06 | 位置ベースのイントラ予測 |
JP2021523511A Pending JP2022506283A (ja) | 2018-11-06 | 2019-11-06 | イントラ予測のためのパラメータ導出における複雑性低減 |
Family Applications After (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523502A Pending JP2022506277A (ja) | 2018-11-06 | 2019-11-06 | 位置依存のイントラ予測 |
JP2023002914A Pending JP2023033408A (ja) | 2018-11-06 | 2023-01-12 | イントラ予測のための簡略化パラメータ導出 |
JP2023065495A Pending JP2023083394A (ja) | 2018-11-06 | 2023-04-13 | 位置依存のイントラ予測 |
JP2023179944A Pending JP2023184579A (ja) | 2018-11-06 | 2023-10-19 | 位置ベースのイントラ予測 |
JP2023181439A Pending JP2023184580A (ja) | 2018-11-06 | 2023-10-20 | イントラ予測のためのパラメータ導出における複雑性低減 |
Country Status (6)
Country | Link |
---|---|
US (9) | US10999581B2 (ja) |
EP (4) | EP3861736A4 (ja) |
JP (8) | JP7422757B2 (ja) |
KR (4) | KR20210089131A (ja) |
CN (7) | CN112997484A (ja) |
WO (6) | WO2020094058A1 (ja) |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110719479B (zh) | 2018-07-15 | 2023-01-10 | 北京字节跳动网络技术有限公司 | 跨分量编码信息导出 |
WO2020015648A1 (en) * | 2018-07-16 | 2020-01-23 | Huawei Technologies Co., Ltd. | Video encoder, video decoder, and corresponding encoding and decoding methods |
CN116347109A (zh) | 2018-08-17 | 2023-06-27 | 北京字节跳动网络技术有限公司 | 一种处理视频数据的方法和装置 |
CN117478883A (zh) | 2018-09-12 | 2024-01-30 | 北京字节跳动网络技术有限公司 | 交叉分量线性模型中的尺寸相关的下采样 |
KR20210089131A (ko) | 2018-11-06 | 2021-07-15 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 위치 기반 인트라 예측 |
US11197005B2 (en) * | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
CA3085391C (en) | 2018-11-23 | 2023-10-24 | Lg Electronics Inc. | Method for decoding image on basis of cclm prediction in image coding system, and device therefor |
WO2020108591A1 (en) | 2018-12-01 | 2020-06-04 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation for intra prediction |
AU2019391197B2 (en) | 2018-12-07 | 2023-05-25 | Beijing Bytedance Network Technology Co., Ltd. | Context-based intra prediction |
EP3900347A2 (en) * | 2018-12-21 | 2021-10-27 | Vid Scale, Inc. | Methods, architectures, apparatuses and systems directed to improved linear model estimation for template based video coding |
CN113273203B (zh) | 2018-12-22 | 2024-03-12 | 北京字节跳动网络技术有限公司 | 两步交叉分量预测模式 |
CN113287301A (zh) * | 2018-12-31 | 2021-08-20 | 华为技术有限公司 | 用于帧内预测的分量间线性建模方法和装置 |
EP3890323A4 (en) | 2019-01-02 | 2022-06-08 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | PREDICTION DECODING METHOD, DEVICE AND COMPUTER STORAGE MEDIA |
KR102628086B1 (ko) | 2019-02-22 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 인트라 예측을 위한 이웃 샘플 선택 |
BR112021015017B1 (pt) | 2019-02-24 | 2022-07-26 | Bytedance Inc. | Método e aparelho para codificar dados de vídeo, e, mídia de armazenamento |
CN113545064B (zh) * | 2019-03-04 | 2024-05-10 | 阿里巴巴集团控股有限公司 | 用于处理视频内容的方法和装置及计算机可读存储介质 |
EP3918800A4 (en) | 2019-03-08 | 2022-07-06 | Beijing Bytedance Network Technology Co., Ltd. | SIGNALING TRANSFORMATION INFORMATION IN VIDEO PROCESSING |
WO2020192642A1 (en) | 2019-03-24 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Conditions in parameter derivation for intra prediction |
EP3935834A4 (en) | 2019-04-18 | 2022-08-17 | Beijing Bytedance Network Technology Co., Ltd. | LIMITATION ON THE APPLICABILITY OF A CROSS COMPONENT MODE |
MX2021012674A (es) | 2019-04-23 | 2021-11-12 | Beijing Bytedance Network Tech Co Ltd | Metodos para la reduccion de dependencia de componentes cruzados. |
JP7407206B2 (ja) | 2019-05-08 | 2023-12-28 | 北京字節跳動網絡技術有限公司 | クロスコンポーネントコーディングの適用条件 |
JP7418478B2 (ja) | 2019-06-22 | 2024-01-19 | 北京字節跳動網絡技術有限公司 | クロマ残差スケーリングのためのシンタックス要素 |
CN117395396A (zh) | 2019-07-07 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 色度残差缩放的信令通知 |
CN114208166B (zh) | 2019-08-10 | 2024-04-09 | 北京字节跳动网络技术有限公司 | 视频比特流中的子图片相关信令通知 |
JP7479456B2 (ja) | 2019-09-20 | 2024-05-08 | 北京字節跳動網絡技術有限公司 | ビデオ・データ処理方法及び装置並びに記憶媒体及び方法 |
EP4022917A4 (en) | 2019-10-02 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SYNTAX FOR SUBPICTURE SIGNALING IN A VIDEO BITSTREAM |
KR20220078600A (ko) | 2019-10-18 | 2022-06-10 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 서브픽처들의 파라미터 세트 시그널링에서의 신택스 제약들 |
KR20220084060A (ko) | 2019-10-29 | 2022-06-21 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 크로스 컴포넌트 적응적 루프 필터의 시그널링 |
WO2021115362A1 (en) | 2019-12-11 | 2021-06-17 | Beijing Bytedance Network Technology Co., Ltd. | Sample padding for cross-component adaptive loop filtering |
CN115176475A (zh) | 2019-12-31 | 2022-10-11 | 抖音视界有限公司 | 多参考线色度预测 |
KR20230029670A (ko) | 2020-06-30 | 2023-03-03 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 적응적 루프 필터링을 위한 경계 위치 |
US11647198B2 (en) * | 2021-01-25 | 2023-05-09 | Lemon Inc. | Methods and apparatuses for cross-component prediction |
US11683474B2 (en) | 2021-01-25 | 2023-06-20 | Lemon Inc. | Methods and apparatuses for cross-component prediction |
WO2023138628A1 (en) * | 2022-01-21 | 2023-07-27 | Mediatek Inc. | Method and apparatus of cross-component linear model prediction in video coding system |
WO2024114701A1 (en) * | 2022-11-30 | 2024-06-06 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9288500B2 (en) * | 2011-05-12 | 2016-03-15 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
Family Cites Families (131)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101138392B1 (ko) | 2004-12-30 | 2012-04-26 | 삼성전자주식회사 | 색차 성분의 상관관계를 이용한 컬러 영상의 부호화,복호화 방법 및 그 장치 |
JP2009545920A (ja) | 2006-08-02 | 2009-12-24 | トムソン ライセンシング | ビデオ符号化処理のためにアダブティブなジオメトリック分割を行う方法および装置 |
US20080089411A1 (en) | 2006-10-16 | 2008-04-17 | Nokia Corporation | Multiple-hypothesis cross-layer prediction |
JP2010135864A (ja) * | 2007-03-29 | 2010-06-17 | Toshiba Corp | 画像符号化方法及び装置並びに画像復号化方法及び装置 |
CN101877785A (zh) * | 2009-04-29 | 2010-11-03 | 祝志怡 | 一种基于混合预测的视频编码方法 |
KR101789634B1 (ko) | 2010-04-09 | 2017-10-25 | 엘지전자 주식회사 | 비디오 데이터 처리 방법 및 장치 |
JP2013034163A (ja) * | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
JP2013034162A (ja) | 2011-06-03 | 2013-02-14 | Sony Corp | 画像処理装置及び画像処理方法 |
US9654785B2 (en) | 2011-06-09 | 2017-05-16 | Qualcomm Incorporated | Enhanced intra-prediction mode signaling for video coding using neighboring mode |
US9693070B2 (en) * | 2011-06-24 | 2017-06-27 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
ES2807351T3 (es) | 2011-06-27 | 2021-02-22 | Sun Patent Trust | Procedimiento de codificación de imágenes, procedimiento de descodificación de imágenes, dispositivo de codificación de imágenes, dispositivo de descodificación de imágenes y dispositivo de codificación/descodificación de imágenes |
MX2014000163A (es) * | 2011-06-28 | 2014-02-19 | Samsung Electronics Co Ltd | Metodo y aparato de prediccion para componente de croma de imagen que utiliza componente de luma de imagen. |
JP5905884B2 (ja) | 2011-06-30 | 2016-04-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 復号方法及び復号装置 |
US8724711B2 (en) * | 2011-07-12 | 2014-05-13 | Intel Corporation | Luma-based chroma intra prediction |
GB2495942B (en) * | 2011-10-25 | 2014-09-03 | Canon Kk | Method and apparatus for processing components of an image |
CN103096055B (zh) * | 2011-11-04 | 2016-03-30 | 华为技术有限公司 | 一种图像信号帧内预测及解码的方法和装置 |
US9344722B2 (en) | 2011-11-18 | 2016-05-17 | Futurewei Technologies, Inc. | Scanning of prediction residuals in high efficiency video coding |
WO2013102293A1 (en) * | 2012-01-04 | 2013-07-11 | Mediatek Singapore Pte. Ltd. | Improvements of luma-based chroma intra prediction |
US9438904B2 (en) * | 2012-01-19 | 2016-09-06 | Futurewei Technologies, Inc. | Reduced look-up table for LM mode calculation |
CN104380741B (zh) * | 2012-01-19 | 2018-06-05 | 华为技术有限公司 | 用于lm帧内预测的参考像素缩减 |
CN104718759B (zh) | 2012-01-24 | 2019-01-18 | 华为技术有限公司 | Lm模式的简化 |
US9438905B2 (en) * | 2012-04-12 | 2016-09-06 | Futurewei Technologies, Inc. | LM mode with uniform bit-width multipliers |
CN103379321B (zh) * | 2012-04-16 | 2017-02-01 | 华为技术有限公司 | 视频图像分量的预测方法和装置 |
WO2013155662A1 (en) | 2012-04-16 | 2013-10-24 | Mediatek Singapore Pte. Ltd. | Methods and apparatuses of simplification for intra chroma lm mode |
CN104471940B (zh) | 2012-04-16 | 2017-12-15 | 联发科技(新加坡)私人有限公司 | 色度帧内预测方法及装置 |
GB2501535A (en) | 2012-04-26 | 2013-10-30 | Sony Corp | Chrominance Processing in High Efficiency Video Codecs |
WO2014010943A1 (ko) * | 2012-07-10 | 2014-01-16 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 장치 |
CN103916673B (zh) * | 2013-01-06 | 2017-12-22 | 华为技术有限公司 | 基于双向预测的编码方法、解码方法和装置 |
CN104871537B (zh) | 2013-03-26 | 2018-03-16 | 联发科技股份有限公司 | 色彩间帧内预测的方法 |
US10003815B2 (en) | 2013-06-03 | 2018-06-19 | Qualcomm Incorporated | Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures |
WO2015054307A2 (en) | 2013-10-07 | 2015-04-16 | Vid Scale, Inc. | Combined scalability processing for multi-layer video coding |
KR101683175B1 (ko) * | 2014-03-06 | 2016-12-06 | 삼성전자주식회사 | 영상 복호화 방법 및 그 장치, 영상 부호화 방법 및 그 장치 |
CN103856782B (zh) | 2014-03-18 | 2017-01-11 | 天津大学 | 基于多视点视频整帧丢失的自适应错误掩盖方法 |
CN106664410B (zh) * | 2014-06-19 | 2019-12-03 | Vid拓展公司 | 用于基于三维色彩映射模型参数优化的系统和方法 |
US10200700B2 (en) * | 2014-06-20 | 2019-02-05 | Qualcomm Incorporated | Cross-component prediction in video coding |
US9883184B2 (en) * | 2014-10-07 | 2018-01-30 | Qualcomm Incorporated | QP derivation and offset for adaptive color transform in video coding |
US9838662B2 (en) * | 2014-10-10 | 2017-12-05 | Qualcomm Incorporated | Harmonization of cross-component prediction and adaptive color transform in video coding |
CN107079166A (zh) * | 2014-10-28 | 2017-08-18 | 联发科技(新加坡)私人有限公司 | 用于视频编码的引导交叉分量预测的方法 |
JP2017537539A (ja) * | 2014-11-05 | 2017-12-14 | サムスン エレクトロニクス カンパニー リミテッド | サンプル単位予測符号化装置及びその方法 |
CN107431795B (zh) * | 2014-12-19 | 2019-12-06 | 寰发股份有限公司 | 视频编码方法 |
EP3241352B1 (en) | 2014-12-31 | 2021-11-24 | Nokia Technologies Oy | Inter-layer prediction for scalable video coding and decoding |
US20170374384A1 (en) * | 2015-01-14 | 2017-12-28 | Vid Scale, Inc. | Palette coding for non-4:4:4 screen content video |
US10321140B2 (en) | 2015-01-22 | 2019-06-11 | Mediatek Singapore Pte. Ltd. | Method of video coding for chroma components |
WO2016115708A1 (en) | 2015-01-22 | 2016-07-28 | Mediatek Singapore Pte. Ltd. | Methods for chroma component coding with separate intra prediction mode |
US9998742B2 (en) * | 2015-01-27 | 2018-06-12 | Qualcomm Incorporated | Adaptive cross component residual prediction |
US10455249B2 (en) * | 2015-03-20 | 2019-10-22 | Qualcomm Incorporated | Downsampling process for linear model prediction mode |
WO2016167538A1 (ko) | 2015-04-12 | 2016-10-20 | 엘지전자(주) | 비디오 신호의 인코딩, 디코딩 방법 및 그 장치 |
KR20180008445A (ko) * | 2015-06-10 | 2018-01-24 | 삼성전자주식회사 | 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치 |
US10148977B2 (en) | 2015-06-16 | 2018-12-04 | Futurewei Technologies, Inc. | Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions |
US20180139469A1 (en) | 2015-06-19 | 2018-05-17 | Nokia Technologies Oy | An Apparatus, A Method and A Computer Program for Video Coding and Decoding |
CN113810691A (zh) | 2015-07-08 | 2021-12-17 | 交互数字麦迪逊专利控股公司 | 用于使用交叉平面滤波的增强色度编码的方法和装置 |
US20170016972A1 (en) | 2015-07-13 | 2017-01-19 | Siemens Medical Solutions Usa, Inc. | Fast Prospective Motion Correction For MR Imaging |
KR102267922B1 (ko) | 2015-09-23 | 2021-06-22 | 노키아 테크놀로지스 오와이 | 360도 파노라마 비디오를 코딩하는 방법, 장치 및 컴퓨터 프로그램 제품 |
US10045023B2 (en) | 2015-10-09 | 2018-08-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Cross component prediction in video coding |
US20170150156A1 (en) | 2015-11-25 | 2017-05-25 | Qualcomm Incorporated | Illumination compensation with non-square predictive blocks in video coding |
WO2017139937A1 (en) * | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
FI20165256L (fi) | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
MX2018014190A (es) | 2016-05-17 | 2019-08-05 | Arris Entpr Llc | Correlacion de plantillas para intra-prediccion de jvet. |
EP3461131A4 (en) | 2016-05-20 | 2019-03-27 | Panasonic Intellectual Property Corporation of America | ENCODING DEVICE, DECODING DEVICE, ENCODING METHOD, AND DECODING METHOD |
WO2017203882A1 (en) * | 2016-05-24 | 2017-11-30 | Sharp Kabushiki Kaisha | Systems and methods for intra prediction coding |
MX2018014480A (es) | 2016-05-25 | 2019-08-12 | Arris Entpr Llc | Codificacion de prediccion angular ponderada mejorada para intra codificacion. |
WO2017205700A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Binary, ternary and quad tree partitioning for jvet coding of video data |
MX2018014491A (es) | 2016-05-25 | 2019-08-14 | Arris Entpr Llc | Metodo de particionamiento de bloque general. |
MX2018014487A (es) | 2016-05-25 | 2019-08-12 | Arris Entpr Llc | Prediccion angular ponderada para intra codificacion. |
WO2017205621A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Jvet coding block structure with asymmetrical partitioning |
CN114866774A (zh) | 2016-05-27 | 2022-08-05 | 松下电器(美国)知识产权公司 | 编码装置及解码装置 |
US10484712B2 (en) * | 2016-06-08 | 2019-11-19 | Qualcomm Incorporated | Implicit coding of reference line index used in intra prediction |
FI20165547A (fi) | 2016-06-30 | 2017-12-31 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten |
EP3488610A4 (en) | 2016-07-22 | 2019-07-17 | Sharp Kabushiki Kaisha | SYSTEMS AND METHOD FOR CODING VIDEO DATA BY ADAPTIVE COMPONENT CALING |
WO2018021374A1 (ja) | 2016-07-29 | 2018-02-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US11095922B2 (en) | 2016-08-02 | 2021-08-17 | Qualcomm Incorporated | Geometry transformation-based adaptive loop filtering |
WO2018030292A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2018030293A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2018030294A1 (ja) | 2016-08-10 | 2018-02-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10326986B2 (en) * | 2016-08-15 | 2019-06-18 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10368107B2 (en) | 2016-08-15 | 2019-07-30 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
US10390015B2 (en) * | 2016-08-26 | 2019-08-20 | Qualcomm Incorporated | Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction |
US10419757B2 (en) * | 2016-08-31 | 2019-09-17 | Qualcomm Incorporated | Cross-component filter |
US10652575B2 (en) * | 2016-09-15 | 2020-05-12 | Qualcomm Incorporated | Linear model chroma intra prediction for video coding |
JP2018056685A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社ドワンゴ | 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム |
US10382781B2 (en) | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
GB2555788A (en) | 2016-11-08 | 2018-05-16 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
CN110024389B (zh) | 2016-11-21 | 2023-05-09 | 松下电器(美国)知识产权公司 | 编码装置、解码装置、编码方法及解码方法 |
WO2018097115A1 (ja) * | 2016-11-22 | 2018-05-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
US10477240B2 (en) | 2016-12-19 | 2019-11-12 | Qualcomm Incorporated | Linear model prediction mode with sample accessing for video coding |
US10674165B2 (en) | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
WO2018116925A1 (ja) * | 2016-12-21 | 2018-06-28 | シャープ株式会社 | イントラ予測画像生成装置、画像復号装置、および画像符号化装置 |
JP2020031252A (ja) | 2016-12-22 | 2020-02-27 | シャープ株式会社 | 画像復号装置及び画像符号化装置 |
WO2018125972A1 (en) | 2016-12-28 | 2018-07-05 | Arris Enterprises Llc | Adaptive unequal weight planar prediction |
DE112017006638B4 (de) * | 2016-12-28 | 2023-05-11 | Arris Enterprises Llc | Verbesserte Videobitstromkodierung |
US20180199062A1 (en) | 2017-01-11 | 2018-07-12 | Qualcomm Incorporated | Intra prediction techniques for video coding |
US11025903B2 (en) * | 2017-01-13 | 2021-06-01 | Qualcomm Incorporated | Coding video data using derived chroma mode |
US10694181B2 (en) * | 2017-01-27 | 2020-06-23 | Qualcomm Incorporated | Bilateral filters in video coding with reduced complexity |
WO2018174457A1 (ko) | 2017-03-22 | 2018-09-27 | 엘지전자(주) | 영상 처리 방법 및 이를 위한 장치 |
TWI820019B (zh) | 2017-03-31 | 2023-11-01 | 美商松下電器(美國)知識產權公司 | 圖像解碼裝置及解碼方法 |
US10542264B2 (en) | 2017-04-04 | 2020-01-21 | Arris Enterprises Llc | Memory reduction implementation for weighted angular prediction |
CN114422780A (zh) | 2017-04-28 | 2022-04-29 | 夏普株式会社 | 图像解码装置以及图像编码装置 |
US10602180B2 (en) | 2017-06-13 | 2020-03-24 | Qualcomm Incorporated | Motion vector prediction |
US11190762B2 (en) | 2017-06-21 | 2021-11-30 | Lg Electronics, Inc. | Intra-prediction mode-based image processing method and apparatus therefor |
WO2018236031A1 (ko) | 2017-06-21 | 2018-12-27 | 엘지전자(주) | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
WO2019004283A1 (ja) | 2017-06-28 | 2019-01-03 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
WO2019006300A1 (en) | 2017-06-29 | 2019-01-03 | Dolby Laboratories Licensing Corporation | INTEGRATED IMAGE REMODELING AND VIDEO CODING |
WO2019006363A1 (en) | 2017-06-30 | 2019-01-03 | Vid Scale, Inc. | LOCAL LIGHTING COMPENSATION USING GENERALIZED BI-PREDICTION |
CN116781893A (zh) | 2017-07-05 | 2023-09-19 | 艾锐势有限责任公司 | 对视频编码、解码的方法和计算机可读存储器或存储装置 |
CN109274969B (zh) | 2017-07-17 | 2020-12-22 | 华为技术有限公司 | 色度预测的方法和设备 |
CN115174913A (zh) | 2017-07-24 | 2022-10-11 | 艾锐势有限责任公司 | 帧内模式jvet编译方法 |
CA3070444A1 (en) | 2017-07-24 | 2019-01-31 | Arris Enterprises Llc | Intra mode jvet coding |
JP6994868B2 (ja) | 2017-08-09 | 2022-01-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
MX2020003656A (es) | 2017-10-02 | 2020-10-12 | Arris Entpr Llc | Sistema y método para reducir artefactos de bloque y proporcionar eficiencia de codificación mejorada. |
US10575023B2 (en) | 2017-10-09 | 2020-02-25 | Arris Enterprises Llc | Adaptive unequal weight planar prediction |
GB2567249A (en) | 2017-10-09 | 2019-04-10 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US10965941B2 (en) | 2017-10-09 | 2021-03-30 | Qualcomm Incorporated | Position-dependent prediction combinations in video coding |
GB2580268B (en) | 2017-12-18 | 2023-03-08 | Arris Entpr Llc | System and method for constructing a plane for planar prediction |
GB2571313B (en) * | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
US20190313108A1 (en) | 2018-04-05 | 2019-10-10 | Qualcomm Incorporated | Non-square blocks in video coding |
US10609402B2 (en) | 2018-05-02 | 2020-03-31 | Tencent America LLC | Method and apparatus for prediction and transform for small blocks |
WO2019210840A1 (en) | 2018-05-03 | 2019-11-07 | FG Innovation Company Limited | Device and method for coding video data based on different reference sets in linear model prediction |
WO2020003274A1 (en) * | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
CN116708837A (zh) | 2018-07-02 | 2023-09-05 | Lg电子株式会社 | 编解码设备和数据发送设备 |
WO2020015648A1 (en) | 2018-07-16 | 2020-01-23 | Huawei Technologies Co., Ltd. | Video encoder, video decoder, and corresponding encoding and decoding methods |
CN109005408B (zh) | 2018-08-01 | 2020-05-29 | 北京奇艺世纪科技有限公司 | 一种帧内预测方法、装置及电子设备 |
CA3115177C (en) | 2018-10-05 | 2024-06-04 | Huawei Technologies Co., Ltd. | Intra prediction method and device |
KR20210089131A (ko) | 2018-11-06 | 2021-07-15 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 위치 기반 인트라 예측 |
US11197005B2 (en) | 2018-11-08 | 2021-12-07 | Qualcomm Incorporated | Cross-component prediction for video coding |
US11178396B2 (en) | 2018-11-14 | 2021-11-16 | Tencent America LLC | Constrained intra prediction and unified most probable mode list generation |
WO2020108591A1 (en) | 2018-12-01 | 2020-06-04 | Beijing Bytedance Network Technology Co., Ltd. | Parameter derivation for intra prediction |
AU2019391197B2 (en) | 2018-12-07 | 2023-05-25 | Beijing Bytedance Network Technology Co., Ltd. | Context-based intra prediction |
US11095921B2 (en) | 2018-12-18 | 2021-08-17 | Tencent America LLC | Method and apparatus for video encoding or decoding |
BR122021012456B1 (pt) | 2019-01-15 | 2022-03-22 | Lg Electronics Inc | Método de decodificação de uma imagem realizado por um aparelho de decodificação, método de codificação de uma imagem realizado por um aparelho de codificação, aparelho de decodificação para decodificação de imagem, aparelho de codificação para codificação de imagem e mídia de armazenamento digital legível por computador não transitória |
KR102628086B1 (ko) | 2019-02-22 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 인트라 예측을 위한 이웃 샘플 선택 |
BR112021015017B1 (pt) | 2019-02-24 | 2022-07-26 | Bytedance Inc. | Método e aparelho para codificar dados de vídeo, e, mídia de armazenamento |
-
2019
- 2019-11-06 KR KR1020217008481A patent/KR20210089131A/ko not_active Application Discontinuation
- 2019-11-06 EP EP19881776.9A patent/EP3861736A4/en active Pending
- 2019-11-06 EP EP19881464.2A patent/EP3861728A4/en active Pending
- 2019-11-06 CN CN201980072729.0A patent/CN112997484A/zh active Pending
- 2019-11-06 EP EP19881016.0A patent/EP3861738A4/en active Pending
- 2019-11-06 JP JP2021523516A patent/JP7422757B2/ja active Active
- 2019-11-06 KR KR1020217008482A patent/KR102653562B1/ko active IP Right Grant
- 2019-11-06 CN CN201980072731.8A patent/CN112997492B/zh active Active
- 2019-11-06 CN CN201980072730.3A patent/CN113039791B/zh active Active
- 2019-11-06 JP JP2021523511A patent/JP2022506283A/ja active Pending
- 2019-11-06 WO PCT/CN2019/115992 patent/WO2020094058A1/en unknown
- 2019-11-06 KR KR1020217008483A patent/KR20210089133A/ko unknown
- 2019-11-06 WO PCT/CN2019/116027 patent/WO2020094066A1/en active Application Filing
- 2019-11-06 JP JP2021523513A patent/JP7212157B2/ja active Active
- 2019-11-06 CN CN202311722882.8A patent/CN117640955A/zh active Pending
- 2019-11-06 CN CN201980072612.2A patent/CN112997488B/zh active Active
- 2019-11-06 WO PCT/CN2019/116015 patent/WO2020094061A1/en active Application Filing
- 2019-11-06 EP EP19883299.0A patent/EP3861739A4/en active Pending
- 2019-11-06 WO PCT/CN2019/116028 patent/WO2020094067A1/en unknown
- 2019-11-06 JP JP2021523502A patent/JP2022506277A/ja active Pending
- 2019-11-06 CN CN201980072548.8A patent/CN112997491B/zh active Active
- 2019-11-06 WO PCT/CN2019/115985 patent/WO2020094057A1/en unknown
- 2019-11-06 CN CN201980072613.7A patent/CN112956199B/zh active Active
- 2019-11-06 KR KR1020217008485A patent/KR20210087928A/ko not_active Application Discontinuation
- 2019-11-06 WO PCT/CN2019/115999 patent/WO2020094059A1/en unknown
-
2020
- 2020-04-16 US US16/850,509 patent/US10999581B2/en active Active
- 2020-07-28 US US16/940,826 patent/US11019344B2/en active Active
- 2020-07-28 US US16/940,877 patent/US10979717B2/en active Active
- 2020-08-07 US US16/987,844 patent/US11025915B2/en active Active
-
2021
- 2021-03-15 US US17/201,711 patent/US11438598B2/en active Active
- 2021-05-03 US US17/246,821 patent/US20210258572A1/en not_active Abandoned
- 2021-05-03 US US17/246,794 patent/US11930185B2/en active Active
-
2023
- 2023-01-12 JP JP2023002914A patent/JP2023033408A/ja active Pending
- 2023-04-13 JP JP2023065495A patent/JP2023083394A/ja active Pending
- 2023-05-01 US US18/310,344 patent/US20230269379A1/en active Pending
- 2023-06-30 US US18/345,608 patent/US20230345009A1/en active Granted
- 2023-10-19 JP JP2023179944A patent/JP2023184579A/ja active Pending
- 2023-10-20 JP JP2023181439A patent/JP2023184580A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9288500B2 (en) * | 2011-05-12 | 2016-03-15 | Texas Instruments Incorporated | Luma-based chroma intra-prediction for video coding |
Non-Patent Citations (3)
Title |
---|
GUILLAUME LAROCHE, ET AL., "NON-CE3: ON CROSS-COMPONENT LINEAR MODEL SIMPLIFICATION", vol. JVET-K0204 (version 3), JPN6022021207, 12 July 2018 (2018-07-12), pages 1 - 7, ISSN: 0004787822 * |
THOMAS WIEGAND, ET AL., "JOINT DRAFT 5: SCALABLE VIDEO CODING (IN INTEGRATED FORM WITH ITU-T REC. H.264 | ISO/IEC 14996-10)", vol. JVT-R201, JPN6022021202, 20 March 2006 (2006-03-20), pages 349, ISSN: 0004787824 * |
XIANG MA, ET AL., "CE3: CCLM/MDLM USING SIMPLIFIED COEFFICIENTS DERIVATION METHOD (TEST 5.6.1, 5.6.2 AND 5.6.3)", vol. JVET-L0340 (version 5), JPN6022021204, 23 October 2018 (2018-10-23), pages 1 - 6, ISSN: 0004787823 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422757B2 (ja) | 位置ベースのイントラ予測 | |
JP2022508294A (ja) | コンテキストベースのイントラ予測 | |
JP2022517136A (ja) | イントラ予測のためのパラメータ導出 | |
JP2022521698A (ja) | イントラ予測のための隣接サンプル選択 | |
WO2020192642A1 (en) | Conditions in parameter derivation for intra prediction | |
CN113632474A (zh) | 用于帧间预测的参数推导 | |
RU2806083C2 (ru) | Контекстно-ориентированное внутреннее предсказание | |
KR102676917B1 (ko) | 컨텍스트 기반 인트라 예측 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7212157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |