JP2023134521A - デコーダ側の動きベクトルの導出 - Google Patents
デコーダ側の動きベクトルの導出 Download PDFInfo
- Publication number
- JP2023134521A JP2023134521A JP2023105110A JP2023105110A JP2023134521A JP 2023134521 A JP2023134521 A JP 2023134521A JP 2023105110 A JP2023105110 A JP 2023105110A JP 2023105110 A JP2023105110 A JP 2023105110A JP 2023134521 A JP2023134521 A JP 2023134521A
- Authority
- JP
- Japan
- Prior art keywords
- block
- technique
- bio
- video
- current block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 title claims abstract description 69
- 238000009795 derivation Methods 0.000 title description 9
- 238000000034 method Methods 0.000 claims abstract description 437
- 230000000007 visual effect Effects 0.000 claims abstract description 60
- 230000003287 optical effect Effects 0.000 claims abstract description 47
- 238000003672 processing method Methods 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims description 84
- 230000002457 bidirectional effect Effects 0.000 claims description 52
- 230000009466 transformation Effects 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 abstract description 8
- 230000002123 temporal effect Effects 0.000 description 110
- 239000000523 sample Substances 0.000 description 51
- 230000004048 modification Effects 0.000 description 25
- 238000012986 modification Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 22
- 230000011664 signaling Effects 0.000 description 20
- 230000002146 bilateral effect Effects 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 19
- 101001036283 Xenopus laevis DNA-binding protein inhibitor ID-3-A Proteins 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006872 improvement Effects 0.000 description 6
- 238000003491 array Methods 0.000 description 5
- 239000013074 reference sample Substances 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000010364 biochemical engineering Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 2
- 101150095908 apex1 gene Proteins 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 101100520660 Drosophila melanogaster Poc1 gene Proteins 0.000 description 1
- 101100520662 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PBA1 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
Abstract
Description
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2019年4月2日出願の国際特許出願PCT/CN2019/081155号、2019年5月7日出願の国際特許出願PCT/CN2019/085796号の優先権および利益を適時に主張することを目的とする。米国法に基づくすべての目的のために、上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
二乗誤差の合計(sum of squares error)(SSE)と、平均値分離二乗誤差の合計(mean removed sum of squares error)(MRSSE)と、平均値差、または勾配値のうちの1つ以上を含む、判定することと、前記視覚メディアデータの現在のブロックと対応する前記視覚メディアデータのコーディング表現との間で変換を行うことを含み、前記変換は、前記第1の参照ブロックおよび前記第2の参照ブロックをそれぞれ修正することから生成された前記第2の修正された参照ブロックとの間の前記差の使用を含む。
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zip.VTMと呼ばれるVVCの最新の参照ソフトウェアは、以下で確認することができる。
https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1.
CUレベルMV候補セット
・現在のCUがAMVPモードになっている場合の元のAMVP候補、
・すべてのマージ候補、
・2.1.1.3項に紹介されるような、補間されたMVフィールド内の複数のMV、
・上と左の近傍の動きベクトル
・CUレベルの検索から決定されたMV、
・上、左、左上、右上の近傍のMV、
・参照ピクチャからの並置されたMVのスケーリングされたバージョン、
・最大4つのATMVP候補、
・最大4つのSTMVP候補
双方向予測を用いる。
それ以外の場合において、cost0≦cost1の場合
list0からの単一予測を用いる。
そうでない場合、
list1からの単一予測を用いる。
r=500・4d-8 (10)
m=700・4d-8 (11)
ここで、dは映像サンプルのビット深度である。
- 現在のコーディングブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
(POC-POC0)*(POC-POC1)<0,
式中、POCは、現在の符号化対象のピクチャのピクチャオーダカウントであり、POC0およびPOC1は、現在のピクチャに対する参照のピクチャオーダカウントである。
MV0’=MV0+MVdiff
MV1’=MV1-MVdiff
ここで、MVdiffは、1つの参照ピクチャにおける探索空間内の点を表す。
基準サンプリングパディング
- 以下のすべての条件が真である場合、dmvrFlagは1に等しく設定される。
- sps_dmvr_enabled_flagが1と等しい
- 現在のブロックは、三角形予測モード、AMVRアフィンモード、サブブロックモード(マージアフィンモード、ATMVPモードを含む)でコーディングされていない。
- merge_flag[xCb][yCb]が1に等しい
- predFlagL0[0][0]とpredFlagL1[0][0]の両方が1に等しい
- mmvd_flag[xCb][yCb]が0に等しい
- DiffPicOrderCnt(currPic,RefPicList[0][refIdxL0])は、DiffPicOrderCnt(RefPicList[1][refIdxL1],currPic)に等しい。
- cbHeightが8以上である
- cbHeight*cbWidthが64以上である
a. 一例において、勾配は、シフトされたサンプル差にしたがって計算される。
i. 代替的に、勾配は、修正されたサンプルの(例えば、シフトすることによって)差にしたがって計算される。
b. 一例において、勾配計算において、右シフトの前に減算を行ってもよい。例えば、grad=(neig0-neig1)>>shift1。
c. 一例において、勾配計算において、減算は右シフトの後に行ってもよい。例えば、grad=(neig0>>shift1)-(neig1>>shift1)。
d. 一例において、勾配計算において、右シフトの前に減算を行い、右シフトの前にオフセットを加えてもよい。例えば、grad=(neig0-neig1+offset)>>shift1。このオフセットは、1<<(shift1-1)又は1<<shift1>>1に等しくてもよい。
e. 一例において、勾配計算において、右シフトの後に減算を行ってもよく、右シフトの前にオフセットを加えてもよい。例えば、grad=((neig0+offset)>>shift1)-((neig1+offset)>>shift1)。このオフセットは、1<<(shift1-1)又は1<<shift1>>1に等しくてもよい。
f. 一例において、この勾配は、SatShift(neig0-neig1,shift1)として算出されてもよい。
i. 代替的に、この勾配は、SatShift(neig0,shift1)-SatShift(neig1,shift1)として算出されてもよい。
a. 一例において、ブロックレベルおよびサブブロックレベルの有効化/無効化決定は、異なる規則、例えば、SADを有する規則およびSATDを有する規則を選択してもよい。
b. 一例において、ブロック/サブブロックにおいて、勾配値(水平および/または垂直)または平均勾配値または勾配値の範囲が1つの条件を満たす(例えば、閾値よりも大きい、または所定の範囲外にある)場合、BIOおよび/またはDMVRは無効にしてもよい。
c. 有効化/無効化BIO/DMVRを判定するために使用される基準は、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダにおいて、エンコーダからデコーダに信号通知されてもよいことが提案される。
a. 一例において、DMVR処理における1つのサブブロックの改良された動きベクトル、例えば、SATD、MRSATD、またはSSE、またはMRSSEは、MRSADに取って代わる。
b. 一例において、SATD(またはMRSATD)が適用される場合、ブロック全体がM×N個のサブブロックに分割され、各サブブロックごとにSATD(またはMRSATD)が算出される。サブブロックのすべてまたは一部のSATD(またはMRSATD)を合計し、ブロック全体のSATD(またはMRSATD)値を得る。
a. 1つのサブブロックの2つの参照サブブロックの平均値差が閾値(T2)よりも大きい場合、BIOを無効にしてもよい。
b. 閾値T1および/またはT2は、予め規定されてもよい。
c. 閾値T1および/またはT2は、ブロック寸法に依存してもよい。
a. 一例において、参照ブロックまたは/およびサブブロックの平均を計算し、その後、参照ブロックまたは/およびサブブロックによって差し引いてもよい。
b. 一例において、方法は、2018年7月20日に出願された「動き予測に基づく更新された動きベクトル(Motion Prediction Basing Updated Motion Vectors)」という名称の出願であるPCT/CN2018/096384号(参照により本明細書に組み込まれる)に開示されており、参照ブロックおよび/またはサブブロックの平均値の計算に使用されてよく、即ち、平均値はいくつかの代表的な位置の計算に使用される。
a. 一例において、ブロックまたは/およびサブブロックに対して偶数行の差のみを計算する。
b. 一例において、1つのブロック/サブブロックの4つのコーナーサンプルの差のみが、このブロックまたは/およびサブブロックに対して計算される。
c. 一例において、前記方法は、2018年7月2日に出願された「映像コーディングにおけるデコーダ側の動きベクトル導出(Decoder Side Motion Vector Derivation in Video Coding)」という名称の米国仮出願第62/693,412号(本明細書において参照により援用される)に開示されており、代表的な位置を選択するために使用されてもよい。
d. 一例において、2つの参照ブロック間の差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSE等)は、いくつかの代表的なサブブロックについてのみ計算されてもよい。
e. 一例において、代表的な位置またはサブブロックについて算出された差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSE等)を合計することにより、ブロック/サブブロック全体の差を得る。
a. 一例において、時間的勾配の絶対値の合計が計算され、2つの参照ブロックまたは/およびサブブロックの差として使用される。
b. 一例において、時間的勾配の絶対値の合計は、ブロックおよび/またはサブブロックのいくつかの代表的な位置においてのみ計算される。
c. 一例において、前記方法は、米国特許に開示されている。代表的な位置を選択するために、2018年7月2日に出願された「映像コーディングにおけるデコーダ側の動きベクトル導出(Decoder Side Motion Vector Derivation in Video Coding)」という名称の仮出願第62/693,412号(本明細書において参照により援用される)を使用してもよい。
a. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(absolute mean difference)(またはSAD/SATD/SSE等)が閾値Tよりも大きい場合にのみ、例えばT=4となるように修正される。
b. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が閾値Tより小さい場合にのみ、例えばT=20となるように修正される。
c. 一例において、時間的勾配は、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が[T1,T2]の範囲内に含まれる場合にのみ、例えばT1=4、T2=20となるように修正される。
d. 一例において、2つの参照ブロック間の平均絶対差(またはSAD/SATD/SSE等)が閾値Tよりも大きい場合に、例えばT(T=40)となるように修正され、BIOは無効化される。
e. 一例において、これらの閾値は、暗黙的に予め規定されてもよい。
f. 一例において、これらの閾値は、SPS/PPS/ピクチャ/スライス/タイルレベルで信号通知されてもよい。
g. 一例において、これらの閾値は、異なるCU、LCU、スライス、タイル、またはピクチャごとに異なってもよい。
i. 一例において、これらの閾値は、復号化/符号化された画素値に基づいて設計されてもよい。
ii. 一例において、これらの閾値は、異なる参照ピクチャに対して異なるように設計されてもよい。
h. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が閾値Tよりも大きい場合にのみ、例えばT=40となるように修正される。
i. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が閾値Tより小さい場合にのみ、例えばT=100となるように修正される。
j. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が[T1,T2]の範囲内に含まれる場合にのみ、例えばT1=40、T2=100となるように修正される。
k. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が、平均絶対差(またはSAD/SATD等)にT(一例において、T=4.5)を掛けた値よりも大きい/小さい場合にのみ修正される。
l. 一例において、時間的勾配は、2つの(または2つのうちのいずれか1つの)参照ブロックの(絶対)平均が、平均絶対差(またはSAD/SATD等)に[T1,T2](一例において、T1=4.5,T2=7)を掛けた値の範囲内にある場合にのみ修正される。
a. 一例において、各予測方向におけるイントラ予測ブロックおよびインター予測ブロックを(ハイブリッドのインターおよびインター予測と同じ重み付け方法を使用して)重み平均し、wAvgBlkL0およびwAvgBlkL1と表される、BIOにおける空間的勾配を導出するために使用される2つの新しい予測ブロックを生成する。
b. 一例において、wAvgBlkL0およびwAvgBlkL1は、predBlkと表される現在のブロックの予測ブロックを生成するために用いられる。そして、BIO手順として、wAvgBlkL0、wAvgBlkL1、およびpredBlkをさらに用い、BIOで生成された改良した予測ブロックを最終予測ブロックとして用いる。
a. 一例において、このようなフラグは、AMVPモードの場合にのみ信号通知されてもよく、マージモードにおいて、このようなフラグは、空間的および/または時間的に近傍のブロックから継承されてもよい。
b. 一例において、BIOまたは/およびDMVRが有効化されるかどうかは、信号通知されたフラグおよびオンザフライ判定(例えば、早期終了段階におけるSADに基づく判定)によって一緒に決定されてもよい。信号通知されたフラグは、オンザフライ決定が正しいかどうかを示すことができる。
c. このようなフラグは、単一予測ブロックに対しては通知されない。
d. このようなフラグは、2つの参照ピクチャが両方とも表示順に前のピクチャまたは後のピクチャである双方向予測ブロックには信号通知されない場合がある。
e. POC_diff(curPic,ref0)がPOC_diff(ref1,curPic)に等しくない場合、このようなフラグは双方向予測ブロックには信号通知されなくてもよく、POC_diff()は2つのピクチャの間のPOC差を計算し、ref0およびref1は現在のピクチャの参照ピクチャである。
f. このようなフラグは、イントラコーディングブロックに対しては信号通知されない。代替的に、さらに、このようなフラグは、ハイブリッドのイントラおよびインター予測モードでコーディングされたブロックに対しては信号通知されない。代替的に、このようなフラグは、現在のピクチャ参照ブロックに対して信号通知されず、即ち、参照ピクチャが現在のピクチャである。
g. フラグを信号通知するかどうかは、ブロック寸法に依存してもよい。例えば、ブロックサイズが閾値より小さい場合、このようなフラグは信号通知されない。代替的に、ブロックの幅および/または高さが閾値以上である場合、このようなフラグは信号通知されない。
h. フラグを信号通知するかどうかは、動きベクトルの精度に依存してもよい。例えば、動きベクトルが整数精度である場合、このようなフラグは信号通知されない。
i. そのようなフラグが信号通知されない場合、それは暗黙的に真または偽であると導出されてもよい。
j. 前記方法が有効化されているかどうかを示すために、スライスヘッダ/タイルヘッダ/PPS/SPS/VPSにおいて1つのフラグを信号通知してもよい。
k. このような信号通知方法は、ピクチャの時間層に依存し、例えば、時間層が高いピクチャに対しては無効化されてもよい。
l. このような信号通知方法は、ピクチャのQPに依存し、例えば、QPが高いピクチャに対しては無効化してもよい。
a. 一例において、DMVRは、ブロックの高さがT1よりも大きい(例えば、T1=4)場合、有効化されてもよい。
b. 一例において、DMVRは、ブロックの高さがT1以上(例えば、T1=8)である場合に有効化されてもよい。
a. 一例において、DMVRおよびBIOの使用判定のための条件チェックは、ブロックの高さが同じ閾値を満たすかどうか等、調整されてもよい。
i. 一例において、DMVRおよびBIOは、ブロックの高さがT1以上(例えば、T1=8)である場合、有効化されてもよい。
ii. 一例において、DMVRおよびBIOは、ブロックの高さがT1よりも大きい(例えば、T1=4)場合、有効化されてもよい。
- 現在のコーディングブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下の通りである。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
gradientHL0[x][y]=(predSamplesL0[hx+1][vy]-predSampleL0[hx-1][vy])>>shift1 (8-855)
gradientVL0[x][y]=(predSampleL0[hx][vy+1]-predSampleL0[hx][vy-1])>>shift1 (8-856)
gradientHL1[x][y]=(predSamplesL1[hx+1][vy]-predSampleL1[hx-1][vy])>>shift1 (8-857)
gradientVL1[x][y]=(predSampleL1[hx][vy+1]-predSampleL1[hx][vy-1])>>shift1 (8-858)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
- 現在のコーディングブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数bitDepthはBitDepthYに等しく設定される。
- 変数shift1は、Max(2,14-bitDepth)に等しく設定される。
- 変数shift2は、Max(8,bitDepth-4)に等しく設定される。
- 変数shift3は、Max(5,bitDepth-7)に等しく設定される。
- 変数shift4をMax(3,15-bitDepth)は等しく設定され、変数offset4は1<<(shift4-1)に等しく設定される。
- 変数mvRefineThresは、Max(2,1<<(13-bitDepth))に等しく設定される。
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
diff[x][y]=(predSamplesL0[hx][vy]>>shift2)-(predSamplesL1[hx][vy]>>shift2) (8-859)
tempH[x][y]=(gradientHL0[x][y]+gradientHL1[x][y])>>shift3 (8-860)
tempV[x][y]=(gradientVL0[x][y]+gradientVL1[x][y])>>shift3 (8-861)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
- 現在のコーディングブロックの幅および高さを規定する2つの変数nCBWおよびnCBH、
- 2つの(nCBW+2)×(nCBH+2)輝度予測サンプル配列predSamplesL0およびpredSamplesL1、
- 予測リスト利用フラグpredFlagL0およびpredFlagL1、
- 参照インデックスrefIdxL0およびrefIdxL1、
- 双方向オプティカルフロー利用フラグbdofUtilizationFlag[xIdx][yIdx]、但しxIdx=0..(nCbW>>2)-1,yIdx=0..(nCbH>>2)-1
- 変数xSbを(xIdx<<2)+1に等しく設定し、ySbを(yIdx<<2)+1に等しく設定する。
- bdofUtilizationFlag[xSbIdx][yIdx]がFALSEに等しい場合、x=xSb-1..xSb+2,y=ySb-1..ySb+2に対して、現在のサブブロックの予測サンプル値は、以下のように導出される。
pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset2+predSamplesL1[x+1][y+1])>>shift2) (8-852)
- そうでない場合(bdofUtilizationFlag[xSbIdx][yIdx]がTRUEに等しい)、現在のサブブロックの予測サンプル値は、以下のように導出される。
hx=Clip3(1,nCbW,x) (8-853)
vy=Clip3(1,nCbH,y) (8-854)
sGx2=ΣiΣj(tempH[xSb+i][ySb+j]*tempH[xSb+i][ySb+j])with i,j=-1..4 (8-862)
sGy2=ΣiΣj(tempV[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j=-1..4 (8-863)
sGxGy=ΣiΣj(tempH[xSb+i][ySb+j]*tempV[xSb+i][ySb+j])with i,j-1..4 (8-864)
sGxdI=ΣiΣj(-tempH[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-865)
sGydI=ΣiΣj(-tempV[xSb+i][ySb+j]*diff[xSb+i][ySb+j])with i,j=-1..4 (8-866)
vx=sGx2>0?Clip3(-mvRefineThres,mvRefineThres,-(sGxdI<<3)>>Floor(Log2(sGx2))):0 (8-867)
vy=sGy2>0?Clip3(-mvRefineThres,mvRefineThres,((sGydI<<3)-((vx*sGxGym)<<12+vx*sGxGys)>>1)>>Floor(Log2(sGx2))):0 (8-868)
bdofOffset=Round((vx*(gradientHL1[x+1][y+1]-gradientHL0[x+1][y+1]))>>1)+Round((vy*(gradientVL1[x+1][y+1]-gradientVL0[x+1][y+1]))>>1) (8-869)
[Ed.(JC):Round()演算はfloat入力に対して定義される。Round()演算は入力が整数値であるため、ここでは冗長に見える。推薦人が確認すること]pbSamples[x][y]=Clip3(0,(2bitDepth)-1,(predSamplesL0[x+1][y+1]+offset4+predSamplesL1[x+1][y+1]+bdofOffset)>>shift4) (8-870)
(1115)と、を含む。
前記フィルタリングを使用して前記変換を行う。
ここで、この変換は、映像ブロックの画素値からビットストリーム表現を生成すること、またはビットストリーム表現から画素値を生成することを含む。
変換を行うことを含む。
視覚メディアデータの現在のブロックと対応する視覚メディアデータのコーディング表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効または無効化されるかどうかを判定することを含み、
BIO技法またはDMVR技法の使用を判定することは、現在のブロックに関連付けられたコスト基準に基づく、
方法。
(MRSSE)、平均値の差、または勾配値の1つ以上に基づく、第1項に記載の方法。
をさらに含む、第1項から第4項のいずれか1項以上に記載の方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータのコーディング表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効化または無効化されるかどうかを判定することを含み、
このDMVR技法は、平均除去絶対差の合計(MRSAD)コスト基準以外のコスト基準に基づいて、現在のブロックの動き情報を改良することを含む、
方法。
複数のサブブロックの各々に対応するコストを生成することと、
をさらに含む、第10項に記載の方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータのコーディング表現との間で変換を行うことを含み、
この現在のブロックを変換することは、双方向オプティカルフロー(BIO)技法またはデコーダ側動きベクトル改良(DMVR)技法の一方または両方を使用することが現在のブロックに対して有効または無効化されるかどうかを判定することを含み、
BIO技法またはDMVR技法の使用を判定することは、現在のブロックに関連付けられた1対の参照ブロックの平均値の差が閾値を超えることを計算することに基づく、
方法。
前記現在のブロックの1つのサブブロックに関連付けられた1対の参照サブブロックの平均値の差が第2の閾値を超えた場合、前記BIO技法および/または前記DMVR技法の適用を無効化することを含む、第13項に記載の方法。
第1の参照ブロックを修正して第1の修正された参照ブロックを生成し、第2の参照ブロックを修正して第2の修正された参照ブロックを生成することであって、前記第1の参照ブロックおよび前記第2の参照ブロックの両方が、視覚メディアデータの現在のブロックに関連付けられている、修正することと、
前記第1の修正された参照ブロックと前記第2の修正された参照ブロックとの間の差を判定することであって、前記差は、絶対変換差の合計(SATD)、平均値分離絶対変換差の合計(MRSATD)、二乗誤差の合計(SSE)、平均値分離二乗誤差の合計(MRSSE)、平均値の差、または勾配値の1つ以上を含む、差を判定することと、
視覚メディアデータの現在のブロックと、対応する視覚メディアデータのコーディング表現との間での変換を行うことであって、前記変換は、前記第1の参照ブロックおよび前記第2の参照ブロックをそれぞれ修正することから生成された前記第1の修正された参照ブロックと前記第2の修正された参照ブロックとの間の前記差の使用を含む、変換を行うことと、
を含む方法。
前記第1の参照ブロックに含まれるサンプル値に基づいて第1の算術平均と、前記第2の参照ブロックに含まれるサンプル値に基づいて第2の算術平均を算出することと、
前記第1の参照ブロックに含まれるサンプルから前記第1の算術平均を減算し、前記第2の参照ブロックに含まれるサンプルから前記第2の算術平均を減算することと、を含む、第17項に記載の方法。
視覚メディアデータの現在のブロックに関連付けられた参照ピクチャを使用して、参照ピクチャ間の差を示す時間的勾配または修正された時間的勾配を判定することであって、前記時間的勾配または前記修正された時間的勾配は、前記参照ピクチャ間の差を表す、判定することと、
視覚メディアデータの現在のブロックと対応する前記視覚メディアデータのコーディング表現との間で変換を行うことであって、前記変換は、時間的勾配または修正された時間的勾配に部分的に基づいて双方向オプティカルフロー(BIO)技法を使用することを含む、変換を行うことと、を含む、
方法。
第1の映像ブロックまたはそのサブブロックに関連付けられた参照ピクチャを使用して第1の時間的勾配を判定することと、
第2の映像ブロックまたはそのサブブロックに関連付けられた参照ピクチャを使用して第2の時間的勾配を判定することと、
修正された第1の時間的勾配および修正された第2の時間的勾配を生成するために、前記第1の時間的勾配の修正および前記第2の時間的勾配の修正を行うことであって、前記第1の映像ブロックに関連付けられた前記第1の時間的勾配の前記修正は、前記第2の映像ブロックに関連付けられた前記第2の時間的勾配の前記修正とは異なる、修正を行うことと、
前記第1の映像ブロックおよび前記第2の映像ブロックの、これらに対応するコーディング表現への変換を行うことと、を含む、方法。
前記現在のブロックに関連付けられた第1の相互参照ブロックおよび第2の相互参照ブロックの一方または両方を修正することと、
修正された第1の相互参照ブロックおよび/または前記修正された第2の相互参照ブロックの前記一方または両方を使用することに基づいて、双方向オプティカル(BIO)フロー技法を適用することにしたがって、前記現在のブロックに関連付けられた空間的勾配を判定することと、
前記現在のブロックおよび対応するコーディング表現の間での変換を行うことであって、前記変換は、前記現在のブロックに関連付けられた前記空間的勾配の使用を含む、変換を行うことと、を含む、方法。
現在のブロックに関連付けられたイントラ予測ブロックとインター予測ブロックとの重み付け平均に基づいて、2つの予測ブロックを生成することと、
現在のブロックに関連付けられた前記空間的勾配を判定するために2つの予測ブロックを使用することと、を含む、第47項に記載の方法。
前記現在のブロックのサブブロックおよび/またはサンプルを予測するための改良された予測ブロックを使用することと、をさらに含む、第48項に記載の方法。
処理装置によって、ブロックレベルで信号通知されたフラグが、現在のブロックに対して、デコーダ側動きベクトル改良(DMVR)技法または双方向オプティカルフロー(BIO)技法のうちの一方または両方を有効にするべきであることを少なくとも部分的に示す判定を行うことと、
前記現在のブロックと対応するコーディング表現との間で変換を行うことであって、前記コーディング表現は、前記DMVR技法および/または前記BIO技法のうちの前記一方または両方を有効にするかどうかを示す前記フラグを含む、変換を行うことと、を含む、
方法。
処理装置により、現在のブロックに対してデコーダ側動きベクトル改良(DMVR)技法を有効にするべきであると判定を行うことであって、前記判定は前記現在のブロックの高さに排他的に基づく、判定を行うことと、
前記現在のブロックと対応するコーディング表現との間で変換を行うことと、を含む、方法。
視覚メディアデータの現在のブロックと対応する視覚メディアデータのコーディング表現との間で変換を行うことを含み、前記変換は、現在のブロックに対して、デコーダ側動きベクトル改良(DMVR)技法または双方向オプティカルフロー(BIO)技法の一方または両方に関連付けられた規則を使用することを含み、前記DMVR技法に関連付けられた規則は、前記BIO技法への適用に準拠しており、
現在のブロックにおける前記BIO技法または前記DMVR技法の前記一方または両方の前記使用が有効化されているか無効化されているかを判定することは、前記規則を適用することに基づく、方法。
本願は、2021年9月24日出願の日本特許出願2021-557132号に基づくものであり、この日本特許出願は、2020年4月2日出願の国際特許出願PCT/CN2020/082937号に基づくものであり、この国際特許出願は、2019年4月2日出願の国際特許出願PCT/CN2019/081155号、2019年5月7日出願の国際特許出願PCT/CN2019/085796号の優先権および利益を主張する。上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
Claims (14)
- 視覚メディア処理方法であって、
視覚メディアデータの現在のブロックと視覚メディアデータの対応するコーディング表現との間で変換を行うことを含み、
前記変換は、前記現在のブロックに対して、デコーダ側動きベクトル改良(DMVR)技法または双方向オプティカルフロー(BIO)技法の一方または両方に関連付けられた規則の使用を含み、
前記DMVR技法に関連付けられた前記規則は、前記BIO技法への適用に準拠しており、
前記現在のブロックに対して、前記BIO技法または前記DMVR技法の前記一方または両方の前記使用が有効化されるか、または無効化されるかを判定することは、前記規則を適用することに基づく、
方法。 - 前記DMVR技法が有効化されるかどうかを判定するための規則は、前記BIO技法が有効化されるかどうかを判定する規則と同じである、
請求項1に記載の方法。 - 前記BIO技法および/または前記DMVR技法が有効化されるかどうかを判定するための前記規則は、前記現在のブロックの高さが閾値以上であることを検証することを規定する、
請求項2に記載の方法。 - 前記BIO技法および/または前記DMVR技法が有効化されるかどうかを判定するための前記規則は、前記現在のブロックの幅と高さの両方が閾値以上であることを検証することを規定する、
請求項2に記載の方法。 - 前記閾値が4または8である、
請求項3または4のいずれか1項以上に記載の方法。 - 前記BIO技法および/または前記DMVR技法が有効化されるかどうかを判定するための前記規則は、前記現在のブロックの寸法が閾値以上であることを検証することを規定する、
請求項2に記載の方法。 - 前記閾値は64もしくは128である、
請求項4に記載の方法。 - 前記BIO技法および/または前記DMVR技法が有効化されるかどうかを判定するための前記規則は、前記現在のブロックがCUレベルウェイト(BCW)モードによる双方向予測でコーディングされていないことを検証することを規定しており、2つの参照リストからの2つの参照ブロックに不均等な重みが使用されている、
請求項2に記載の方法。 - 前記BIO技法および/または前記DMVR技法が有効化されるかどうかを判定するための前記規則は、前記現在のブロックが、前記現在のブロックに関連付けられた現在のピクチャから同じピクチャオーダカウント(POC)距離を有する1対の参照ピクチャに関連付けられた双方向予測ブロックであることを検証することを規定する、
請求項2に記載の方法。 - 前記1対の参照ピクチャは、前記現在のブロックに関連付けられた前記現在のピクチャの前のピクチャと後のピクチャとを表示順に含む、
請求項9に記載の方法。 - 請求項1~10のいずれか1項に記載の方法を実装するように構成された処理装置を備える、
映像復号化装置。 - 請求項1~10のいずれか1項に記載の方法を実装するように構成された処理装置を備える、
映像符号化装置。 - コンピュータコードが記憶されたコンピュータプログラム製品であって、
前記コードは、処理装置により実行されると、前記処理装置に、請求項1~10のいずれか1項に記載の方法を実装させる、
コンピュータプログラム製品。 - 本明細書に記載の方法、装置またはシステム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2019/081155 | 2019-04-02 | ||
CN2019081155 | 2019-04-02 | ||
CNPCT/CN2019/085796 | 2019-05-07 | ||
CN2019085796 | 2019-05-07 | ||
PCT/CN2020/082937 WO2020200269A1 (en) | 2019-04-02 | 2020-04-02 | Decoder side motion vector derivation |
JP2021557132A JP7307192B2 (ja) | 2019-04-02 | 2020-04-02 | デコーダ側の動きベクトルの導出 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557132A Division JP7307192B2 (ja) | 2019-04-02 | 2020-04-02 | デコーダ側の動きベクトルの導出 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023134521A true JP2023134521A (ja) | 2023-09-27 |
Family
ID=72664978
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557132A Active JP7307192B2 (ja) | 2019-04-02 | 2020-04-02 | デコーダ側の動きベクトルの導出 |
JP2023105110A Pending JP2023134521A (ja) | 2019-04-02 | 2023-06-27 | デコーダ側の動きベクトルの導出 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557132A Active JP7307192B2 (ja) | 2019-04-02 | 2020-04-02 | デコーダ側の動きベクトルの導出 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11553201B2 (ja) |
EP (1) | EP3922014A4 (ja) |
JP (2) | JP7307192B2 (ja) |
KR (2) | KR20230169434A (ja) |
CN (2) | CN115190317A (ja) |
WO (1) | WO2020200269A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111083484B (zh) | 2018-10-22 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
WO2020098644A1 (en) | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Bandwidth control methods for inter prediction |
CN113170093B (zh) | 2018-11-20 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 视频处理中的细化帧间预测 |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
KR102635518B1 (ko) | 2019-03-06 | 2024-02-07 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 변환된 단예측 후보의 사용 |
EP3954119A4 (en) | 2019-05-21 | 2022-06-22 | Beijing Bytedance Network Technology Co., Ltd. | SYNTAX SIGNALING IN A SUBBLOCK MERGE MODE |
JP7471328B2 (ja) * | 2019-06-21 | 2024-04-19 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | エンコーダ、デコーダ、および対応する方法 |
WO2020262365A1 (ja) * | 2019-06-28 | 2020-12-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
CN114073090A (zh) * | 2019-07-01 | 2022-02-18 | 交互数字Vc控股法国公司 | 仿射运动补偿的双向光流细化 |
WO2021027767A1 (en) | 2019-08-10 | 2021-02-18 | Beijing Bytedance Network Technology Co., Ltd. | Position restriction for inter coding mode |
JP6960969B2 (ja) * | 2019-09-20 | 2021-11-05 | Kddi株式会社 | 画像復号装置、画像復号方法及びプログラム |
EP4035373A1 (en) * | 2019-09-23 | 2022-08-03 | VID SCALE, Inc. | Switching logic for bi-directional optical flow |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
BR112022007408A2 (pt) | 2019-10-18 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | Método e aparelho de processamento de vídeo, e, meio legível por computador |
MX2022007503A (es) | 2019-12-27 | 2022-07-04 | Beijing Bytedance Network Tech Co Ltd | Se?alizacion de tipos de corte en encabezados de imagenes de video. |
GB2617839A (en) * | 2022-04-19 | 2023-10-25 | Canon Kk | Video coding and decoding |
WO2023219279A1 (ko) * | 2022-05-10 | 2023-11-16 | 현대자동차주식회사 | 기하학적 분할에 기초하는 인터/인트라 예측을 이용하는 비디오 코딩을 위한방법 및 장치 |
Family Cites Families (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6480615B1 (en) | 1999-06-15 | 2002-11-12 | University Of Washington | Motion estimation within a sequence of data frames using optical flow with adaptive gradients |
US7627037B2 (en) | 2004-02-27 | 2009-12-01 | Microsoft Corporation | Barbell lifting for multi-layer wavelet coding |
US8023041B2 (en) | 2006-01-30 | 2011-09-20 | Lsi Corporation | Detection of moving interlaced text for film mode decision |
US9654792B2 (en) | 2009-07-03 | 2017-05-16 | Intel Corporation | Methods and systems for motion vector derivation at a video decoder |
US8462852B2 (en) | 2009-10-20 | 2013-06-11 | Intel Corporation | Methods and apparatus for adaptively choosing a search range for motion estimation |
US20110176611A1 (en) | 2010-01-15 | 2011-07-21 | Yu-Wen Huang | Methods for decoder-side motion vector derivation |
KR101484281B1 (ko) | 2010-07-09 | 2015-01-21 | 삼성전자주식회사 | 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치 |
US9661338B2 (en) | 2010-07-09 | 2017-05-23 | Qualcomm Incorporated | Coding syntax elements for adaptive scans of transform coefficients for video coding |
CN102986224B (zh) | 2010-12-21 | 2017-05-24 | 英特尔公司 | 用于增强的解码器侧运动向量导出处理的系统及方法 |
JP2012142702A (ja) | 2010-12-28 | 2012-07-26 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2800368B1 (en) | 2011-12-28 | 2021-07-28 | Sharp Kabushiki Kaisha | Arithmetic decoding device, arithmetic decoding method, and arithmetic coding device |
US9451277B2 (en) | 2012-02-08 | 2016-09-20 | Qualcomm Incorporated | Restriction of prediction units in B slices to uni-directional inter prediction |
EP2642755B1 (en) | 2012-03-20 | 2018-01-03 | Dolby Laboratories Licensing Corporation | Complexity scalable multilayer video coding |
KR20160075753A (ko) | 2012-05-10 | 2016-06-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR101639965B1 (ko) | 2012-06-27 | 2016-07-14 | 가부시끼가이샤 도시바 | 복호 장치 및 복호 방법 |
US9900593B2 (en) | 2012-08-29 | 2018-02-20 | Vid Scale, Inc. | Method and apparatus of motion vector prediction for scalable video coding |
EP2901692A4 (en) | 2012-09-28 | 2016-04-13 | Intel Corp | PREDICTING SAMPLES OF INTERLAYER PIXELS |
CN104584553A (zh) | 2012-09-28 | 2015-04-29 | 英特尔公司 | 层间残差预测 |
US20140177706A1 (en) * | 2012-12-21 | 2014-06-26 | Samsung Electronics Co., Ltd | Method and system for providing super-resolution of quantized images and video |
US9294777B2 (en) | 2012-12-30 | 2016-03-22 | Qualcomm Incorporated | Progressive refinement with temporal scalability support in video coding |
WO2014120369A1 (en) | 2013-01-30 | 2014-08-07 | Intel Corporation | Content adaptive partitioning for prediction and coding for next generation video |
US9900576B2 (en) | 2013-03-18 | 2018-02-20 | Qualcomm Incorporated | Simplifications on disparity vector derivation and motion vector prediction in 3D video coding |
US9521425B2 (en) | 2013-03-19 | 2016-12-13 | Qualcomm Incorporated | Disparity vector derivation in 3D video coding for skip and direct modes |
WO2014166063A1 (en) | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Default vector for disparity vector derivation for 3d video coding |
WO2015003383A1 (en) | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
US9628795B2 (en) | 2013-07-17 | 2017-04-18 | Qualcomm Incorporated | Block identification using disparity vector in video coding |
US10244253B2 (en) | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
EP3660843B1 (en) | 2013-09-13 | 2022-11-09 | Samsung Electronics Co., Ltd. | Lossless coding method |
US9554150B2 (en) | 2013-09-20 | 2017-01-24 | Qualcomm Incorporated | Combined bi-predictive merging candidates for 3D video coding |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9762927B2 (en) | 2013-09-26 | 2017-09-12 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9906813B2 (en) | 2013-10-08 | 2018-02-27 | Hfi Innovation Inc. | Method of view synthesis prediction in 3D video coding |
WO2015085575A1 (en) | 2013-12-13 | 2015-06-18 | Mediatek Singapore Pte. Ltd. | Methods for background residual prediction |
WO2015109598A1 (en) | 2014-01-27 | 2015-07-30 | Mediatek Singapore Pte. Ltd. | Methods for motion parameter hole filling |
US9906790B2 (en) | 2014-03-14 | 2018-02-27 | Qualcomm Incorporated | Deblock filtering using pixel distance |
CN106105196A (zh) | 2014-04-28 | 2016-11-09 | 松下电器(美国)知识产权公司 | 编码方法、解码方法、编码装置以及解码装置 |
GB2531003A (en) | 2014-10-06 | 2016-04-13 | Canon Kk | Method and apparatus for vector encoding in video coding and decoding |
WO2016054765A1 (en) | 2014-10-08 | 2016-04-14 | Microsoft Technology Licensing, Llc | Adjustments to encoding and decoding when switching color spaces |
CN104301724B (zh) | 2014-10-17 | 2017-12-01 | 华为技术有限公司 | 视频处理方法、编码设备和解码设备 |
WO2016072750A1 (ko) | 2014-11-04 | 2016-05-12 | 삼성전자 주식회사 | 에지 타입의 오프셋을 적용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
US10382795B2 (en) | 2014-12-10 | 2019-08-13 | Mediatek Singapore Pte. Ltd. | Method of video coding using binary tree block partitioning |
US10230980B2 (en) | 2015-01-26 | 2019-03-12 | Qualcomm Incorporated | Overlapped motion compensation for video coding |
US10958927B2 (en) | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
US10887597B2 (en) | 2015-06-09 | 2021-01-05 | Qualcomm Incorporated | Systems and methods of determining illumination compensation parameters for video coding |
WO2017008263A1 (en) | 2015-07-15 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Conditional binary tree block partitioning structure |
CN107925775A (zh) * | 2015-09-02 | 2018-04-17 | 联发科技股份有限公司 | 基于双向预测光流技术的视频编解码的运动补偿方法及装置 |
US10375413B2 (en) | 2015-09-28 | 2019-08-06 | Qualcomm Incorporated | Bi-directional optical flow for video coding |
WO2017088093A1 (en) | 2015-11-23 | 2017-06-01 | Mediatek Singapore Pte. Ltd. | On the smallest allowed block size in video coding |
US10268901B2 (en) | 2015-12-04 | 2019-04-23 | Texas Instruments Incorporated | Quasi-parametric optical flow estimation |
US9955186B2 (en) | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
CN115037929A (zh) | 2016-02-03 | 2022-09-09 | Oppo广东移动通信有限公司 | 运动图像解码装置、编码装置、以及预测图像生成装置 |
EP3398331A4 (en) | 2016-02-05 | 2019-04-10 | Mediatek Inc. | METHOD AND APPARATUS FOR MOTION COMPENSATION BASED ON BIDIRECTIONAL OPTICAL FLUSH TECHNOLOGIES FOR VIDEO CODING |
US11405611B2 (en) | 2016-02-15 | 2022-08-02 | Qualcomm Incorporated | Predicting filter coefficients from fixed filters for video coding |
WO2017143467A1 (en) | 2016-02-22 | 2017-08-31 | Mediatek Singapore Pte. Ltd. | Localized luma mode prediction inheritance for chroma coding |
US20170339405A1 (en) * | 2016-05-20 | 2017-11-23 | Arris Enterprises Llc | System and method for intra coding |
US11638027B2 (en) | 2016-08-08 | 2023-04-25 | Hfi Innovation, Inc. | Pattern-based motion vector derivation for video coding |
US10609423B2 (en) | 2016-09-07 | 2020-03-31 | Qualcomm Incorporated | Tree-type coding for video coding |
US10674165B2 (en) * | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
US10609367B2 (en) | 2016-12-21 | 2020-03-31 | Qualcomm Incorporated | Low-complexity sign prediction for video coding |
WO2018113658A1 (en) | 2016-12-22 | 2018-06-28 | Mediatek Inc. | Method and apparatus of motion refinement for video coding |
EP3560202A4 (en) | 2016-12-27 | 2020-07-29 | MediaTek Inc. | METHOD AND DEVICE FOR BILATERAL TEMPLATE MV REFINING FOR VIDEO CODING |
US20190387234A1 (en) | 2016-12-29 | 2019-12-19 | Peking University Shenzhen Graduate School | Encoding method, decoding method, encoder, and decoder |
US10931969B2 (en) | 2017-01-04 | 2021-02-23 | Qualcomm Incorporated | Motion vector reconstructions for bi-directional optical flow (BIO) |
CN116193111A (zh) | 2017-01-04 | 2023-05-30 | 三星电子株式会社 | 视频解码方法和设备以及视频编码方法和设备 |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
US10701366B2 (en) | 2017-02-21 | 2020-06-30 | Qualcomm Incorporated | Deriving motion vector information at a video decoder |
US10523964B2 (en) | 2017-03-13 | 2019-12-31 | Qualcomm Incorporated | Inter prediction refinement based on bi-directional optical flow (BIO) |
CN110476424B (zh) * | 2017-03-16 | 2022-03-04 | 联发科技股份有限公司 | 一种视频编解码方法及装置 |
US11277635B2 (en) | 2017-03-17 | 2022-03-15 | Vid Scale, Inc. | Predictive coding for 360-degree video based on geometry padding |
US10595035B2 (en) | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
US10491917B2 (en) | 2017-03-22 | 2019-11-26 | Qualcomm Incorporated | Decoder-side motion vector derivation |
TW201902223A (zh) | 2017-03-24 | 2019-01-01 | 聯發科技股份有限公司 | 視頻編碼中重疊分塊運動補償的雙向光流的方法和裝置 |
US10805650B2 (en) | 2017-03-27 | 2020-10-13 | Qualcomm Incorporated | Signaling important video information in network video streaming using mime type parameters |
US10805630B2 (en) | 2017-04-28 | 2020-10-13 | Qualcomm Incorporated | Gradient based matching for motion search and derivation |
US10701393B2 (en) | 2017-05-10 | 2020-06-30 | Mediatek Inc. | Method and apparatus of reordering motion vector prediction candidate set for video coding |
CN117255195A (zh) | 2017-05-17 | 2023-12-19 | 株式会社Kt | 用于解码视频的方法和用于编码视频的方法 |
US10904565B2 (en) | 2017-06-23 | 2021-01-26 | Qualcomm Incorporated | Memory-bandwidth-efficient design for bi-directional optical flow (BIO) |
US10477237B2 (en) | 2017-06-28 | 2019-11-12 | Futurewei Technologies, Inc. | Decoder side motion vector refinement in video coding |
WO2019001741A1 (en) | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION |
KR20240044549A (ko) | 2017-07-03 | 2024-04-04 | 브이아이디 스케일, 인크. | 양방향 광학 흐름에 기반한 모션 보상 예측 |
CN111149359B (zh) | 2017-09-20 | 2023-11-17 | 韩国电子通信研究院 | 用于对图像进行编码/解码的方法和装置以及存储有比特流的记录介质 |
US10785494B2 (en) | 2017-10-11 | 2020-09-22 | Qualcomm Incorporated | Low-complexity design for FRUC |
US10986360B2 (en) | 2017-10-16 | 2021-04-20 | Qualcomm Incorproated | Various improvements to FRUC template matching |
WO2019107916A1 (ko) | 2017-11-30 | 2019-06-06 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치 |
WO2019131807A1 (en) | 2017-12-29 | 2019-07-04 | Sharp Kabushiki Kaisha | Systems and methods for partitioning video blocks for video coding |
US11172229B2 (en) | 2018-01-12 | 2021-11-09 | Qualcomm Incorporated | Affine motion compensation with low bandwidth |
MX2020007355A (es) | 2018-01-16 | 2020-10-12 | Vid Scale Inc | Bipredicción compensada en movimiento basada en compensación de iluminación local. |
US11265551B2 (en) | 2018-01-18 | 2022-03-01 | Qualcomm Incorporated | Decoder-side motion vector derivation |
US11310526B2 (en) | 2018-01-26 | 2022-04-19 | Mediatek Inc. | Hardware friendly constrained motion vector refinement |
US20200359024A1 (en) | 2018-01-30 | 2020-11-12 | Sharp Kabushiki Kaisha | Systems and methods for deriving quantization parameters for video blocks in video coding |
KR102551362B1 (ko) | 2018-02-28 | 2023-07-04 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
US20190306502A1 (en) | 2018-04-02 | 2019-10-03 | Qualcomm Incorporated | System and method for improved adaptive loop filtering |
US10779002B2 (en) | 2018-04-17 | 2020-09-15 | Qualcomm Incorporated | Limitation of the MVP derivation based on decoder-side motion vector derivation |
WO2019229683A1 (en) | 2018-05-31 | 2019-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Concept of interweaved prediction |
WO2019234612A1 (en) | 2018-06-05 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Partition tree with four sub-blocks symmetric or asymmetric |
JP7096373B2 (ja) | 2018-06-07 | 2022-07-05 | 北京字節跳動網絡技術有限公司 | 部分的コスト計算 |
TWI729422B (zh) | 2018-06-21 | 2021-06-01 | 大陸商北京字節跳動網絡技術有限公司 | 色彩分量間的子區塊移動向量繼承 |
TWI723433B (zh) | 2018-06-21 | 2021-04-01 | 大陸商北京字節跳動網絡技術有限公司 | 改進的邊界分割 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
US11546628B2 (en) | 2018-06-27 | 2023-01-03 | Vid Scale, Inc. | Methods and apparatus for reducing the coding latency of decoder-side motion refinement |
WO2020008334A1 (en) | 2018-07-01 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Efficient affine merge motion vector derivation |
TWI719519B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 對於dmvr的塊尺寸限制 |
US10911768B2 (en) | 2018-07-11 | 2021-02-02 | Tencent America LLC | Constraint for template matching in decoder side motion derivation and refinement |
GB2589769B (en) | 2018-07-15 | 2023-02-15 | Beijing Bytedance Network Tech Co Ltd | Cross-component coding order derivation |
US11516490B2 (en) | 2018-07-16 | 2022-11-29 | Lg Electronics Inc. | Method and device for inter predicting on basis of DMVR |
US10911751B2 (en) | 2018-09-14 | 2021-02-02 | Tencent America LLC | Method and apparatus for video coding |
GB2591906B (en) | 2018-09-24 | 2023-03-08 | Beijing Bytedance Network Tech Co Ltd | Bi-prediction with weights in video coding and decoding |
WO2020070612A1 (en) | 2018-10-06 | 2020-04-09 | Beijing Bytedance Network Technology Co., Ltd. | Improvement for temporal gradient calculating in bio |
CN111083484B (zh) | 2018-10-22 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
CN112889284A (zh) | 2018-10-22 | 2021-06-01 | 北京字节跳动网络技术有限公司 | 基于子块的解码器侧运动矢量推导 |
WO2020084461A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on coding information |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
CN109191514B (zh) | 2018-10-23 | 2020-11-24 | 北京字节跳动网络技术有限公司 | 用于生成深度检测模型的方法和装置 |
EP3861731A4 (en) | 2018-11-05 | 2021-11-24 | Beijing Bytedance Network Technology Co. Ltd. | INTERPOLATION TO INTERPRDICTION WITH REFINEMENT |
EP4307678A3 (en) | 2018-11-06 | 2024-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Side information signaling for inter prediction with geometric partitioning |
US20210377553A1 (en) | 2018-11-12 | 2021-12-02 | Interdigital Vc Holdings, Inc. | Virtual pipeline for video encoding and decoding |
CN113170093B (zh) | 2018-11-20 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 视频处理中的细化帧间预测 |
JP7241870B2 (ja) | 2018-11-20 | 2023-03-17 | 北京字節跳動網絡技術有限公司 | 部分的な位置に基づく差分計算 |
EP3657794A1 (en) | 2018-11-21 | 2020-05-27 | InterDigital VC Holdings, Inc. | Method and device for picture encoding and decoding |
CN113228673B (zh) * | 2019-01-02 | 2023-03-03 | 华为技术有限公司 | 用于基于双向预测光流的逐像素校正的解码器和方法 |
WO2020142762A1 (en) * | 2019-01-06 | 2020-07-09 | Beijing Dajia Internet Information Technology Co., Ltd. | Bit-width control for bi-directional optical flow |
KR102392701B1 (ko) | 2019-01-15 | 2022-04-28 | 엘지전자 주식회사 | 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치 |
CN113557721A (zh) | 2019-03-12 | 2021-10-26 | 北京达佳互联信息技术有限公司 | 组合帧间和帧内预测模式的受约束和调节的应用 |
CN113632484A (zh) * | 2019-03-15 | 2021-11-09 | 北京达佳互联信息技术有限公司 | 用于双向光流的比特宽度控制的方法和设备 |
MX2021012502A (es) * | 2019-06-21 | 2021-11-12 | Panasonic Ip Corp America | Codificador, decodificador, metodo de codificacion y metodo de decodificacion. |
US11330287B2 (en) * | 2019-06-28 | 2022-05-10 | Tencent America LLC | Method and apparatus for video coding |
US11272203B2 (en) * | 2019-07-23 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
CN110267045B (zh) | 2019-08-07 | 2021-09-24 | 杭州微帧信息科技有限公司 | 一种视频处理及编码的方法、装置及可读存储介质 |
US11405628B2 (en) * | 2020-04-06 | 2022-08-02 | Tencent America LLC | Method and apparatus for video coding |
-
2020
- 2020-04-02 EP EP20782973.0A patent/EP3922014A4/en active Pending
- 2020-04-02 WO PCT/CN2020/082937 patent/WO2020200269A1/en unknown
- 2020-04-02 KR KR1020237041403A patent/KR20230169434A/ko active Application Filing
- 2020-04-02 CN CN202210804712.3A patent/CN115190317A/zh active Pending
- 2020-04-02 KR KR1020217030715A patent/KR102610709B1/ko active IP Right Grant
- 2020-04-02 JP JP2021557132A patent/JP7307192B2/ja active Active
- 2020-04-02 CN CN202080025886.9A patent/CN113647099B/zh active Active
-
2021
- 2021-08-18 US US17/405,179 patent/US11553201B2/en active Active
-
2023
- 2023-06-27 JP JP2023105110A patent/JP2023134521A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7307192B2 (ja) | 2023-07-11 |
JP2022527751A (ja) | 2022-06-06 |
US20210385481A1 (en) | 2021-12-09 |
CN115190317A (zh) | 2022-10-14 |
KR102610709B1 (ko) | 2023-12-05 |
CN113647099A (zh) | 2021-11-12 |
EP3922014A1 (en) | 2021-12-15 |
EP3922014A4 (en) | 2022-04-06 |
KR20210145747A (ko) | 2021-12-02 |
CN113647099B (zh) | 2022-10-04 |
US11553201B2 (en) | 2023-01-10 |
WO2020200269A1 (en) | 2020-10-08 |
KR20230169434A (ko) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7307192B2 (ja) | デコーダ側の動きベクトルの導出 | |
CN113170097B (zh) | 视频编解码模式的编解码和解码 | |
JP7417670B2 (ja) | 部分的コスト計算 | |
JP7182000B2 (ja) | インター-イントラ複合予測モードにおける重み | |
JP2023164833A (ja) | インター-イントラ複合予測の簡単化 | |
CN113597766A (zh) | 基于光流的预测细化的计算 | |
JP7322277B2 (ja) | 参照ピクチャタイプに従ったツールの使用制限 | |
JP2022544667A (ja) | 映像処理における代替の補間フィルタの選択的使用 | |
CN113767634B (zh) | 利用细化的帧间预测的统一计算方法 | |
TWI850252B (zh) | 部分交織的預測 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240722 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240903 |