JP2021182743A - 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること - Google Patents
復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること Download PDFInfo
- Publication number
- JP2021182743A JP2021182743A JP2021114322A JP2021114322A JP2021182743A JP 2021182743 A JP2021182743 A JP 2021182743A JP 2021114322 A JP2021114322 A JP 2021114322A JP 2021114322 A JP2021114322 A JP 2021114322A JP 2021182743 A JP2021182743 A JP 2021182743A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- derived
- poc
- diff
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 1175
- 239000013598 vector Substances 0.000 title claims abstract description 1054
- 238000009795 derivation Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 193
- 230000008569 process Effects 0.000 claims description 70
- 230000015654 memory Effects 0.000 claims description 45
- 230000002146 bilateral effect Effects 0.000 claims description 37
- 238000004891 communication Methods 0.000 claims description 21
- 230000002457 bidirectional effect Effects 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 15
- 238000002360 preparation method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 28
- 238000006243 chemical reaction Methods 0.000 description 24
- 238000003860 storage Methods 0.000 description 21
- 238000013139 quantization Methods 0.000 description 19
- 230000009466 transformation Effects 0.000 description 18
- 230000002123 temporal effect Effects 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 14
- 230000004913 activation Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 10
- 241000023320 Luma <angiosperm> Species 0.000 description 8
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 239000000523 sample Substances 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 6
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 239000013074 reference sample Substances 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 101100537098 Mus musculus Alyref gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 101150095908 apex1 gene Proteins 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013138 pruning Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000985610 Forpus Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002408 directed self-assembly Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
T’C=2*TC−T0
1.L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)>0)、
a.L0_MV_X_Derived=L1_MV_X_Derived、および/または
b.L0_MV_Y_Derived=L1_MV_Y_Derived;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)<0)、
c.L0_MV_X_Derived=−1*L1_MV_X_Derived、および/または
d.L0_MV_Y_Derived=−1*L1_MV_Y_Derived。
1.L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)>0)、
a.L0_MV_X_Diff=L1_MV_X_Diff、および/または
b.L0_MV_Y_Diff=L1_MV_Y_Diff;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)<0)、
c.L0_MV_X_Diff=−1*L1_MV_X_Diff、および/または
d.L0_MV_Y_Diff=−1*L1_MV_Y_Diff。
1.L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)>0)、
a.L0_MV_X_Derived=−1*L1_MV_X_Derived、および/または
b.L0_MV_Y_Derived=−1*L1_MV_Y_Derived;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)<0)、
c.L0_MV_X_Derived=L1_MV_X_Derived、および/または
d.L0_MV_Y_Derived=L1_MV_Y_Derived。
1.L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)>0)、
a.L0_MV_X_Diff=−1*L1_MV_X_Diff、および/または
b.L0_MV_Y_Diff=−1*L1_MV_Y_Diff;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)<0)、
c.L0_MV_X_Diff=L1_MV_X_Diff、および/または
d.L0_MV_Y_Diff=L1_MV_Y_Diff。
1.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが対称であるときにのみ有効にされ得る。
2.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似対称であるときにのみ有効にされ得る。
3.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが反対称であるときにのみ有効にされ得る。
4.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似反対称であるときにのみ有効にされ得る。
5.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが対称でないときにのみ有効にされ得る。
6.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似対称でないときにのみ有効にされ得る。
7.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが反対称でないときにのみ有効にされ得る。
8.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似反対称でないときにのみ有効にされ得る。
9.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVのList0およびList1参照ピクチャが両方とも現在ピクチャの前にあるか、または両方とも現在のピクチャの後にあるときにのみ有効にされ得る。
10.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVのList0およびList1参照ピクチャが両方とも現在ピクチャの前にないか、または両方とも現在のピクチャの後にないときにのみ有効にされ得る。
11.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVの参照インデックスが両方とも0であるときにのみ有効にされ得る。
12.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVの参照インデックスが両方とも0でないときにのみ有効にされ得る。
13.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、List0参照ピクチャと現在のピクチャとの間のPOC距離と、List1参照ピクチャと現在のピクチャとの間のPOC距離とが同じであるときにのみ有効にされ得る。
14.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、List0参照ピクチャと現在のピクチャとの間のPOC距離と、List1参照ピクチャと現在のピクチャとの間のPOC距離とが同じでないときにのみ有効にされ得る。
15.いくつかの例では、1つまたは複数の対称MV差分制約は、初期MVが対称でないときに適用され得る、
16.いくつかの例では、1つまたは複数の反対称MV差分制約は、初期MVが対称であるときに適用され得る、
17.いくつかの例では、対称制約のうちの1つまたは複数のMV解像度は、決定的な様式で割り当てられ得る。一例では、バイラテラルテンプレートマッチングの整数ペル精緻化のために、いかなる対称/疑似対称/非対称制約も課されないことがあり得、および前述された制約は、ハーフペル、クォーターペル、またはより高い精度の動き精緻化に対してのみである。(そのMV解像度での)制約のレベルは、SPS/PPS/スライスヘッダを通じてシグナリングされ得る。解像度はまた、BIO、サブペルFRUCのような他の動き精緻化ツールが有効にされるかどうかと併せて決められ得る。例えば、BIOが有効にされるとき、制約は、クォーターペルまたはより高い精度の動き精緻化に対して課せられないことがあり得る。
18.いくつかの例では、制約のレベル(例えば、どの制約が有効にされるか)は、List0 MVとList1 MVとの間の絶対差分、List0 MVとList1 MVとの間の(それらの相対POC距離に基づいて)スケーリングされた絶対差分、またはList0とList1と(すなわち、この例では、P0とP1と)の補間されたサンプルの間の初期SAD値にしたがって適応的にさせられることができる。他の例では、(現在のテンプレート、P0)と(現在のテンプレート、P1)との間の絶対差分の和(SAD)値の比は、何のMV解像度において制約が課せられるべきかを決めるために使用されることができる。この例では、SAD値の比がしきい値より低い場合、いかなる前述された対称制約も課されるべきではない。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
符号化されたビデオビットストリームからビデオデータを復号する方法であって、前記方法は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定することを備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を備える、方法。
[C2]
前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、C1に記載の方法。
[C3]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C1に記載の方法。
[C4]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C1に記載の方法。
[C5]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であると決定することは、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C1に記載の方法。
[C6]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、C1に記載の方法。
[C7]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、C1に記載の方法。
[C8]
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定することをさらに備え、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、C1に記載の方法。
[C9]
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、C1に記載の方法。
[C10]
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、C1に記載の方法。
[C11]
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、C1に記載の方法。
[C12]
前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定することをさらに備える、C1に記載の方法。
[C13]
前記コストメトリックは、絶対差分の和を含む、C1に記載の方法。
[C14]
符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を行うように構成される、装置。
[C15]
前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、C14に記載の装置。
[C16]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C14に記載の装置。
[C17]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C14に記載の装置。
[C18]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であるという前記決定は、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、C14に記載の装置。
[C19]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、C14に記載の装置。
[C20]
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、C14に記載の装置。
[C21]
前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定するようにさらに構成され、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、C14に記載の装置。
[C22]
前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、C14に記載の装置。
[C23]
前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、C14に記載の装置。
[C24]
前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記複数の導出された動きベクトルを生成する前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記第1の動きベクトル候補リストに関連付けられた前記第1の参照ピクチャと前記現在のピクチャとの間の前記第1のPOC距離が0であり、前記第2の動きベクトル候補リストに関連付けられた前記第2の参照ピクチャと前記現在のピクチャとの間の前記第2のPOC距離がゼロ決定であると前記決定することにさらに基づく、C14に記載の装置。
[C25]
前記1つまたは複数のプロセッサは、前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定するようにさらに構成される、C14に記載の装置。
[C26]
前記コストメトリックは、絶対差分の和を含む、C14に記載の装置。
[C27]
符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成するための手段と、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定するための手段と、前記決定するための手段は、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定するための手段を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号するための手段と
を備える、装置。
[C28]
前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、C27に記載の装置。
[C29]
ビデオデータを符号化するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを符号化することと
を行うように構成される、装置。
[C30]
前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、C29に記載の装置。
Claims (30)
- 符号化されたビデオビットストリームからビデオデータを復号する方法であって、前記方法は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定することを備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を備える、方法。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項1に記載の方法。
- 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であると決定することは、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項1に記載の方法。 - 動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定することをさらに備え、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、請求項1に記載の方法。 - 動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定することをさらに備える、請求項1に記載の方法。
- 前記コストメトリックは、絶対差分の和を含む、請求項1に記載の方法。
- 符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を行うように構成される、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項14に記載の装置。
- 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であるという前記決定は、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定するようにさらに構成され、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記複数の導出された動きベクトルを生成する前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記第1の動きベクトル候補リストに関連付けられた前記第1の参照ピクチャと前記現在のピクチャとの間の前記第1のPOC距離が0であり、前記第2の動きベクトル候補リストに関連付けられた前記第2の参照ピクチャと前記現在のピクチャとの間の前記第2のPOC距離がゼロ決定であると前記決定することにさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定するようにさらに構成される、請求項14に記載の装置。
- 前記コストメトリックは、絶対差分の和を含む、請求項14に記載の装置。
- 符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成するための手段と、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定するための手段と、前記決定するための手段は、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定するための手段を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号するための手段と
を備える、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項27に記載の装置。
- ビデオデータを符号化するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを符号化することと
を行うように構成される、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項29に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762475177P | 2017-03-22 | 2017-03-22 | |
US62/475,177 | 2017-03-22 | ||
US15/927,854 | 2018-03-21 | ||
US15/927,854 US10595035B2 (en) | 2017-03-22 | 2018-03-21 | Constraining motion vector information derived by decoder-side motion vector derivation |
JP2019551632A JP7233376B2 (ja) | 2017-03-22 | 2018-03-22 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551632A Division JP7233376B2 (ja) | 2017-03-22 | 2018-03-22 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021182743A true JP2021182743A (ja) | 2021-11-25 |
JP7278333B2 JP7278333B2 (ja) | 2023-05-19 |
Family
ID=63583206
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551632A Active JP7233376B2 (ja) | 2017-03-22 | 2018-03-22 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
JP2021114322A Active JP7278333B2 (ja) | 2017-03-22 | 2021-07-09 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551632A Active JP7233376B2 (ja) | 2017-03-22 | 2018-03-22 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Country Status (18)
Country | Link |
---|---|
US (1) | US10595035B2 (ja) |
EP (1) | EP3603069A1 (ja) |
JP (2) | JP7233376B2 (ja) |
KR (1) | KR20190127884A (ja) |
CN (1) | CN110431845B (ja) |
AU (2) | AU2018237346A1 (ja) |
BR (1) | BR112019019210A2 (ja) |
CA (1) | CA3053479A1 (ja) |
CL (1) | CL2019002680A1 (ja) |
CO (1) | CO2019010076A2 (ja) |
IL (1) | IL268646B (ja) |
MX (1) | MX2019011318A (ja) |
MY (1) | MY195629A (ja) |
PH (1) | PH12019501895A1 (ja) |
RU (1) | RU2767144C2 (ja) |
SG (1) | SG11201907531XA (ja) |
WO (1) | WO2018175720A1 (ja) |
ZA (1) | ZA201906240B (ja) |
Families Citing this family (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10595035B2 (en) * | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
EP3649780A1 (en) * | 2017-07-03 | 2020-05-13 | Vid Scale, Inc. | Motion-compensation prediction based on bi-directional optical flow |
CN117615153A (zh) * | 2017-08-29 | 2024-02-27 | 株式会社Kt | 视频解码和编码方法及用于存储压缩视频数据的装置 |
EP3451665A1 (en) * | 2017-09-01 | 2019-03-06 | Thomson Licensing | Refinement of internal sub-blocks of a coding unit |
EP3682636B1 (en) * | 2017-10-09 | 2023-08-02 | Huawei Technologies Co., Ltd. | Memory access window and padding for motion vector refinement |
US10652571B2 (en) * | 2018-01-25 | 2020-05-12 | Qualcomm Incorporated | Advanced motion vector prediction speedups for video coding |
JP2021520710A (ja) | 2018-04-06 | 2021-08-19 | ヴィド スケール インコーポレイテッド | 簡易化された勾配導出による双方向オプティカルフロー方法 |
US10863190B2 (en) | 2018-06-14 | 2020-12-08 | Tencent America LLC | Techniques for memory bandwidth optimization in bi-predicted motion vector refinement |
WO2019244051A1 (en) | 2018-06-19 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Selected mvd precision without mvp truncation |
BR112020024142A2 (pt) | 2018-06-29 | 2021-03-02 | Beijing Bytedance Network Technology Co., Ltd. | método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
EP3794825A1 (en) | 2018-06-29 | 2021-03-24 | Beijing Bytedance Network Technology Co. Ltd. | Update of look up table: fifo, constrained fifo |
CN114900694A (zh) | 2018-06-29 | 2022-08-12 | 抖音视界(北京)有限公司 | 哪个查找表需要更新或不更新 |
EP4322533A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
TWI719525B (zh) | 2018-06-29 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | Lut與amvp之間的交互 |
WO2020003282A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Managing motion vector predictors for video coding |
TWI748202B (zh) | 2018-07-02 | 2021-12-01 | 大陸商北京字節跳動網絡技術有限公司 | Lamvr中取整和修剪的順序 |
TWI752341B (zh) | 2018-08-04 | 2022-01-11 | 大陸商北京字節跳動網絡技術有限公司 | 不同解碼器側運動矢量推導模式之間的交互 |
CN112640468A (zh) * | 2018-09-04 | 2021-04-09 | 华为技术有限公司 | 应用于双向帧间预测中的参考帧获取方法及装置 |
CN111064961B (zh) | 2018-09-12 | 2023-06-09 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置 |
EP4325859A3 (en) | 2018-09-19 | 2024-05-15 | Beijing Bytedance Network Technology Co., Ltd. | Syntax reuse for affine mode with adaptive motion vector resolution |
CN112889284A (zh) | 2018-10-22 | 2021-06-01 | 北京字节跳动网络技术有限公司 | 基于子块的解码器侧运动矢量推导 |
CN111083484A (zh) | 2018-10-22 | 2020-04-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
CN112956197A (zh) * | 2018-10-22 | 2021-06-11 | 北京字节跳动网络技术有限公司 | 基于编解码信息的解码器侧运动矢量推导的限制 |
WO2020093999A1 (en) | 2018-11-05 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Inter prediction with refinement in video processing |
CN111436228A (zh) | 2018-11-12 | 2020-07-21 | 北京字节跳动网络技术有限公司 | 组合帧间-帧内预测的简化 |
WO2020103872A1 (en) | 2018-11-20 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Prediction refinement for combined inter intra prediction mode |
WO2020103852A1 (en) | 2018-11-20 | 2020-05-28 | Beijing Bytedance Network Technology Co., Ltd. | Difference calculation based on patial position |
EP3900343A1 (en) * | 2018-12-21 | 2021-10-27 | VID SCALE, Inc. | Symmetric motion vector difference coding |
KR20210094664A (ko) * | 2019-01-02 | 2021-07-29 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 비디오 인코딩/디코딩 시스템의 사이드 모션 정교화 |
WO2020143741A1 (en) | 2019-01-10 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Invoke of lut updating |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
CN113302937A (zh) | 2019-01-16 | 2021-08-24 | 北京字节跳动网络技术有限公司 | 运动候选推导 |
US11025936B2 (en) * | 2019-01-25 | 2021-06-01 | Tencent America LLC | Method and apparatus for video coding |
CN113366851A (zh) * | 2019-01-31 | 2021-09-07 | 北京字节跳动网络技术有限公司 | 对称运动矢量差编解码模式的快速算法 |
EP3895429A4 (en) | 2019-01-31 | 2022-08-10 | Beijing Bytedance Network Technology Co., Ltd. | CONTEXT FOR CODE AN ADAPTIVE MOTION VECTOR RESOLUTION IN AFFINE MODE |
WO2020156538A1 (en) * | 2019-02-03 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between mv precisions and mv difference coding |
KR20220046005A (ko) * | 2019-02-08 | 2022-04-13 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 비디오 코딩을 위한 양방향 광학 흐름 및 디코더측 움직임 벡터 보정을 선택적으로 적용하기 위한 방법 및 장치 |
CN113475075B (zh) * | 2019-02-13 | 2023-09-08 | 北京字节跳动网络技术有限公司 | 基于共享Merge列表的运动预测 |
JP7263529B2 (ja) * | 2019-02-14 | 2023-04-24 | 北京字節跳動網絡技術有限公司 | デコーダ側精緻化ツールのサイズ選択アプリケーション |
PL3912357T3 (pl) * | 2019-02-20 | 2024-03-25 | Beijing Dajia Internet Information Technology Co., Ltd. | Ograniczone wyprowadzanie wektora ruchu dla długotrwałych obrazów odniesienia w kodowaniu wideo |
US11166037B2 (en) | 2019-02-27 | 2021-11-02 | Mediatek Inc. | Mutual excluding settings for multiple tools |
EP3903494A4 (en) * | 2019-02-28 | 2022-06-22 | Huawei Technologies Co., Ltd. | ENCODER, DECODER AND RELATED METHODS FOR INTERPREDICTION |
KR20240038114A (ko) * | 2019-03-05 | 2024-03-22 | 엘지전자 주식회사 | 인터 예측을 위한 비디오 신호의 처리 방법 및 장치 |
WO2020177755A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Usage of converted uni-prediction candidate |
CN117014634A (zh) * | 2019-03-11 | 2023-11-07 | 阿里巴巴集团控股有限公司 | 用于对视频数据进行编码的帧间预测方法 |
HUE062990T2 (hu) | 2019-03-12 | 2023-12-28 | Lg Electronics Inc | DMVR és BDOF alapú inter predikciós eljárás és készülék |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
US20220174287A1 (en) * | 2019-03-26 | 2022-06-02 | Intellectual Discovery Co., Ltd. | Image encoding/decoding method and apparatus |
WO2020200269A1 (en) | 2019-04-02 | 2020-10-08 | Beijing Bytedance Network Technology Co., Ltd. | Decoder side motion vector derivation |
WO2020211755A1 (en) * | 2019-04-14 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Motion vector and prediction sample refinement |
CN113767638A (zh) * | 2019-04-28 | 2021-12-07 | 北京字节跳动网络技术有限公司 | 对称运动矢量差编解码 |
WO2020221258A1 (en) | 2019-04-28 | 2020-11-05 | Beijing Bytedance Network Technology Co., Ltd. | Symmetric motion vector difference coding |
CN111586419B (zh) * | 2019-05-13 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 视频解码方法、视频编码方法及装置 |
EP3949415A4 (en) * | 2019-05-16 | 2022-08-03 | Beijing Bytedance Network Technology Co., Ltd. | PART-BASED DETERMINATION OF MOTION INFORMATION REFINING |
US11172212B2 (en) * | 2019-06-06 | 2021-11-09 | Qualcomm Incorporated | Decoder-side refinement tool on/off control |
CN115941970B (zh) * | 2019-06-17 | 2024-02-20 | 北京达佳互联信息技术有限公司 | 用于视频编解码中的解码器侧运动矢量细化的方法和装置 |
WO2020262914A1 (ko) * | 2019-06-24 | 2020-12-30 | 엘지전자 주식회사 | 인터 예측 기반 영상 코딩 방법 및 장치 |
US20200402546A1 (en) * | 2019-06-24 | 2020-12-24 | Seagate Technology Llc | Reducing base deck porosity |
KR102640263B1 (ko) * | 2019-06-24 | 2024-02-23 | 엘지전자 주식회사 | 움직임 벡터를 이용한 영상 코딩 방법 및 장치 |
US11190789B2 (en) * | 2019-06-30 | 2021-11-30 | Tencent America LLC | Method and apparatus for video coding using inter-prediction mode signaling to dertermine motion vectors |
US11272203B2 (en) | 2019-07-23 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
WO2021018031A1 (en) * | 2019-07-27 | 2021-02-04 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions of usage of tools according to reference picture types |
CN110545425B (zh) * | 2019-08-21 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种帧间预测方法、终端设备以及计算机存储介质 |
CN114424560A (zh) * | 2019-09-20 | 2022-04-29 | 北京字节跳动网络技术有限公司 | 用于屏幕内容的自适应分辨率变化和可缩放编解码 |
WO2022262818A1 (en) * | 2021-06-18 | 2022-12-22 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016160605A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
WO2017036414A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of decoder side motion derivation for video coding |
JP7233376B2 (ja) * | 2017-03-22 | 2023-03-06 | クゥアルコム・インコーポレイテッド | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100093703A (ko) * | 2009-02-17 | 2010-08-26 | 한국전자통신연구원 | 대칭적 움직임 예측 및 채널 분할을 통한 분산 동영상 부호화기와 복호화기 및 그 방법 |
KR101452859B1 (ko) * | 2009-08-13 | 2014-10-23 | 삼성전자주식회사 | 움직임 벡터를 부호화 및 복호화하는 방법 및 장치 |
US20120300850A1 (en) * | 2010-02-02 | 2012-11-29 | Alex Chungku Yie | Image encoding/decoding apparatus and method |
US9094689B2 (en) * | 2011-07-01 | 2015-07-28 | Google Technology Holdings LLC | Motion vector prediction design simplification |
US10075728B2 (en) * | 2012-10-01 | 2018-09-11 | Inria Institut National De Recherche En Informatique Et En Automatique | Method and device for motion information prediction refinement |
US10244253B2 (en) * | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
-
2018
- 2018-03-21 US US15/927,854 patent/US10595035B2/en active Active
- 2018-03-22 KR KR1020197030837A patent/KR20190127884A/ko not_active Application Discontinuation
- 2018-03-22 AU AU2018237346A patent/AU2018237346A1/en not_active Abandoned
- 2018-03-22 MX MX2019011318A patent/MX2019011318A/es unknown
- 2018-03-22 JP JP2019551632A patent/JP7233376B2/ja active Active
- 2018-03-22 MY MYPI2019004629A patent/MY195629A/en unknown
- 2018-03-22 RU RU2019133109A patent/RU2767144C2/ru active
- 2018-03-22 EP EP18716799.4A patent/EP3603069A1/en not_active Ceased
- 2018-03-22 CA CA3053479A patent/CA3053479A1/en active Pending
- 2018-03-22 CN CN201880019566.5A patent/CN110431845B/zh active Active
- 2018-03-22 WO PCT/US2018/023761 patent/WO2018175720A1/en unknown
- 2018-03-22 BR BR112019019210A patent/BR112019019210A2/pt unknown
- 2018-03-22 SG SG11201907531X patent/SG11201907531XA/en unknown
-
2019
- 2019-08-12 IL IL268646A patent/IL268646B/en unknown
- 2019-08-15 PH PH12019501895A patent/PH12019501895A1/en unknown
- 2019-09-18 CO CONC2019/0010076A patent/CO2019010076A2/es unknown
- 2019-09-20 ZA ZA2019/06240A patent/ZA201906240B/en unknown
- 2019-09-23 CL CL2019002680A patent/CL2019002680A1/es unknown
-
2021
- 2021-07-09 JP JP2021114322A patent/JP7278333B2/ja active Active
-
2023
- 2023-02-10 AU AU2023200756A patent/AU2023200756A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016160605A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
WO2017036414A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of decoder side motion derivation for video coding |
JP7233376B2 (ja) * | 2017-03-22 | 2023-03-06 | クゥアルコム・インコーポレイテッド | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Non-Patent Citations (1)
Title |
---|
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 4", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D1001 (version 3), JPN6020031581, 19 November 2016 (2016-11-19), ISSN: 0004882254 * |
Also Published As
Publication number | Publication date |
---|---|
CN110431845B (zh) | 2022-11-25 |
RU2019133109A (ru) | 2021-04-22 |
JP7233376B2 (ja) | 2023-03-06 |
US10595035B2 (en) | 2020-03-17 |
PH12019501895A1 (en) | 2019-10-21 |
SG11201907531XA (en) | 2019-10-30 |
CN110431845A (zh) | 2019-11-08 |
MY195629A (en) | 2023-02-03 |
ZA201906240B (en) | 2021-05-26 |
CO2019010076A2 (es) | 2019-10-09 |
CL2019002680A1 (es) | 2020-05-29 |
RU2767144C2 (ru) | 2022-03-16 |
RU2019133109A3 (ja) | 2021-09-09 |
JP7278333B2 (ja) | 2023-05-19 |
AU2023200756A1 (en) | 2023-03-09 |
IL268646A (en) | 2019-10-31 |
WO2018175720A1 (en) | 2018-09-27 |
CA3053479A1 (en) | 2018-09-27 |
KR20190127884A (ko) | 2019-11-13 |
MX2019011318A (es) | 2019-11-12 |
BR112019019210A2 (pt) | 2020-04-14 |
AU2018237346A1 (en) | 2019-09-05 |
EP3603069A1 (en) | 2020-02-05 |
US20180278949A1 (en) | 2018-09-27 |
JP2020511859A (ja) | 2020-04-16 |
IL268646B (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7278333B2 (ja) | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること | |
JP7367018B2 (ja) | 履歴ベースの動きベクトル予測の簡略化 | |
TWI736872B (zh) | 基於解碼器側運動向量推導之運動向量預測推導之限制 | |
JP6746620B2 (ja) | ビデオコーディングのための照明補償ステータスを決定するシステムおよび方法 | |
TWI803563B (zh) | 改良的解碼器側之運動向量推導 | |
JP7000565B2 (ja) | ビデオコーディングのためのアフィン予測動き情報をコーディングすること | |
JP6783788B2 (ja) | ビデオコーディングにおけるサブブロックの動き情報の導出 | |
CN107690810B (zh) | 确定用于视频译码的照明补偿状态的系统及方法 | |
CN111567043B (zh) | 对视频数据进行译码的方法、装置和计算机可读存储介质 | |
JP6258288B2 (ja) | 高効率ビデオコーディングのためのハイレベルシンタックスの拡張 | |
JP6215295B2 (ja) | Hevcおよびその拡張における動きベクトルのコーディングおよび双予測 | |
JP2020503799A (ja) | 双方向オプティカルフロー(bio)についての動きベクトル再構築 | |
US10542280B2 (en) | Encoding optimization with illumination compensation and integer motion vector restriction | |
CN112806012A (zh) | 用于帧间预测译码的基于历史的运动向量预测 | |
WO2018175756A1 (en) | Decoder-side motion vector derivation | |
JP2018110407A (ja) | ビデオコード化における視差ベクトル予測 | |
JP6855242B2 (ja) | ビデオコーディングのためのディスパリティベクトルおよび/または高度残差予測 | |
KR20180061281A (ko) | 비디오 코딩을 위한 향상된 양방향 광학 흐름 | |
JP2018506908A (ja) | サブ予測ユニットベース高度時間動きベクトル予測 | |
JP2016506185A (ja) | ビデオコーディング拡張規格のための時間動きベクトル予測 | |
JP2022511809A (ja) | ビデオコード化に対する空間-時間動きベクトル予測パターン |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210806 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7278333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |