JP2020511859A - 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること - Google Patents
復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること Download PDFInfo
- Publication number
- JP2020511859A JP2020511859A JP2019551632A JP2019551632A JP2020511859A JP 2020511859 A JP2020511859 A JP 2020511859A JP 2019551632 A JP2019551632 A JP 2019551632A JP 2019551632 A JP2019551632 A JP 2019551632A JP 2020511859 A JP2020511859 A JP 2020511859A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- derived
- poc
- diff
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/587—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
T’C=2*TC−T0
1.L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)>0)、
a.L0_MV_X_Derived=L1_MV_X_Derived、および/または
b.L0_MV_Y_Derived=L1_MV_Y_Derived;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)<0)、
c.L0_MV_X_Derived=−1*L1_MV_X_Derived、および/または
d.L0_MV_Y_Derived=−1*L1_MV_Y_Derived。
1.L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)>0)、
a.L0_MV_X_Diff=L1_MV_X_Diff、および/または
b.L0_MV_Y_Diff=L1_MV_Y_Diff;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)<0)、
c.L0_MV_X_Diff=−1*L1_MV_X_Diff、および/または
d.L0_MV_Y_Diff=−1*L1_MV_Y_Diff。
1.L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)>0)、
a.L0_MV_X_Derived=−1*L1_MV_X_Derived、および/または
b.L0_MV_Y_Derived=−1*L1_MV_Y_Derived;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Derived)*(CURR _POC−L1_POC_Derived)<0)、
c.L0_MV_X_Derived=L1_MV_X_Derived、および/または
d.L0_MV_Y_Derived=L1_MV_Y_Derived。
1.L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、および/または
2.L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)。
1.List0およびList1参照ピクチャが両方とも現在のピクチャの前にあるか、または両方とも現在のピクチャの後にあるとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)>0)、
a.L0_MV_X_Diff=−1*L1_MV_X_Diff、および/または
b.L0_MV_Y_Diff=−1*L1_MV_Y_Diff;
および/または
2.List0およびList1参照ピクチャが両方とも現在のピクチャの前にないか、または両方とも現在のピクチャの後にないとき、(例えば、(CURR _POC−L0_POC_Init)*(CURR _POC−L1_POC_Init)<0)、
c.L0_MV_X_Diff=L1_MV_X_Diff、および/または
d.L0_MV_Y_Diff=L1_MV_Y_Diff。
1.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが対称であるときにのみ有効にされ得る。
2.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似対称であるときにのみ有効にされ得る。
3.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが反対称であるときにのみ有効にされ得る。
4.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似反対称であるときにのみ有効にされ得る。
5.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが対称でないときにのみ有効にされ得る。
6.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似対称でないときにのみ有効にされ得る。
7.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが反対称でないときにのみ有効にされ得る。
8.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVが疑似反対称でないときにのみ有効にされ得る。
9.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVのList0およびList1参照ピクチャが両方とも現在ピクチャの前にあるか、または両方とも現在のピクチャの後にあるときにのみ有効にされ得る。
10.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVのList0およびList1参照ピクチャが両方とも現在ピクチャの前にないか、または両方とも現在のピクチャの後にないときにのみ有効にされ得る。
11.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVの参照インデックスが両方とも0であるときにのみ有効にされ得る。
12.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、初期MVの参照インデックスが両方とも0でないときにのみ有効にされ得る。
13.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、List0参照ピクチャと現在のピクチャとの間のPOC距離と、List1参照ピクチャと現在のピクチャとの間のPOC距離とが同じであるときにのみ有効にされ得る。
14.いくつかの例では、ここに説明された1つまたは複数の制約(例えば、1つまたは複数の対称/反対称MV/MV差分制約)は、List0参照ピクチャと現在のピクチャとの間のPOC距離と、List1参照ピクチャと現在のピクチャとの間のPOC距離とが同じでないときにのみ有効にされ得る。
15.いくつかの例では、1つまたは複数の対称MV差分制約は、初期MVが対称でないときに適用され得る、
16.いくつかの例では、1つまたは複数の反対称MV差分制約は、初期MVが対称であるときに適用され得る、
17.いくつかの例では、対称制約のうちの1つまたは複数のMV解像度は、決定的な様式で割り当てられ得る。一例では、バイラテラルテンプレートマッチングの整数ペル精緻化のために、いかなる対称/疑似対称/非対称制約も課されないことがあり得、および前述された制約は、ハーフペル、クォーターペル、またはより高い精度の動き精緻化に対してのみである。(そのMV解像度での)制約のレベルは、SPS/PPS/スライスヘッダを通じてシグナリングされ得る。解像度はまた、BIO、サブペルFRUCのような他の動き精緻化ツールが有効にされるかどうかと併せて決められ得る。例えば、BIOが有効にされるとき、制約は、クォーターペルまたはより高い精度の動き精緻化に対して課せられないことがあり得る。
18.いくつかの例では、制約のレベル(例えば、どの制約が有効にされるか)は、List0 MVとList1 MVとの間の絶対差分、List0 MVとList1 MVとの間の(それらの相対POC距離に基づいて)スケーリングされた絶対差分、またはList0とList1と(すなわち、この例では、P0とP1と)の補間されたサンプルの間の初期SAD値にしたがって適応的にさせられることができる。他の例では、(現在のテンプレート、P0)と(現在のテンプレート、P1)との間の絶対差分の和(SAD)値の比は、何のMV解像度において制約が課せられるべきかを決めるために使用されることができる。この例では、SAD値の比がしきい値より低い場合、いかなる前述された対称制約も課されるべきではない。
Claims (30)
- 符号化されたビデオビットストリームからビデオデータを復号する方法であって、前記方法は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定することを備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を備える、方法。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項1に記載の方法。
- 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であると決定することは、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
であると決定することを備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項1に記載の方法。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有すると決定することは、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
であると決定することを備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項1に記載の方法。 - 動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定することをさらに備え、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、請求項1に記載の方法。 - 動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定することをさらに備え、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項1に記載の方法。 - 前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定することをさらに備える、請求項1に記載の方法。
- 前記コストメトリックは、絶対差分の和を含む、請求項1に記載の方法。
- 符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号することと
を行うように構成される、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項14に記載の装置。
- 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Diff*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Diff*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Diff*(CURR _POC−L0_POC_Derived)
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称であるという前記決定は、
L0_MV_X_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_X_Derived*(CURR _POC−L0_POC_Derived)、または
L0_MV_Y_Derived*(CURR _POC−L1_POC_Derived)=−1*L1_MV_Y_Derived*(CURR _POC−L0_POC_Derived)、
という決定を備え、ここにおいて、
L0_MV_X_Derivedは、前記第1の導出された動きベクトルのX成分であり、
L0_MV_Y_Derivedは、前記第1の導出された動きベクトルのY成分であり、
L1_MV_X_Derivedは、前記第2の導出された動きベクトルのX成分であり、
L1_MV_Y_Derivedは、前記第2の導出された動きベクトルのY成分であり、
CURR _POCは、現在のピクチャの現在のピクチャ順序カウント(POC)であり、
L0_POC_Derivedは、動きベクトルの第1のリストについての導出されたPOCであり、
L1_POC_Derivedは、動きベクトルの第2のリストについての導出されたPOCである、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項14に記載の装置。 - 前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが前記疑似反対称動きベクトル差分を有するという前記決定は、
L0_MV_X_Diff=L1_MV_X_Diff、
L0_MV_Y_Diff=L1_MV_Y_Diff、
L0_MV_X_Diff=−1*L1_MV_X_Diff、または
L0_MV_Y_Diff=−1*L1_MV_Y_Diff、
という決定を備え、ここにおいて、
L0_MV_X_Diffは、第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のX成分であり、
L0_MV_Y_Diffは、前記第1の初期動きベクトルと前記第1の導出された動きベクトルとの間の差分のY成分であり、
L1_MV_X_Diffは、第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のX成分であり、
L1_MV_Y_Diffは、前記第2の初期動きベクトルと前記第2の導出された動きベクトルとの間の差分のY成分である、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが、前記第1の初期動きベクトルと前記第2の初期動きベクトルとの間の関係に関する少なくとも1つの条件を満たすと決定するようにさらに構成され、前記関係は、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記対称動きベクトル差分を有する、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが反対称である、前記第1の初期動きベクトルと前記第2の初期動きベクトルとが疑似反対称である、または前記第1の初期動きベクトルと前記第2の初期動きベクトルとが前記反対称動きベクトル差分を有することを備え、
前記複数の導出された動きベクトルを生成することは、前記第1の初期動きベクトルと前記第2の初期動きとが前記少なくとも1つの条件を満たすことに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
動きベクトル候補リスト中の第1の初期動きベクトルと前記動きベクトル候補リスト中の第2の初期動きベクトルとが現在のピクチャの前にあるか、または前記現在のピクチャの後にあるかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記決定にさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、
第1の動きベクトル候補リストに関連付けられた第1の参照ピクチャと現在のピクチャとの間の第1のピクチャ順序カウント(POC)距離が0であり、第2の動きベクトル候補リストに関連付けられた第2の参照ピクチャと前記現在のピクチャとの間の第2のPOC距離が0であるかどうかを決定するようにさらに構成され、
前記複数の導出された動きベクトルを生成する前記コストメトリックに基づいて、前記複数の導出された動きベクトルから前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとを決定することは、前記第1の動きベクトル候補リストに関連付けられた前記第1の参照ピクチャと前記現在のピクチャとの間の前記第1のPOC距離が0であり、前記第2の動きベクトル候補リストに関連付けられた前記第2の参照ピクチャと前記現在のピクチャとの間の前記第2のPOC距離がゼロ決定であると前記決定することにさらに基づく、請求項14に記載の装置。 - 前記1つまたは複数のプロセッサは、前記符号化されたビデオビットストリームから前記少なくとも1つの制約を決定するようにさらに構成される、請求項14に記載の装置。
- 前記コストメトリックは、絶対差分の和を含む、請求項14に記載の装置。
- 符号化されたビデオビットストリームからビデオデータを復号するように構成された装置であって、前記装置は、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成するための手段と、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定するための手段と、前記決定するための手段は、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすと決定するための手段を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを復号するための手段と
を備える、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項27に記載の装置。
- ビデオデータを符号化するように構成された装置であって、前記装置は、
前記ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信中の1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
復号器側動きベクトル導出(DMVD)を使用して、複数の導出された動きベクトルを生成することと、
コストメトリックに基づいて、前記複数の導出された動きベクトルから第1の導出された動きベクトルと第2の導出された動きベクトルとを決定することと、前記決定することは、
前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとの間の関係に関する少なくとも1つの制約を満たすという決定を備え、前記関係は、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似対称動きベクトル差分を有する、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称である、前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが反対称動きベクトル差分を有する、または前記第1の導出された動きベクトルと前記第2の導出された動きベクトルとが疑似反対称動きベクトル差分を有することを備える、
双予測を使用して、前記決定された第1の導出された動きベクトルと前記第2の導出された動きベクトルとを使用して現在のブロックを符号化することと
を行うように構成される、装置。 - 前記複数の導出された動きベクトルを生成するためにDMVDを使用することは、双方向オプティカルフロー(BIO)プロセス、フレームレートアップコンバージョン(FRUC)プロセス、バイラテラルマッチングプロセス、FRUCテンプレートマッチングプロセス、またはバイラテラルテンプレートマッチングプロセスのうちの1つを使用することを備える、請求項29に記載の装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021114322A JP7278333B2 (ja) | 2017-03-22 | 2021-07-09 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762475177P | 2017-03-22 | 2017-03-22 | |
US62/475,177 | 2017-03-22 | ||
US15/927,854 | 2018-03-21 | ||
US15/927,854 US10595035B2 (en) | 2017-03-22 | 2018-03-21 | Constraining motion vector information derived by decoder-side motion vector derivation |
PCT/US2018/023761 WO2018175720A1 (en) | 2017-03-22 | 2018-03-22 | Constraining motion vector information derived by decoder-side motion vector derivation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114322A Division JP7278333B2 (ja) | 2017-03-22 | 2021-07-09 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020511859A true JP2020511859A (ja) | 2020-04-16 |
JP2020511859A5 JP2020511859A5 (ja) | 2020-05-28 |
JP7233376B2 JP7233376B2 (ja) | 2023-03-06 |
Family
ID=63583206
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019551632A Active JP7233376B2 (ja) | 2017-03-22 | 2018-03-22 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
JP2021114322A Active JP7278333B2 (ja) | 2017-03-22 | 2021-07-09 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021114322A Active JP7278333B2 (ja) | 2017-03-22 | 2021-07-09 | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること |
Country Status (18)
Country | Link |
---|---|
US (1) | US10595035B2 (ja) |
EP (1) | EP3603069A1 (ja) |
JP (2) | JP7233376B2 (ja) |
KR (1) | KR20190127884A (ja) |
CN (1) | CN110431845B (ja) |
AU (2) | AU2018237346A1 (ja) |
BR (1) | BR112019019210A2 (ja) |
CA (1) | CA3053479A1 (ja) |
CL (1) | CL2019002680A1 (ja) |
CO (1) | CO2019010076A2 (ja) |
IL (1) | IL268646B (ja) |
MX (1) | MX2019011318A (ja) |
MY (1) | MY195629A (ja) |
PH (1) | PH12019501895A1 (ja) |
RU (1) | RU2767144C2 (ja) |
SG (1) | SG11201907531XA (ja) |
WO (1) | WO2018175720A1 (ja) |
ZA (1) | ZA201906240B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021535707A (ja) * | 2018-09-04 | 2021-12-16 | 華為技術有限公司Huawei Technologies Co., Ltd. | 二方向インター予測に適用される参照フレーム取得方法および装置 |
JP7495433B2 (ja) | 2019-06-03 | 2024-06-04 | ヴィド スケール インコーポレイテッド | オプティカルフローを用いたブロック境界予測リファインメント |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10595035B2 (en) * | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
JP7168593B2 (ja) * | 2017-07-03 | 2022-11-09 | ヴィド スケール インコーポレイテッド | 双方向オプティカルフローに基づいた動き補償予測 |
CN117615154A (zh) * | 2017-08-29 | 2024-02-27 | 株式会社Kt | 视频解码和编码方法及用于存储压缩视频数据的装置 |
EP3451665A1 (en) * | 2017-09-01 | 2019-03-06 | Thomson Licensing | Refinement of internal sub-blocks of a coding unit |
CN111201795B (zh) * | 2017-10-09 | 2022-07-26 | 华为技术有限公司 | 存储访问窗口和用于运动矢量修正的填充 |
US10652571B2 (en) * | 2018-01-25 | 2020-05-12 | Qualcomm Incorporated | Advanced motion vector prediction speedups for video coding |
US11575933B2 (en) | 2018-04-06 | 2023-02-07 | Vid Scale, Inc. | Bi-directional optical flow method with simplified gradient derivation |
US10863190B2 (en) | 2018-06-14 | 2020-12-08 | Tencent America LLC | Techniques for memory bandwidth optimization in bi-predicted motion vector refinement |
CN110620929B (zh) | 2018-06-19 | 2023-04-18 | 北京字节跳动网络技术有限公司 | 没有运动矢量预测截断的选择的运动矢量差精度 |
CN110662043B (zh) | 2018-06-29 | 2021-12-21 | 北京字节跳动网络技术有限公司 | 一种用于处理视频数据的方法、装置和计算机可读介质 |
SG11202012293RA (en) | 2018-06-29 | 2021-01-28 | Beijing Bytedance Network Technology Co Ltd | Update of look up table: fifo, constrained fifo |
EP3791585A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
TWI731360B (zh) | 2018-06-29 | 2021-06-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表的使用條件 |
TWI728390B (zh) | 2018-06-29 | 2021-05-21 | 大陸商北京字節跳動網絡技術有限公司 | 查找表尺寸 |
EP3791586A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
CN110662052B (zh) | 2018-06-29 | 2022-07-08 | 北京字节跳动网络技术有限公司 | 更新查找表(lut)的条件 |
EP4322533A3 (en) | 2018-06-29 | 2024-03-06 | Beijing Bytedance Network Technology Co., Ltd. | Checking order of motion candidates in lut |
WO2020008349A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Merge index coding |
WO2020031059A1 (en) | 2018-08-04 | 2020-02-13 | Beijing Bytedance Network Technology Co., Ltd. | Constraints for usage of updated motion information |
WO2020053800A1 (en) | 2018-09-12 | 2020-03-19 | Beijing Bytedance Network Technology Co., Ltd. | How many hmvp candidates to be checked |
EP4325859A3 (en) | 2018-09-19 | 2024-05-15 | Beijing Bytedance Network Technology Co., Ltd. | Syntax reuse for affine mode with adaptive motion vector resolution |
WO2020084476A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block based prediction |
WO2020084475A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Utilization of refined motion vector |
WO2020084462A1 (en) | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on block size |
WO2020084461A1 (en) * | 2018-10-22 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions on decoder side motion vector derivation based on coding information |
CN117241017A (zh) | 2018-11-05 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 数字视频编解码的方法、设备和系统 |
CN111436230A (zh) | 2018-11-12 | 2020-07-21 | 北京字节跳动网络技术有限公司 | 仿射预测的带宽控制方法 |
CN113170171B (zh) | 2018-11-20 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 组合帧间帧内预测模式的预测细化 |
EP3861742A4 (en) | 2018-11-20 | 2022-04-13 | Beijing Bytedance Network Technology Co., Ltd. | DIFFERENCE CALCULATION BASED ON SPATIAL POSITION |
IL284179B2 (en) * | 2018-12-21 | 2024-06-01 | Vid Scale Inc | Differential coding of a symmetric motion vector |
WO2020141993A1 (en) * | 2019-01-02 | 2020-07-09 | Telefonaktiebolaget Lm Ericsson (Publ) | Side motion refinement in video encoding/decoding systems |
JP7275286B2 (ja) | 2019-01-10 | 2023-05-17 | 北京字節跳動網絡技術有限公司 | Lut更新の起動 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
US11025936B2 (en) * | 2019-01-25 | 2021-06-01 | Tencent America LLC | Method and apparatus for video coding |
CN113412623A (zh) | 2019-01-31 | 2021-09-17 | 北京字节跳动网络技术有限公司 | 记录仿射模式自适应运动矢量分辨率的上下文 |
WO2020156517A1 (en) * | 2019-01-31 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Fast algorithms for symmetric motion vector difference coding mode |
CN113383548A (zh) * | 2019-02-03 | 2021-09-10 | 北京字节跳动网络技术有限公司 | Mv精度和mv差编解码之间的相互作用 |
MX2021009529A (es) * | 2019-02-08 | 2021-09-23 | Beijing Dajia Internet Information Tech Co Ltd | Metodos y dispositivos para aplicar de forma selectiva el flujo optico bidireccional y el refinamiento del vector de movimiento en el decodificador para la codificacion de video. |
CN113424535A (zh) | 2019-02-13 | 2021-09-21 | 北京字节跳动网络技术有限公司 | 基于运动矢量预测表的历史更新 |
WO2020164575A1 (en) * | 2019-02-14 | 2020-08-20 | Beijing Bytedance Network Technology Co., Ltd. | Decoder side motion derivation based on processing parameters |
CN116915983B (zh) * | 2019-02-20 | 2024-04-16 | 北京达佳互联信息技术有限公司 | 用于视频解码的方法、计算设备、存储介质和程序产品 |
US11166037B2 (en) * | 2019-02-27 | 2021-11-02 | Mediatek Inc. | Mutual excluding settings for multiple tools |
CN116347103A (zh) * | 2019-02-28 | 2023-06-27 | 华为技术有限公司 | 编码器、解码器及相应的帧间预测方法 |
KR102647497B1 (ko) * | 2019-03-05 | 2024-03-13 | 엘지전자 주식회사 | 인터 예측을 위한 비디오 신호의 처리 방법 및 장치 |
JP2022521554A (ja) | 2019-03-06 | 2022-04-08 | 北京字節跳動網絡技術有限公司 | 変換された片予測候補の利用 |
CN113475076B (zh) * | 2019-03-11 | 2024-03-12 | 阿里巴巴集团控股有限公司 | 用于对视频数据进行编码的帧间预测方法 |
PL3941060T3 (pl) | 2019-03-12 | 2023-12-27 | Lg Electronics Inc. | Sposób i urządzenie inter-predykcji oparte na dmvr i bdof |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
WO2020197290A1 (ko) * | 2019-03-26 | 2020-10-01 | 인텔렉추얼디스커버리 주식회사 | 영상 부호화/복호화 방법 및 장치 |
EP3922014A4 (en) | 2019-04-02 | 2022-04-06 | Beijing Bytedance Network Technology Co., Ltd. | DECODER SIDE MOTION VECTOR BYPASS |
WO2020211755A1 (en) * | 2019-04-14 | 2020-10-22 | Beijing Bytedance Network Technology Co., Ltd. | Motion vector and prediction sample refinement |
WO2020221256A1 (en) * | 2019-04-28 | 2020-11-05 | Beijing Bytedance Network Technology Co., Ltd. | Symmetric motion vector difference coding |
JP7303330B2 (ja) * | 2019-04-28 | 2023-07-04 | 北京字節跳動網絡技術有限公司 | 対称動きベクトル差分符号化 |
CN111586419B (zh) * | 2019-05-13 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 视频解码方法、视频编码方法及装置 |
SG11202111843XA (en) * | 2019-05-16 | 2021-11-29 | Beijing Bytedance Network Technology Co Ltd | Sub-region based determination of motion information refinement |
US11172212B2 (en) * | 2019-06-06 | 2021-11-09 | Qualcomm Incorporated | Decoder-side refinement tool on/off control |
KR102417212B1 (ko) * | 2019-06-17 | 2022-07-05 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 비디오 코딩에서의 디코더 측 모션 벡터 개선을 위한 방법들 및 장치들 |
US20200402546A1 (en) * | 2019-06-24 | 2020-12-24 | Seagate Technology Llc | Reducing base deck porosity |
WO2020262918A1 (ko) * | 2019-06-24 | 2020-12-30 | 엘지전자 주식회사 | 움직임 벡터를 이용한 영상 코딩 방법 및 장치 |
KR20210158399A (ko) * | 2019-06-24 | 2021-12-30 | 엘지전자 주식회사 | 인터 예측 기반 영상 코딩 방법 및 장치 |
US11190789B2 (en) * | 2019-06-30 | 2021-11-30 | Tencent America LLC | Method and apparatus for video coding using inter-prediction mode signaling to dertermine motion vectors |
US11272203B2 (en) * | 2019-07-23 | 2022-03-08 | Tencent America LLC | Method and apparatus for video coding |
KR20220038060A (ko) * | 2019-07-27 | 2022-03-25 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 참조 픽처 유형들에 따른 툴들의 사용의 제한들 |
CN110545425B (zh) * | 2019-08-21 | 2021-11-16 | 浙江大华技术股份有限公司 | 一种帧间预测方法、终端设备以及计算机存储介质 |
WO2021052495A1 (en) * | 2019-09-20 | 2021-03-25 | Beijing Bytedance Network Technology Co., Ltd. | Adaptive resolution change and scalable coding for screen contents |
WO2022262818A1 (en) * | 2021-06-18 | 2022-12-22 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016160605A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
WO2017036414A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of decoder side motion derivation for video coding |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100093703A (ko) * | 2009-02-17 | 2010-08-26 | 한국전자통신연구원 | 대칭적 움직임 예측 및 채널 분할을 통한 분산 동영상 부호화기와 복호화기 및 그 방법 |
KR101452859B1 (ko) * | 2009-08-13 | 2014-10-23 | 삼성전자주식회사 | 움직임 벡터를 부호화 및 복호화하는 방법 및 장치 |
WO2011096770A2 (ko) * | 2010-02-02 | 2011-08-11 | (주)휴맥스 | 영상 부호화/복호화 장치 및 방법 |
WO2013006386A1 (en) | 2011-07-01 | 2013-01-10 | General Instrument Corporation | Motion vector prediction design simplification |
US10075728B2 (en) * | 2012-10-01 | 2018-09-11 | Inria Institut National De Recherche En Informatique Et En Automatique | Method and device for motion information prediction refinement |
US10244253B2 (en) * | 2013-09-13 | 2019-03-26 | Qualcomm Incorporated | Video coding techniques using asymmetric motion partitioning |
US10595035B2 (en) * | 2017-03-22 | 2020-03-17 | Qualcomm Incorporated | Constraining motion vector information derived by decoder-side motion vector derivation |
-
2018
- 2018-03-21 US US15/927,854 patent/US10595035B2/en active Active
- 2018-03-22 SG SG11201907531X patent/SG11201907531XA/en unknown
- 2018-03-22 MX MX2019011318A patent/MX2019011318A/es unknown
- 2018-03-22 RU RU2019133109A patent/RU2767144C2/ru active
- 2018-03-22 CN CN201880019566.5A patent/CN110431845B/zh active Active
- 2018-03-22 BR BR112019019210A patent/BR112019019210A2/pt unknown
- 2018-03-22 WO PCT/US2018/023761 patent/WO2018175720A1/en unknown
- 2018-03-22 KR KR1020197030837A patent/KR20190127884A/ko not_active Application Discontinuation
- 2018-03-22 JP JP2019551632A patent/JP7233376B2/ja active Active
- 2018-03-22 MY MYPI2019004629A patent/MY195629A/en unknown
- 2018-03-22 EP EP18716799.4A patent/EP3603069A1/en not_active Ceased
- 2018-03-22 AU AU2018237346A patent/AU2018237346A1/en not_active Abandoned
- 2018-03-22 CA CA3053479A patent/CA3053479A1/en active Pending
-
2019
- 2019-08-12 IL IL268646A patent/IL268646B/en unknown
- 2019-08-15 PH PH12019501895A patent/PH12019501895A1/en unknown
- 2019-09-18 CO CONC2019/0010076A patent/CO2019010076A2/es unknown
- 2019-09-20 ZA ZA2019/06240A patent/ZA201906240B/en unknown
- 2019-09-23 CL CL2019002680A patent/CL2019002680A1/es unknown
-
2021
- 2021-07-09 JP JP2021114322A patent/JP7278333B2/ja active Active
-
2023
- 2023-02-10 AU AU2023200756A patent/AU2023200756A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016160605A1 (en) * | 2015-03-27 | 2016-10-06 | Qualcomm Incorporated | Deriving motion information for sub-blocks in video coding |
WO2017036414A1 (en) * | 2015-09-02 | 2017-03-09 | Mediatek Inc. | Method and apparatus of decoder side motion derivation for video coding |
Non-Patent Citations (1)
Title |
---|
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 4", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D1001 (version 3), JPN6020031581, 19 November 2016 (2016-11-19), pages 18 - 19, ISSN: 0004461492 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021535707A (ja) * | 2018-09-04 | 2021-12-16 | 華為技術有限公司Huawei Technologies Co., Ltd. | 二方向インター予測に適用される参照フレーム取得方法および装置 |
JP7242861B2 (ja) | 2018-09-04 | 2023-03-20 | 華為技術有限公司 | 二方向インター予測に適用される参照フレーム取得方法および装置 |
US11659161B2 (en) | 2018-09-04 | 2023-05-23 | Huawei Technologies Co., Ltd. | Reference frame obtaining method and apparatus applied to bidirectional inter prediction |
JP7495433B2 (ja) | 2019-06-03 | 2024-06-04 | ヴィド スケール インコーポレイテッド | オプティカルフローを用いたブロック境界予測リファインメント |
Also Published As
Publication number | Publication date |
---|---|
MY195629A (en) | 2023-02-03 |
US20180278949A1 (en) | 2018-09-27 |
RU2767144C2 (ru) | 2022-03-16 |
AU2018237346A1 (en) | 2019-09-05 |
JP7233376B2 (ja) | 2023-03-06 |
BR112019019210A2 (pt) | 2020-04-14 |
MX2019011318A (es) | 2019-11-12 |
US10595035B2 (en) | 2020-03-17 |
CA3053479A1 (en) | 2018-09-27 |
CL2019002680A1 (es) | 2020-05-29 |
PH12019501895A1 (en) | 2019-10-21 |
WO2018175720A1 (en) | 2018-09-27 |
KR20190127884A (ko) | 2019-11-13 |
ZA201906240B (en) | 2021-05-26 |
JP7278333B2 (ja) | 2023-05-19 |
CO2019010076A2 (es) | 2019-10-09 |
RU2019133109A3 (ja) | 2021-09-09 |
RU2019133109A (ru) | 2021-04-22 |
JP2021182743A (ja) | 2021-11-25 |
IL268646B (en) | 2022-02-01 |
EP3603069A1 (en) | 2020-02-05 |
CN110431845A (zh) | 2019-11-08 |
CN110431845B (zh) | 2022-11-25 |
IL268646A (en) | 2019-10-31 |
SG11201907531XA (en) | 2019-10-30 |
AU2023200756A1 (en) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7278333B2 (ja) | 復号器側動きベクトル導出によって導出された動きベクトル情報を制約すること | |
TWI803563B (zh) | 改良的解碼器側之運動向量推導 | |
TWI736872B (zh) | 基於解碼器側運動向量推導之運動向量預測推導之限制 | |
JP6740243B2 (ja) | ビデオコーディングにおける動きベクトル導出 | |
KR102579523B1 (ko) | 양방향 옵티컬 플로우 (bio) 를 위한 모션 벡터 재구성 | |
CN109155855B (zh) | 用于视频译码的仿射运动预测方法、装置及存储媒体 | |
TWI538489B (zh) | 在高效率視訊寫碼及其擴充中之運動向量寫碼及雙向預測 | |
WO2018175756A1 (en) | Decoder-side motion vector derivation | |
TW201842766A (zh) | 於視訊解碼器中導出運動向量資訊 | |
WO2019010123A1 (en) | MODEL-BASED MATCHING BASED ON PARTIAL RECONSTRUCTION FOR A MOTION VECTOR DIVERSION | |
KR20180061281A (ko) | 비디오 코딩을 위한 향상된 양방향 광학 흐름 | |
TW201924345A (zh) | 寫碼用於視頻寫碼之仿射預測移動資訊 | |
CN111869217A (zh) | 简化的局部照度补偿 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200410 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200410 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200717 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210309 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210709 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220315 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221101 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221129 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221206 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230124 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7233376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |