JP7261896B2 - 動き改良および重み付け予測 - Google Patents

動き改良および重み付け予測 Download PDF

Info

Publication number
JP7261896B2
JP7261896B2 JP2021553156A JP2021553156A JP7261896B2 JP 7261896 B2 JP7261896 B2 JP 7261896B2 JP 2021553156 A JP2021553156 A JP 2021553156A JP 2021553156 A JP2021553156 A JP 2021553156A JP 7261896 B2 JP7261896 B2 JP 7261896B2
Authority
JP
Japan
Prior art keywords
motion vector
prediction
block
initial motion
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553156A
Other languages
English (en)
Other versions
JP2022524374A (ja
Inventor
ルオヤン ユー,
ドゥ リュー,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2022524374A publication Critical patent/JP2022524374A/ja
Application granted granted Critical
Publication of JP7261896B2 publication Critical patent/JP7261896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

ビデオシーケンスのための動き改良(motion refinement)および重み付け予測(weighted prediction)に関係する実施形態が開示される。
ビデオシーケンスは、表示順序で順序付けられた一連のピクチャを含んでいる。各ピクチャが、その表示順序を指示するピクチャ順序カウント(POC)値を割り振られる。
ビデオコーディングが、ビデオシーケンスをコード化ピクチャのシーケンスに圧縮するために使用される。通常、ピクチャが、4×4から128×128にわたるサイズをもつブロックに分割される。ブロックは、各ピクチャをコーディングするための基礎として働く。次いで、ビデオデコーダが、コーディングされたピクチャを、サンプル値を含んでいるピクチャに復号する。
ドラフト多用途ビデオコーディング(VVC)規格は、4分木プラス2分木プラス3分木ブロック構造(QTBT+TT)と呼ばれるブロック構造を使用し、ここで、各ピクチャが、最初に、コーディングツリーユニット(CTU)と呼ばれる正方形ブロックに区分される。すべてのCTUのサイズは同等であり、CTUへのピクチャの区分が、区分を制御するシンタックスなしに実施される。各CTUが、正方形形状または長方形形状のいずれかを有することができるコーディングユニット(CU)にさらに区分される。CTUは、最初に、4分木構造によって区分され、次いで、CTUは、バイナリ構造において垂直方向にまたは水平方向にのいずれかで等しいサイズの区分でさらに区分されて、CUを形成し得る。したがって、ブロックが、正方形形状または長方形形状のいずれかを有することができる。4分木および2分木の深度が、ビットストリームにおいてエンコーダによってセットされ得る。QTBTを使用してCTUを分割することの一例が、図1Aに示されている。3分木(TT)部分は、CUを、2つの等しいサイズの区分ではなく3つの区分に分割する可能性を追加する。これは、ピクチャにおけるコンテンツ構造により良く合うブロック構造を使用する可能性を増加させる。
(空間予測としても知られる)イントラ予測
イントラ予測技法は、同じピクチャの異なるブロックの間の類似度を検討することを目的とする。イントラ予測は、ピクチャにおけるブロックを、同じピクチャにおける前に復号されたブロックを使用して予測する。ブロックを予測する1つのやり方は、ブロック中に含まれる表示エレメントの値(たとえば、ルミナンス、クロミナンス)を予測する(すなわち、決定する)ことである。イントラ予測されたブロックのみからなるピクチャは、イントラピクチャと呼ばれる。
(時間予測としても知られる)インター予測
インター予測技法は、ピクチャの間の類似度を検討することを目的とする。インター予測は、現在ピクチャにおけるブロック(「現在ブロック」)を、前に復号されたピクチャにおける1つまたは複数のブロックを使用して予測する。前に復号されたピクチャにおけるブロックからのサンプルが、現在ブロック内のサンプルを予測するために使用される。前に復号されたピクチャは、参照ピクチャと呼ばれ、前に復号されたピクチャにおけるブロックは、参照ブロックと呼ばれる。
参照ピクチャ内の参照されたブロックのロケーションが、動きベクトル(MV)を使用して指示される。各MVは、その各々がx次元またはy次元における参照ピクチャに対する現在ピクチャの変位を表す、x成分とy成分とを備える。成分の値は、整数位置よりも細かい分解能を有し得る。そのような場合、予測のために使用される値を計算するために、フィルタ処理(たとえば、補間)が使用され得る。図1Bは、現在ピクチャにおける現在ブロックCについての例示的なMVを示す。
インターピクチャは、いくつかの参照ピクチャを使用し得る。参照ピクチャは、通常、2つの異なる参照ピクチャリスト、すなわち、L0およびL1中に含まれる。現在ピクチャの前に表示される参照ピクチャは、一般に、リストL0中の第1のピクチャであり、現在ピクチャの後に表示される参照ピクチャは、一般に、リストL1中の第1のピクチャである。
現在ピクチャのブロックは、そのブロックが、現在ピクチャでない参照ピクチャにおける少なくとも1つの参照ブロックから予測される場合、インターブロックと呼ばれる。インターブロックは、2つの予測タイプ、単予測および双予測のうちの1つを使用して予測され得る。単予測では、インターブロックは、リストL0またはリストL1のいずれかから選択された1つの参照ピクチャから予測される。反対に、双予測では、インターブロックは、リストL0とリストL1の両方から選択された2つの参照ピクチャから予測される。図2は、単予測を使用して予測されたインターブロック201と、双予測を使用して予測されたインターブロック203とを示す。
一般的な双予測方式では、現在ブロックについての最終予測ブロックが、2つの動きベクトルを使用して取得された2つの予測ブロックからのサンプル値を平均化することによって生成される。動きベクトルを使用して予測ブロックを生成するプロセスは、動き補償と呼ばれる。動き補償の出力予測ブロックは、動き補償ブロックと呼ばれることもある。
図2では、インターブロックPbiに対応する2つの動きベクトルMV0およびMV1がある。MV0を使用して第1の予測ブロックP0が取得され、MV1を使用して第2の予測ブロックP1が取得される。インターブロックPbi(すなわち、予測されたブロック)が、式Pbi(x,y)=(P0(x,y)+P1(x,y))>>1を使用して生成され、ここで、Pbi(x,y)は、ブロックPbiにおける位置(x,y)におけるサンプル値である。言い換えれば、予測されたブロックPbiにおける各サンプル値が、第1の予測ブロックP0と第2の予測ブロックP1とにおける対応するサンプル値の平均として計算される。
重み付け予測(WP)-ピクチャレベルツール
WPは、動きベクトルから取得された予測ブロックに乗法係数および加法オフセットを適用するツールである。
WPが可能にされたとき、(動きベクトルを使用して)動き補償から予測ブロックPが取得された後に、Pにおける各サンプル値が、式P’(x,y)=W×P(x,y)+Oを使用してさらに修正され、ここで、P(x,y)は、予測ブロックPにおける位置(x,y)におけるサンプル値であり、P’(x,y)は、修正された予測ブロックP’における位置(x,y)におけるサンプル値であり、Wは重み付け係数(weighting factor)であり、Oはオフセットである。WとOの両方が、WPパラメータと呼ばれる。WPパラメータは、ピクチャレベルにおいてシグナリングされ得る。言い換えれば、同じWPパラメータが同じピクチャにおける異なるブロックのために使用され得るが、異なるWPパラメータが異なるピクチャのために使用され得る。
以下のテーブルは、HEVCおよびVVCにおけるWPについてのシンタックスの一例を示す。
Figure 0007261896000001
num_ref_idx_lx_active_minus1(xは0または1である)は、現在ピクチャのために使用されるLx(xは0または1である)中の参照ピクチャの数を指定する。Lx中の各参照ピクチャについて、luma_weight_lx_flagは、この参照ピクチャを使用するとき、WPが可能にされるべきであるかどうかを指示する。luma_weight_lx_flagが0でないとき、delta_luma_weight_lxおよびluma_offset_lxが取得される。delta_luma_weight_lxは、重み付け係数を導出するために使用され、luma_offset_lxは、オフセットを導出するために使用される。しかしながら、luma_weight_lx_flagが0であるとき、これは、WPがこの参照ピクチャのために使用されないことを意味する。そのような場合、デフォルト重みおよびオフセット(たとえば、W=1およびO=0)が代わりに使用されるべきである。
重み付け予測が両方の参照ピクチャのために可能にされる双予測方式では、L0参照ピクチャについてのWPパラメータ(すなわち、W0およびO0)と、L1参照ピクチャについてのWPパラメータ(すなわち、W1およびO1)とが取得される。したがって、最終予測ブロックは、((W0×P0+O0)+(W1×P1+O1))>>1であることになり、ここで、P0は、L0参照ピクチャからの予測ブロックであり、P1は、L1参照ピクチャからの予測ブロックである。
一般化された双予測/重み付け平均化を伴う双予測(BWA:Bi-prediction with weighted averaging)-ブロックレベルツール
WPに加えて、VVCは、一般化された双予測/重み付け平均化を伴う双予測(BWA)をも提供する。BWAは、複数の(たとえば、2つの)予測ブロックの重み付け平均化を提供するブロックレベルツールである。
BWAでは、最終予測ブロックPbiは、(W0×P0+W1×P1+4)>>3として表され得、ここで、W0=(8-W1)であり、W1について合計5つの重みが許容される(たとえば、W1∈{-2,3,4,5,10}。低遅延ピクチャ(すなわち、すべての参照ピクチャが現在ピクチャのPOCよりも小さいPOC値を有する)の場合、すべての5つの重みが使用される。反対に、非低遅延ピクチャ(すなわち、参照ピクチャのうちの少なくとも1つが現在ピクチャのPOC値よりも大きいPOC値を有する)の場合、3つの重みのみ(たとえば、W1∈{3,4,5})が使用される。
BWAでは、CUのためにシグナリングされるインデックス(gbi_idx)に基づいて、W1の適切な値が取得される。詳細には、gbi_idxは、ルックアップテーブル(gbiWLut)から、対応する重みを取り出すために使用される。たとえば、gbiWLut[k]={4,5,4,10,-2}である場合、gbi_idxが1の値を有することは、W1=gbiWLut[1]=5およびW0=8-W1=3を生じることになる。ここで、gbi_idxはBWAパラメータと呼ばれる。gbi_idxが0に等しいとき、W0とW1の両方は、4に等しく、したがって、デフォルト双予測平均化を生じることになる。WPと比較して、BWAは、予測ブロックを生成するために、異なる重みが同じピクチャにおける異なるCUのために使用されることを可能にし、したがって、より大きいフレキシビリティをもたらす。
以下のテーブルは、VVCにおけるBWAに関係するシンタックステーブルの一例を示す。
Figure 0007261896000002
インター予測情報/動き情報
インターピクチャ内のインターブロックについて、そのインター予測情報は、以下の3つのエレメントを備え得る。
1.参照ピクチャリストフラグ(RefPicListFlag)-フラグは、どの参照ピクチャリストが使用されるべきであるかを指示する。たとえば、フラグの値が0に等しいとき、これは、リスト0が使用されることを意味する。フラグの値が1に等しいとき、これは、リスト1が使用されることを意味する。フラグの値が2に等しいとき、これは、リスト0とリスト1の両方が使用されることを意味する。
2.参照ピクチャインデックス(RefPicIdx)-インデックスは、参照ピクチャリスト内のどの参照ピクチャが使用されるべきであるかを指示する。
3.動きベクトル(MV)-ベクトルは、現在ブロックを予測するために使用されるべきである参照ピクチャ内の位置を指示する。
本開示では、インター予測情報は動き情報とも呼ばれる。動き情報は、各インターブロックに記憶され、したがって、各インターブロックは、それ自体の動き情報を維持する。
動き情報シグナリング
現在のVVCは、各ブロックについての動き情報をシグナリングするいくつかの方法を含む。それらのうちの1つはマージである。ここで説明される方法の動機づけは、現在ブロックについての動き情報を予測するために、他のブロックにおける動き情報を使用することである。
マージ方法
VVCにおけるマージ方法は、高効率ビデオコーディング(HEVC)規格によって提供される方法と同様である。方法は、最初に、動き情報候補のリスト(すなわち、マージリスト)を生成する。マージリストの長さは、VVC(バージョン4)では6であり、HEVCでは5である。候補は、他のコード化ブロックから導出される。たとえば、コード化ブロックは、図3Aに示されているブロックのような、時間的コロケートされた(collocated)ブロックまたは空間的に隣接する近隣ブロックであり得る。図3Aは、マージリスト中に含まれる動き情報候補である5つの空間的に近隣するブロック(左(L)、上(T)、左上(TL)、右上(TR)、左下(LB))を示す。マージリストが生成された後に、現在ブロックの動き情報を動かすために使用されるべき動き情報候補のうちの1つが選択される。候補の選択はエンコーダ側で実施される。エンコーダが最良の候補を選択した後に、エンコーダは、デコーダに送られるビットストリーム中にインデックス(merge_idx)を含める。デコーダはインデックスを受信し、デコーダは、エンコーダと同じマージリスト導出プロセスに従い、そのインデックスを使用して、正しい候補を取り出す。
図3Bは、マージ候補リストの一例である。簡単のために、各候補についての動きベクトルのみがリストされている。図3Bに示されているマージリストによれば、マージインデックス(merge_idx)が4に等しいとき、MV0=(1,1)およびMV1=(-1,-1)が、現在ブロックについての動きベクトルとして選択されることになる。
現在ブロックの動きベクトルは、さらに、デコーダ側動きベクトル改良(DMVR:Decoder side Motion Vector Refinement)と呼ばれるツールによって改良され得る。DMVRは、概して、マージモードに適用可能であり、MVが双予測であることを必要とする。マージモードにおけるブロックでは、ブロックの初期MVが、マージモードを使用して導出される。DMVRは、初期MVの周りで検索し、L0予測ブロックとL1予測ブロックとの間の最も小さい差を与えるMVを見つける。
現在、いくつかの課題が存在する。たとえば、従来のDMVR検索では、双予測パラメータおよび/または重み付け予測パラメータが考慮されない。予測パラメータの考慮のこの欠如は、DMVR検索の精度に影響を及ぼし、したがって、DMVR性能に悪影響を及ぼし得る。
本開示の実施形態は、DMVR検索中に予測パラメータ(たとえば、WPパラメータまたはBWAパラメータ)を考慮することによって、DMVR検索の精度を改善する。
いくつかの実施形態によれば、一態様では、ビデオストリームの現在ピクチャにおける現在ブロックを復号または符号化するための予測ブロックを決定するためのプロセスが提供される。本プロセスは、初期動きベクトルの第1のペアを取得することであって、初期動きベクトルの第1のペアが、第1の初期動きベクトルと第2の初期動きベクトルとを備える、初期動きベクトルの第1のペアを取得することから始まり得る。本プロセスは、第1の予測パラメータを取得することと、第2の予測パラメータを取得することと、初期動きベクトルの第1のペアと第1の動きベクトルオフセットとを使用して、修正された動きベクトルの第1のペアを生成することであって、修正された動きベクトルの第1のペアが、第1の修正された動きベクトルと第2の修正された動きベクトルとを備える、修正された動きベクトルの第1のペアを生成することと、第1の修正された動きベクトルを使用して第1の予測ブロックを取得することと、第2の修正された動きベクトルを使用して第2の予測ブロックを取得することと、第1の予測ブロックと第2の予測ブロックとを使用して第1の差を計算することと、初期動きベクトルの第1のペアと第2の動きベクトルオフセットとを使用して、修正された動きベクトルの第2のペアを生成することであって、修正された動きベクトルの第2のペアが、第3の修正された動きベクトルと第4の修正された動きベクトルとを備える、修正された動きベクトルの第2のペアを生成することと、第3の修正された動きベクトルを使用して第3の予測ブロックを取得することと、第4の修正された動きベクトルを使用して第4の予測ブロックを取得することと、第3の予測ブロックと第4の予測ブロックとを使用して第2の差を計算することと、第1の差と第2の差とを使用して最良の動きベクトルオフセットを決定することと、決定された最良の動きベクトルオフセットを使用して予測ブロックを決定することとをも含む。
いくつかの実施形態では、第1の予測ブロックを取得することは、第1の修正された動きベクトルを使用して初期第1の予測ブロックを導出することと、初期第1の予測ブロックと少なくとも第1の予測パラメータとを使用して第1の予測ブロックを導出することとを含み、第3の予測ブロックを取得することは、第3の修正された動きベクトルを使用して初期第3の予測ブロックを導出することと、初期第3の予測ブロックと少なくとも第1の予測パラメータとを使用して第3の予測ブロックを導出することとを含む。
他の実施形態に関して、一態様では、ビデオストリームの現在ピクチャにおける現在ブロックを復号または符号化するための予測ブロックを決定するためのプロセスが提供される。本プロセスは、初期動きベクトルのペアを取得することであって、初期動きベクトルのペアが、第1の初期動きベクトルと第2の初期動きベクトルとを備える、初期動きベクトルのペアを取得することから始まり得る。本プロセスは、初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)であって、初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式が可能にされるか否かを決定することを含む、初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)をさらに含む。本プロセスは、初期動きベクトルを改良することを決定したことの結果として初期動きベクトルを改良すること、または初期動きベクトルを改良しないことを決定したことの結果として初期動きベクトルを改良することを控えることをさらに含む。
別の態様では、少なくとも1つのプロセッサ上で実行されたとき、少なくとも1つのプロセッサに、本明細書で開示される方法のいずれか1つを行わせる命令を備えるコンピュータプログラムが提供される。別の態様では、コンピュータプログラムを含んでいるキャリアが提供され、キャリアは、電子信号、光信号、無線信号、またはコンピュータ可読記憶媒体のうちの1つである。
別の態様では、本明細書で開示される方法のいずれか1つを実施するように動作可能であるエンコーダまたはデコーダ装置が提供される。一実施形態では、エンコーダまたはデコーダ装置は、処理回路とメモリとを含む。一実施形態では、メモリは、上述のコンピュータプログラムを記憶する。
本明細書に組み込まれ、明細書の一部をなす添付の図面は、様々な実施形態を示す。
QTBTを使用した、CUへのCTUの例示的な区分を示す図である。 現在ピクチャにおけるブロックについての動きベクトルを示す図である。 単予測および双予測を示す図である。 近隣動き情報をフェッチするための可能な空間ブロックを示す図である。 マージ候補リストの一例を示す図である。 一実施形態による、システムを示す図である。 一実施形態による、エンコーダの概略ブロック図である。 一実施形態による、復号の概略ブロック図である。 DMVRプロセスの一般的なステップを示す図である。 修正された動きベクトルがどのように取得されるかを示す図である。 一実施形態による、DMVRプロセスを示す図である。 一実施形態による、DMVRプロセスを示す図である。 一実施形態による、DMVRプロセスを示す図である。 一実施形態による、DMVRプロセスを示す図である。 一実施形態による、DMVRプロセスを示す図である。 エンコーダまたはデコーダを実装するための、一実施形態による、装置を示すブロック図である。 いくつかの実施形態による、プロセスを示すフローチャートである。 いくつかの実施形態による、プロセスを示すフローチャートである。
図4は、例示的な一実施形態による、システム400を示す。システム400は、ネットワーク410(たとえば、インターネットまたは他のネットワーク)を介してデコーダ404と通信しているエンコーダ402を含む。
図5は、一実施形態による、ビデオシーケンスのビデオフレーム(ピクチャ)中のピクセル値のブロック(以下「ブロック」)を符号化するためのエンコーダ402の概略ブロック図である。同じフレーム中のまたは前のフレーム中のすでに提供されたブロックから、動き推定器50によって動き推定を実施することによって、現在ブロックが予測される。動き推定の結果は、インター予測の場合、参照ブロックに関連する動きベクトルまたは変位ベクトルである。動きベクトルは、ブロックのインター予測を出力するために動き補償器50によって利用される。イントラ予測器49が、現在ブロックのイントラ予測を算出する。動き推定器/補償器50からの出力と、イントラ予測器49からの出力とは、現在ブロックについてイントラ予測またはインター予測のいずれかを選択するセレクタ51中に入力される。セレクタ51からの出力は、加算器41の形態の誤差計算器に入力され、加算器41は、現在ブロックのピクセル値をも受信する。加算器41は、ブロックとそのブロックの予測との間のピクセル値の差として残差誤差を計算および出力する。誤差は、離散コサイン変換などによって、変換器42中で変換され、量子化器43によって量子化され、その後、エントロピーエンコーダなどによるエンコーダ44におけるコーディングが続く。インターコーディングでは、推定された動きベクトルも、現在ブロックのコード化表現を生成するためにエンコーダ44にもたらされる。また、現在ブロックのための変換および量子化された残差誤差は、元の残差誤差を取り出すために、逆量子化器45と逆方向変換器46とに提供される。この誤差は、次のブロックの予測およびコーディングにおいて使用され得る参照ブロックを作成するために、動き補償器50またはイントラ予測器49から出力されたブロック予測に加算器47によって加算される。この新しい参照ブロックは、任意のブロッキングアーティファクトをなくすためにデブロッキングフィルタ処理を実施するために、実施形態に従って、デブロッキングフィルタユニット100によって最初に処理される。次いで、処理された新しい参照ブロックは、フレームバッファ48に一時的に記憶され、ここで、処理された新しい参照ブロックは、イントラ予測器49および動き推定器/補償器50にとって利用可能である。
図6は、いくつかの実施形態による、デコーダ404の対応する概略ブロック図である。デコーダ404は、量子化および変換された残差誤差のセットを得るためにブロックの符号化表現を復号するための、エントロピーデコーダなどのデコーダ61を備える。これらの残差誤差は、逆量子化器62において量子化解除され、逆方向変換器63によって逆方向変換されて、残差誤差のセットを得る。これらの残差誤差は、加算器64において参照ブロックのピクセル値に加算される。参照ブロックは、インター予測が実施されるのかイントラ予測が実施されるのかに応じて、動き推定器/補償器67またはイントラ予測器66によって決定される。それにより、セレクタ68が加算器64と動き推定器/補償器67とイントラ予測器66とに相互接続される。加算器64から出力された得られた復号されたブロックは、任意のブロッキングアーティファクトをデブロッキングフィルタ処理するために、実施形態によるデブロッキングフィルタユニット100に入力される。フィルタ処理されたブロックは、デコーダ504から出力され、さらに、好ましくは、フレームバッファ65に一時的に提供され、復号されるべき後続のブロックのための参照ブロックとして使用され得る。フレームバッファ65は、それにより、動き推定器/補償器67に接続されて、ピクセルの記憶されたブロックを動き推定器/補償器67にとって利用可能にする。加算器64からの出力はまた、好ましくは、イントラ予測器66に入力されて、フィルタ処理されていない参照ブロックとして使用される。
図7は、DMVRプロセスの一例を示す。
ステップs702において、現在ピクチャのブロックについて、2つの初期動きベクトル(MV0およびMV1)が導出される。たとえば、デコーダが、マージインデックスを受信し、受信されたマージインデックスに基づいてマージリストからMV0およびMV1を取り出す。
ステップs704において、MV0、MV1、およびオフセット(MVoffset)に基づいて、2つの修正された動きベクトル(MV0’およびMV1’)が取得される。MVoffsetは、図8Aに示されている検索ウィンドウ中の点に対応する。図8Aでは、検索ウィンドウ801が、複数の円を備える。(検索ウィンドウ801の中心である)円803が、初期MV位置を表し、検索ウィンドウ801の他の円が、様々なオフセット候補を表す。たとえば、検索ウィンドウ801中の中空円は、MV0の初期位置に対するMVoffset=(-1,1)に対応する。MVoffsetがあるとき、第1の修正された動きベクトル(MV0’)が、MV0+MVoffsetに等しい。また、ミラーリングルールに基づいて、第2の修正された動きベクトル(MV1’)が、MV1-MVoffsetに等しい。言い換えれば、MVoffsetは、参照ピクチャのうちの1つにおける初期MVと改良されたMVとの間のオフセットを表す。VVC(バージョン4)では、改良検索範囲は、初期MVからの2つの整数ルーマサンプルである。
再びステップs704を参照すると、MV0’およびMV1’が取得された後に、MV0’を使用して第1の予測ブロック(P0)が導出され、MV1’を使用して第2の予測ブロック(P1)が導出される。次いで、P0およびP1を使用してサンプル値差が計算される。たとえば、サンプル値差は、2つの予測ブロック間の絶対差の総和(SAD)であり得、ここで、SAD=Σx,y|P0(x,y)-P1(x,y)|であり、P(x,y)は、ブロックPにおける位置(x,y)におけるサンプル値を表す。
MV0’およびMV1’を生成するステップ、MV0’およびMV1’を使用してP0およびP1を導出するステップ、ならびにP0およびP1を使用して差を計算するステップは、検索ウィンドウ中の各オフセット候補について繰り返し実施される。異なるオフセット候補について複数のサンプル値差を取得した後に、複数のサンプル値差のうちの最も小さいサンプル値差が決定される。最も小さいサンプル値差は、最良のオフセット(MVoffsetBest)に対応する。
ステップs706において、MVoffsetBestおよび初期動きベクトルのペア(MV0およびMV1)を使用して、最良の動きベクトルのペア(MV0_bestおよびMV1_best)が取得される。詳細には、第1の最良の動きベクトル(MV0_best)が、MV0+MVoffsetBestに等しくなり得、第2の最良の動きベクトル(MV1_best)が、MV1-MVoffsetBestに等しくなり得る。
ステップs708において、MV0_bestを使用して、第1の最良の予測ブロック(P0_best)が決定され、MV1_bestを使用して、第2の最良の予測ブロック(P1_best)が決定される。P0_bestおよびP1_bestを使用して、最終予測ブロック(Pbi)が決定される。WPとBWAの両方が可能にされないとき、Pbiは、(P0_best+P1_best)>>1であることになる。WPが可能にされたとき、Pbiは、(W0×P0_best+O0+W1×P1_best+O1)>>1であることになる。BWAが可能にされたとき、Pbiは、(W0×P0_best+W1×P1_best)>>3であることになる。
図9は、一実施形態による、DMVRプロセス900を示す。
プロセス900は、ステップs902から始まり得る。ステップs902において、初期動きベクトルMV0およびMV1が導出される。ステップs902は、図7中のステップs702と同様であり、その重複説明は省略される。
MV0およびMV1を取得した後に、ステップs904において、現在ブロックについてBWAまたはWPのいずれかが可能にされるかどうかに関する検査が実施される。BWAが可能にされるか否かは、BWAパラメータ(gbi_idx)を検査することによって決定され得る。たとえば、gbi_idxは2進値(0または1)であり、gbi_idxの値は、BWAが可能にされるか否かを決定する。
WPが可能にされるか否かは、パラメータ(luma_weight_lx_flag)を検査することによって決定され得る。たとえば、luma_weight_lx_flagは2進値(0または1)であり、luma_weight_lx_flagの値は、WPが可能にされるか否かを決定する。
BWAまたはWPのいずれかが可能にされる場合、プロセス900はステップs906に進む。
ステップs906は、BWAまたはWPのいずれかが可能にされると決定したことの結果として、BWAまたはWPを使用して初期動きベクトルを改良することを控えること(たとえば、DMVRプロセスを停止すること)と、MV0およびMV1を直接使用して、予測ブロックを導出することとを含む。
BWAおよびWPのいずれも可能にされない場合、プロセス900はステップs908に進む。
ステップs908は、BWAおよびWPのいずれも可能にされないと決定したことの結果として、MV0およびMV1を改良するプロセスを続けること(すなわち、DMVRプロセスを続けること)を含む。
図10は、一実施形態による、DMVRプロセス1000を示す。この実施形態では、BWAが現在ブロックについて可能にされたとき、DMVRプロセスは、BWAパラメータがDMVR検索中に考慮されるように修正される。詳細には、DMVR検索中に、参照ピクチャリストLx(xは0または1である)についての予測ブロックの生成は、Lxの対応するBWAパラメータを使用して予測ブロックを修正するための後続のプロセスを伴う。
プロセス1000は、ステップs1002から始まり得る。ステップs1002において、初期動きベクトルMV0およびMV1が導出される。ステップs1002は、図7中のステップs702と同様であり、その重複説明は省略される。
MV0およびMV1を取得した後に、ステップs1004において、DMVR検索が実施される。ステップs1004は、所与のMVoffsetについてサンプル値差を決定する際に、第1の初期予測ブロック(P0)および第2の初期予測ブロック(P1)ではなく第1の予測ブロック(P0’)および第2の予測ブロック(P1’)が使用されることを除いて、ステップs704と同様である。詳細には、ステップs1004において、MV0’を使用してP0が取得された後に、第1の予測パラメータ(W0)に基づいてP0を修正することによって、P0’が取得される。たとえば、P0’=W0×P0である。同様に、MV1’を使用してP1が取得された後に、第2の予測パラメータ(W1)に基づいてP1を修正することによって、P1’が取得される。たとえば、P1’=W1×P1である。P0’およびP1’は、対応するオフセットについてのサンプル値差を決定するために使用される。したがって、図7に示されているDMVRプロセスと比較して、予測パラメータ(すなわち、BWAパラメータ)がDMVR検索中に考慮され、これは、DMVR検索の精度を改善する。
ステップs704に関して説明されたように、ステップs1004を実施することは、異なるオフセット候補を使用して取得された複数のサンプル値差のうちの最も小さいサンプル差を生じる最良のオフセット値(MVoffsetBest)を見つけることを生じることになる。
ステップs1006において、MVoffsetBestが取得された後に、最良の動きベクトルのペア(MV0_bestおよびMV1_best)が取得される。ステップs1006は、図7中のステップs706と同様であり、その重複説明は省略される。
ステップs1008において、MV0_bestを使用して、第1の最良の予測ブロック(P0_best)が決定され、MV1_bestを使用して、第2の最良の予測ブロック(P1_best)が決定される。P0_bestおよびP1_bestを使用して、最終予測ブロック(Pbi)が決定される。Pbiは、(W0×P0_best+W1×P1_best)>>3に基づいて決定され得る。たとえば、Pbi=(W0×P0_best+W1×P1_best)>>3である。
図11は、一実施形態による、DMVRプロセス1100を示す。この実施形態では、WPが現在ブロックについて可能にされたとき、DMVRプロセスは、WPパラメータがDMVR検索中に考慮されるように修正される。詳細には、DMVR検索中に、参照ピクチャリストLx(xは0または1である)についての予測ブロックの生成は、Lxの対応するWPパラメータを使用して予測ブロックを修正するための後続のプロセスを伴う。
プロセス1100は、ステップs1102から始まり得る。ステップs1102において、初期動きベクトルMV0およびMV1が導出される。ステップs1102は、図7中のステップs702と同様であり、その重複説明は省略される。
MV0およびMV1を取得した後に、ステップs1104において、DMVR検索が実施される。ステップs1104は、所与のMVoffsetについてサンプル値差を決定する際に、第1の初期予測ブロック(P0)および第2の初期予測ブロック(P1)ではなく第1の予測ブロック(P0’)および第2の予測ブロック(P1’)が使用されることを除いて、ステップs704と同様である。詳細には、ステップs1104において、MV0’を使用してP0が取得された後に、第1の予測パラメータ(W0)および第3の予測パラメータ(O0)に基づいてP0を修正することによって、P0’が取得される。たとえば、P0’=W0×P0+O0である。同様に、MV1’を使用してP1が取得された後に、第2の予測パラメータ(W1)および第4の予測パラメータ(O1)に基づいてP1を修正することによって、P1’が取得される。たとえば、P1’=W1×P1+O1である。
ステップs704に関して説明されたように、ステップs1104を実施することは、異なるオフセット候補を使用して取得された複数のサンプル値差のうちの最も小さいサンプル差を生じる最良のオフセット値(MVoffsetBest)を見つけることを生じることになる。
ステップs1106において、MVoffsetBestが取得された後に、最良の動きベクトルのペア(MV0_BestおよびMV1_Best)が取得される。ステップs1106は、図7中のステップs706と同様であり、その重複説明は省略される。
ステップs1108において、MV0_bestを使用して、第1の最良の予測ブロック(P0_best)が決定され、MV1_bestを使用して、第2の最良の予測ブロック(P1_best)が決定される。P0_bestおよびP1_bestを使用して、最終予測ブロック(Pbi)が決定される。Pbiは、(W0×P0_best+O0+W1×P1_best+O1)>>1に基づいて決定され得る。たとえば、Pbi=(W0×P0_best+O0+W1×P1_best+O1)>>1である。
図12は、一実施形態による、DMVRプロセス1200を示す。DMVRプロセス1200は、図10に示されているDMVRプロセスに対する代替方式である。DMVRプロセス1000では、第1の初期予測ブロック(P0)と第2の初期予測ブロック(P1)の両方が、サンプル値差を計算するために修正および使用される。しかしながら、DMVRプロセス1200では、P0およびP1のうちの1つのみが修正される。これは、DMVRプロセス1200が、DMVRプロセス1000と比較して、低減された複雑さを達成することを可能にする。
プロセス1200は、ステップs1202から始まり得る。ステップs1202において、初期動きベクトルMV0およびMV1が導出される。ステップs1202は、図7中のステップs702と同様であり、その重複説明は省略される。
MV0およびMV1を取得した後に、ステップs1204において、DMVR検索が実施される。ステップs1204は、所与のMVoffsetについてサンプル値差を決定する際に、第1の初期予測ブロック(P0)ではなく第1の予測ブロック(P0’)が使用されることを除いて、ステップs704と同様である。詳細には、ステップs1204において、MV0’を使用してP0が取得された後に、第1の予測パラメータ(W0)および第2の予測パラメータ(W1)に基づいてP0を修正することによって、P0’が取得される。たとえば、P0’=(W0/W1)×P0である。第2の初期予測ブロック(P1)は、サンプル値差を計算する際に修正なしに使用される。
ステップs704に関して説明されたように、ステップs1204を実施することは、異なるオフセット値を使用して取得された複数のサンプル値差のうちの最も小さいサンプル差を生じる最良のオフセット値(MVoffsetBest)を見つけることを生じることになる。
ステップs1206において、MVoffsetBestが取得された後に、最良の動きベクトルのペア(MV0_bestおよびMV1_best)が取得される。ステップs1206は、図7中のステップs706と同様であり、その重複説明は省略される。
ステップs1208において、MV0_bestを使用して、第1の最良の予測ブロック(P0_best)が決定され、MV1_bestを使用して、第2の最良の予測ブロック(P1_best)が決定される。P0_bestおよびP1_bestを使用して、最終予測ブロック(Pbi)が決定される。詳細には、Pbiは、(W0×P0_best+W1×P1_best)>>3に基づいて決定され得る。たとえば、Pbi=(W0×P0_best+W1×P1_best)>>3である。
いくつかの実施形態では、第1の初期予測ブロック(P0)ではなく第2の初期予測ブロック(P1)がDMVR検索中に修正され得る。たとえば、DMVR検索中に、P1は、P1’=(W1/W0)×P1になるように修正され得る。
図13は、一実施形態による、DMVRプロセス1300を示す。DMVRプロセス1300は、図11に示されているDMVRプロセスに対する代替方式である。DMVRプロセス1100では、第1の初期予測ブロック(P0)と第2の初期予測ブロック(P1)の両方が、サンプル値差を計算するために修正および使用される。しかしながら、DMVRプロセス1300では、P0およびP1のうちの1つのみが修正される。これは、DMVRプロセス1300が、DMVRプロセス1100と比較して、低減された複雑さを達成することを可能にする。
プロセス1300は、ステップs1302から始まり得る。ステップs1302において、初期動きベクトルMV0およびMV1が導出される。ステップs1302は、図7中のステップs702と同様であり、その重複説明は省略される。
MV0およびMV1を取得した後に、ステップs1304において、DMVR検索が実施される。ステップs1304は、所与のMVoffsetについてサンプル値差を決定する際に、第1の初期予測ブロック(P0)ではなく第1の予測ブロック(P0’)が使用されることを除いて、ステップs704と同様である。詳細には、ステップs1304において、MV0’を使用してP0が取得された後に、第1の予測パラメータ(W0)、第2の予測パラメータ(W1)、第3の予測パラメータ(O0)、および第4の予測パラメータ(O1)に基づいてP0を修正することによって、P0’が取得される。たとえば、P0’=(W0/W1)×P0+((O0-O1)/W1)である。第2の初期予測ブロック(P1)は、サンプル値差を計算する際に修正なしに使用される。
ステップs704に関して説明されたように、ステップs1304を実施することは、異なるオフセット値を使用して取得された複数のサンプル値差のうちの最も小さいサンプル差を生じる最良のオフセット値(MVoffsetBest)を見つけることを生じることになる。
ステップs1306において、MVoffsetBestが取得された後に、最良の動きベクトルのペア(MV0_bestおよびMV1_best)が取得される。ステップs1306は、図7中のステップs706と同様であり、その重複説明は省略される。
ステップs1308において、MV0_bestを使用して、第1の最良の予測ブロック(P0_best)が決定され、MV1_bestを使用して、第2の最良の予測ブロック(P1_best)が決定される。P0_bestおよびP1_bestを使用して、最終予測ブロック(Pbi)が決定される。Pbiは、(W0×P0_best+O0+W1×P1_best+O1)>>1に基づいて決定され得る。たとえば、Pbi=(W0×P0_best+O0+W1×P1_best+O1)>>1である。
いくつかの実施形態では、第1の初期予測ブロック(P0)ではなく第2の初期予測ブロック(P1)がDMVR検索中に修正され得る。たとえば、DMVR検索中に、P1は、(W1/W0)×P1+((O1-O0)/W0)としてセットされ得る。
図14は、エンコーダ402またはデコーダ404を実装するための装置1400のブロック図である。図14に示されているように、装置1400は、1つまたは複数のプロセッサ(P)1455(たとえば、汎用マイクロプロセッサ、および/または、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)など、1つまたは複数の他のプロセッサなど)を含み得る処理回路(PC)1402であって、そのプロセッサが、単一のハウジングにおいてまたは単一のデータセンタにおいてコロケートされ得るかあるいは地理的に分散され得る、処理回路(PC)1402と、ネットワークインターフェース1445であって、装置1400が、ネットワークインターフェース1445が接続されるネットワーク410(たとえば、インターネットプロトコル(IP)ネットワーク)に接続された他のノードにデータを送信し、他のノードからデータを受信することを可能にするための送信機(Tx)1448および受信機(Rx)1447を備える、ネットワークインターフェース1445と、1つまたは複数の不揮発性記憶デバイスおよび/または1つまたは複数の揮発性記憶デバイスを含み得る、ローカル記憶ユニット(別名、「データストレージシステム」)1408とを備え得る。PC1402がプログラマブルプロセッサを含む実施形態では、コンピュータプログラム製品(CPP)1441が提供され得る。CPP1441はコンピュータ可読媒体(CRM)1442を含み、CRM1442は、コンピュータ可読命令(CRI)1444を備えるコンピュータプログラム(CP)1443を記憶する。CRM1442は、磁気媒体(たとえば、ハードディスク)、光媒体、メモリデバイス(たとえば、ランダムアクセスメモリ、フラッシュメモリ)など、非一時的コンピュータ可読媒体であり得る。いくつかの実施形態では、コンピュータプログラム1443のCRI1444は、PC1402によって実行されたとき、CRIが、装置1400に、本明細書で説明されるステップ(たとえば、フローチャートを参照しながら本明細書で説明されるステップ)を実施させるように設定される。他の実施形態では、装置1400は、コードの必要なしに本明細書で説明されるステップを実施するように設定され得る。すなわち、たとえば、1402は、単に1つまたは複数のASICからなり得る。したがって、本明細書で説明される実施形態の特徴は、ハードウェアおよび/またはソフトウェアで実装され得る。
図15は、予測ブロックを決定するためのプロセス1500を示すフローチャートである。プロセス1500は、ステップs1502において始まり得る。
ステップs1502は、初期動きベクトルの第1のペアを取得することを含む。
ステップs1504は、第1の予測パラメータを取得することを含む。
ステップs1506は、第2の予測パラメータを取得することを含む。
ステップs1508は、初期動きベクトルの第1のペアと第1の動きベクトルオフセットとを使用して、修正された動きベクトルの第1のペアを生成することであって、修正された動きベクトルの第1のペアが、第1の修正された動きベクトルと第2の修正された動きベクトルとを備える、修正された動きベクトルの第1のペアを生成することを含む。
ステップs1510は、第1の修正された動きベクトルを使用して第1の予測ブロックを取得することを含む。
ステップs1512は、第2の修正された動きベクトルを使用して第2の予測ブロックを取得することを含む。
ステップs1514は、第1の予測ブロックと第2の予測ブロックとを使用して第1の差を計算することを含む。
ステップs1516は、初期動きベクトルの第1のペアと第2の動きベクトルオフセットとを使用して、修正された動きベクトルの第2のペアを生成することであって、修正された動きベクトルの第2のペアが、第3の修正された動きベクトルと第4の修正された動きベクトルとを備える、修正された動きベクトルの第2のペアを生成することを含む。
ステップs1518は、第3の修正された動きベクトルを使用して第3の予測ブロックを取得することを含む。
ステップs1520は、第4の修正された動きベクトルを使用して第4の予測(P4)ブロックを取得することを含む。
ステップs1522は、第3の予測ブロックと第4の予測ブロックとを使用して第2の差を計算することを含む。
ステップs1524は、第1の差と第2の差とを使用して最良の動きベクトルオフセットを決定することを含む。
ステップs1526は、決定された最良の動きベクトルオフセットを使用して予測ブロックを決定することを含む。
いくつかの実施形態では、プロセス1500は、第1の初期動きベクトルと最良の動きベクトルオフセットとを使用して第1の最良の動きベクトルを決定することと、第2の初期動きベクトルと最良の動きベクトルオフセットとを使用して第2の最良の動きベクトルを決定することと、第1の最良の動きベクトルを使用して第1の最良の予測ブロックを生成することと、第2の最良の動きベクトルを使用して第2の最良の予測ブロックを生成することと、第1の最良の予測ブロックと第1の予測パラメータとの乗算、および第2の最良の予測ブロックと第2の予測パラメータとの乗算に基づいて、予測ブロックを決定することとをさらに含む。
いくつかの実施形態では、第2の予測ブロックを取得することは、第2の修正された動きベクトルを使用して初期第2の予測ブロックを導出することと、初期第2の予測ブロックと少なくとも第2の予測パラメータとを使用して第2の予測ブロックを導出することとを含み、第4の予測ブロックを取得することは、第4の修正された動きベクトルを使用して初期第4の予測ブロックを導出することと、初期第4の予測ブロックと少なくとも第2の予測パラメータとを使用して第4の予測ブロックを導出することとを含む。
いくつかの実施形態では、第1の予測ブロックは、初期第1の予測ブロックと第1の予測パラメータとの乗算に基づいて導出され、第2の予測ブロックは、初期第2の予測ブロックと第2の予測パラメータとの乗算に基づいて導出される。
いくつかの実施形態では、第1の予測ブロックは、(W1/W2)*Pi1に基づいて導出され、ここで、W1は、第1の予測パラメータであり、W2は、第2の予測パラメータであり、Pi1は、初期第1の予測ブロックである。
いくつかの実施形態では、プロセス1500は、第3の予測パラメータを取得することと、第4の予測パラメータを取得することとをさらに含む。
いくつかの実施形態では、予測ブロックは、(W1×P1_best)+O3+(W2×P2_best)+O4に基づいて決定され、ここで、W1は、第1の予測パラメータであり、P1_bestは、第1の最良の予測ブロックであり、O3は、第3の予測パラメータであり、W2は、第2の予測パラメータであり、P2_bestは、第2の最良の予測ブロックであり、O4は、第4の予測パラメータである。
いくつかの実施形態では、第1の予測ブロックは、さらに、少なくとも第3の予測パラメータに基づいて導出される。
いくつかの実施形態では、第1の予測ブロックは、さらに、第3の予測パラメータと第4の予測パラメータとの間の差に基づいて導出される。
いくつかの実施形態では、第1の予測パラメータは、重み付け予測のためのパラメータのうちの1つ、または一般化された重み付け平均化を伴う双予測のためのパラメータのうちの1つである。
図16は、予測ブロックを決定するためのプロセス1600を示すフローチャートである。プロセス1600は、ステップs1602において始まり得る。
ステップs1602は、初期動きベクトルのペアを取得することを含む。
ステップs1604は、初期動きベクトルを改良すべきか否かを決定することであって、初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式が可能にされるか否かを決定することを含む、初期動きベクトルを改良すべきか否かを決定することを含む。
ステップs1606は、初期動きベクトルを改良することを決定したことの結果として初期動きベクトルを改良することを含み、予測ブロックは、改良された動きベクトルを使用して生成される。ステップs1608は、初期動きベクトルを改良しないことを決定したことの結果として初期動きベクトルを改良することを控えることを含み、予測ブロックは、初期動きベクトルを使用して生成される。
いくつかの実施形態では、初期動きベクトルを改良すべきか否かを決定することは、第2の予測方式が可能にされるか否かを決定することをさらに含む。いくつかの実施形態では、第1の予測方式は重み付け予測であり、第2の予測方式は、一般化された重み付け平均化を伴う双予測である。いくつかの実施形態では、初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式または第2の予測方式のいずれかが可能にされると決定したことの結果として、初期動きベクトルを改良することを控えることを決定すること、あるいは第1の予測方式も第2の予測方式も可能にされないと決定したことの結果として、初期動きベクトルを改良することを決定することをさらに含む。
様々な実施形態の概要
A1.ビデオストリームの現在ピクチャにおける現在ブロックを復号または符号化するための予測ブロック(Pbi)を決定するための方法(1500)であって、方法は、初期動きベクトルの第1のペアを取得すること(s1502)であって、初期動きベクトルの第1のペアが、第1の初期動きベクトル(MV1)と第2の初期動きベクトル(MV2)とを備える、初期動きベクトルの第1のペアを取得すること(s1502)と、第1の予測パラメータ(W1)を取得すること(s1504)と、第2の予測パラメータ(W2)を取得すること(s1506)と、初期動きベクトルの第1のペアと第1の動きベクトルオフセット(MVoffset1)とを使用して、修正された動きベクトルの第1のペアを生成すること(s1508)であって、修正された動きベクトルの第1のペアが、第1の修正された動きベクトル(MV1’)と第2の修正された動きベクトル(MV2’)とを備える、修正された動きベクトルの第1のペアを生成すること(s1508)と、第1の修正された動きベクトルを使用して第1の予測ブロック(P1)を取得すること(s1510)と、第2の修正された動きベクトルを使用して第2の予測ブロック(P2)を取得すること(s1512)と、第1の予測ブロックと第2の予測ブロックとを使用して第1の差を計算すること(s1514)と、初期動きベクトルの第1のペアと第2の動きベクトルオフセット(MVoffset2)とを使用して、修正された動きベクトルの第2のペアを生成すること(s1516)であって、修正された動きベクトルの第2のペアが、第3の修正された動きベクトル(MV3’)と第4の修正された動きベクトル(MV4’)とを備える、修正された動きベクトルの第2のペアを生成すること(s1516)と、第3の修正された動きベクトルを使用して第3の予測ブロック(P3)を取得すること(s1518)と、第4の修正された動きベクトルを使用して第4の予測(P4)ブロックを取得すること(s1520)と、第3の予測ブロックと第4の予測ブロックとを使用して第2の差を計算すること(s1522)と、第1の差と第2の差とを使用して最良の動きベクトルオフセットを決定すること(s1524)と、決定された最良の動きベクトルオフセットを使用して予測ブロック(Pbi)を決定すること(S1526)とを含み、第1の予測ブロック(P1)を取得することが、第1の修正された動きベクトルを使用して初期第1の予測ブロック(Pi1)を導出することと、Pi1と少なくとも第1の予測パラメータ(W1)とを使用してP1を導出することとを含み、第3の予測ブロック(P3)を取得することが、第3の修正された動きベクトルを使用して初期第3の予測ブロック(Pi3)を導出することと、Pi3と少なくとも第1の予測パラメータ(W1)とを使用してP3を導出することとを含む、方法(1500)。
A2.第1の初期動きベクトル(MV1)と最良の動きベクトルオフセット(MVoffsetBest)とを使用して第1の最良の動きベクトル(MV1_best)を決定することと、第2の初期動きベクトル(MV2)と最良の動きベクトルオフセット(MVoffsetBest)とを使用して第2の最良の動きベクトル(MV2_best)を決定することと、第1の最良の動きベクトル(MV1_best)を使用して第1の最良の予測ブロック(P1_best)を生成することと、第2の最良の動きベクトル(MV2_best)を使用して第2の最良の予測ブロック(P2_best)を生成することと、第1の最良の予測ブロック(P1_best)と第1の予測パラメータ(W1)との乗算、および第2の最良の予測ブロック(P2_best)と第2の予測パラメータ(W2)との乗算に基づいて、予測ブロック(Pbi)を決定することとをさらに含む、実施形態A1に記載の方法。
A3.第2の予測ブロック(P2)を取得することが、第2の修正された動きベクトルを使用して初期第2の予測ブロック(Pi2)を導出することと、初期第2の予測ブロック(P2)と少なくとも第2の予測パラメータ(W2)とを使用して第2の予測ブロック(P2)を導出することとを含み、第4の予測ブロック(P4)を取得することが、第4の修正された動きベクトルを使用して初期第4の予測ブロック(Pi4)を導出することと、初期第4の予測ブロック(Pi4)と少なくとも第2の予測パラメータ(W2)とを使用して第4の予測ブロック(P4)を導出することとを含む、実施形態A1~A2に記載の方法。
A4.第1の予測ブロック(P1)が、初期第1の予測ブロック(Pi1)と第1の予測パラメータ(W1)との乗算に基づいて導出され、第2の予測ブロック(P2)が、初期第2の予測ブロック(Pi2)と第2の予測パラメータ(W2)との乗算に基づいて導出される、実施形態A3に記載の方法。
A5.第1の予測ブロック(P1)が、(W1/W2)*Pi1に基づいて導出され、ここで、W1が、第1の予測パラメータであり、W2が、第2の予測パラメータであり、Pi1が、初期第1の予測ブロック(Pi1)である、実施形態A1~A2に記載の方法。
A6.第3の予測パラメータ(O3)を取得することと、第4の予測パラメータ(O4)を取得することとをさらに含む、実施形態A1~A5に記載の方法。
A7.予測ブロック(Pbi)が、(W1×P1_best)+O3+(W2×P2_best)+O4に基づいて決定され、ここで、W1が、第1の予測パラメータであり、P1_bestが、第1の最良の予測ブロックであり、O3が、第3の予測パラメータであり、W2が、第2の予測パラメータであり、P2_bestが、第2の最良の予測ブロックであり、O4が、第4の予測パラメータである、実施形態A6に記載の方法。
A8.第1の予測ブロック(P1)が、さらに、少なくとも第3の予測パラメータ(O3)に基づいて導出される、実施形態A7に記載の方法。
A9.第1の予測ブロック(P1)が、さらに、第3の予測パラメータ(O3)と第4の予測パラメータ(O4)との間の差に基づいて導出される、実施形態A7に記載の方法。
A10.第1の予測パラメータ(W1)が、重み付け予測のためのパラメータのうちの1つ、または一般化された重み付け平均化を伴う双予測(BWA)のためのパラメータのうちの1つである、実施形態A1~A9に記載の方法。
B1.ビデオストリームの現在ピクチャにおける現在ブロックを復号または符号化するための予測ブロック(Pbi)を決定するための方法(1600)であって、方法は、初期動きベクトルのペアを取得すること(s1602)であって、初期動きベクトルのペアが、第1の初期動きベクトル(MV1)と第2の初期動きベクトル(MV2)とを備える、初期動きベクトルのペアを取得すること(s1602)と、初期動きベクトルを改良すべきか否かを決定すること(s1604)と、初期動きベクトルを改良することを決定したことの結果として初期動きベクトルを改良すること(s1606)とを含み、初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式および/または第2の予測方式が可能にされるかどうかを決定することと、第1の予測方式または第2の予測方式のいずれかが可能にされると決定したことの結果として、初期動きベクトルを改良することを控えることを決定すること、あるいは第1の予測方式も第2の予測方式も可能にされないと決定したことの結果として、初期動きベクトルを改良することを決定することとを含む、方法(1600)。
B2.第1の予測方式が重み付け予測(WP)であり、第2の予測方式が、一般化された重み付け平均化を伴う双予測(BWA)である、実施形態B1に記載の方法。
C1.エンコーダまたはデコーダ装置(1400)であって、装置(1400)が、ビデオストリームの現在ピクチャにおける現在ブロックを符号化または復号するための予測ブロック(Pbi)を決定するように適応され、装置は、装置が、初期動きベクトルの第1のペアを取得すること(s1502)であって、初期動きベクトルの第1のペアが、第1の初期動きベクトル(MV1)と第2の初期動きベクトル(MV2)とを備える、初期動きベクトルの第1のペアを取得すること(s1502)と、第1の予測パラメータ(W1)を取得すること(s1504)と、第2の予測パラメータ(W2)を取得すること(s1506)と、初期動きベクトルの第1のペアと第1の動きベクトルオフセット(MVoffset1)とを使用して、修正された動きベクトルの第1のペアを生成すること(s1508)であって、修正された動きベクトルの第1のペアが、第1の修正された動きベクトル(MV1’)と第2の修正された動きベクトル(MV2’)とを備える、修正された動きベクトルの第1のペアを生成すること(s1508)と、第1の修正された動きベクトルを使用して第1の予測ブロック(P1)を取得すること(s1510)と、第2の修正された動きベクトルを使用して第2の予測ブロック(P2)を取得すること(s1512)と、第1の予測ブロックと第2の予測ブロックとを使用して第1の差を計算すること(s1514)と、初期動きベクトルの第1のペアと第2の動きベクトルオフセット(MVoffset2)とを使用して、修正された動きベクトルの第2のペアを生成すること(s1516)であって、修正された動きベクトルの第2のペアが、第3の修正された動きベクトル(MV3’)と第4の修正された動きベクトル(MV4’)とを備える、修正された動きベクトルの第2のペアを生成すること(s1516)と、第3の修正された動きベクトルを使用して第3の予測ブロック(P3)を取得すること(s1518)と、第4の修正された動きベクトルを使用して第4の予測(P4)ブロックを取得すること(s1520)と、第3の予測ブロックと第4の予測ブロックとを使用して第2の差を計算すること(s1522)と、第1の差と第2の差とを使用して最良の動きベクトルオフセットを決定すること(s1524)と、決定された最良の動きベクトルオフセットを使用して予測ブロック(Pbi)を決定すること(S1526)とを含むプロセスを実施することによって予測ブロックを決定するように適応され、第1の予測ブロック(P1)を取得することが、第1の修正された動きベクトルを使用して初期第1の予測ブロック(Pi1)を導出することと、Pi1と少なくとも第1の予測パラメータ(W1)とを使用してP1を導出することとを含み、第3の予測ブロック(P3)を取得することが、第3の修正された動きベクトルを使用して初期第3の予測ブロック(Pi3)を導出することと、Pi3と少なくとも第1の予測パラメータ(W1)とを使用してP3を導出することとを含む、エンコーダまたはデコーダ装置(1400)。
C2.装置が、実施形態A2~A10のいずれか1つに記載のステップを実施するようにさらに適応された、実施形態C1に記載の装置。
D1.エンコーダまたはデコーダ装置(1400)であって、装置(1400)が、ビデオストリームの現在ピクチャにおける現在ブロックを符号化または復号するための予測ブロック(Pbi)を決定するように適応され、装置は、装置が、初期動きベクトルのペアを取得すること(s1602)であって、初期動きベクトルのペアが、第1の初期動きベクトル(MV1)と第2の初期動きベクトル(MV2)とを備える、初期動きベクトルのペアを取得すること(s1602)と、初期動きベクトルを改良すべきか否かを決定すること(s1604)と、初期動きベクトルを改良することを決定したことの結果として初期動きベクトルを改良すること(s1606)とを含むプロセスを実施することによって予測ブロックを決定するように適応され、初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式および/または第2の予測方式が可能にされるかどうかを決定することと、第1の予測方式または第2の予測方式のいずれかが可能にされると決定したことの結果として、初期動きベクトルを改良することを控えることを決定すること、あるいは第1の予測方式も第2の予測方式も可能にされないと決定したことの結果として、初期動きベクトルを改良することを決定することとを含む、エンコーダまたはデコーダ装置(1400)。
D2.第1の予測方式が重み付け予測(WP)であり、第2の予測方式が、一般化された重み付け平均化を伴う双予測(BWA)である、実施形態D1に記載の方法。
E1.少なくとも1つのプロセッサ上で実行されたとき、少なくとも1つのプロセッサに、実施形態A1~A10またはB1~B2のいずれか1つに記載の方法を行わせる命令を備える、コンピュータプログラム。
E2.実施形態E1に記載のコンピュータプログラムを含んでいるキャリアであって、キャリアが、電子信号、光信号、無線信号、またはコンピュータ可読記憶媒体のうちの1つである、キャリア。
様々な実施形態が(3GPP規格を修正するための提案を含んでいる添付の書類を含めて)本明細書で説明されたが、それらの実施形態は、限定ではなく、例として提示されたにすぎないことを理解されたい。したがって、本開示の広さおよび範囲は、上記で説明された例示的な実施形態のいずれによっても限定されるべきでない。その上、本明細書で別段に指示されていない限り、またはコンテキストによって明確に否定されていない限り、上記で説明されたエレメントのそれらのすべての考えられる変形形態における任意の組合せが、本開示によって包含される。
さらに、上記で説明され、図面に示されたプロセスは、ステップのシーケンスとして示されたが、これは、説明のためにのみ行われた。したがって、いくつかのステップが追加され得、いくつかのステップが省略され得、ステップの順序が並べ替えられ得、いくつかのステップが並行して実施され得ることが企図される。

Claims (6)

  1. ビデオストリームの現在ピクチャにおける現在ブロックを復号または符号化するための予測ブロックを決定するための方法(900、1600)であって、前記方法は、
    初期動きベクトルのペアを取得すること(s902、s1602)であって、初期動きベクトルの前記ペアが、第1の初期動きベクトルと第2の初期動きベクトルとを備える、初期動きベクトルのペアを取得すること(s902、s1602)と、
    前記初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)であって、前記初期動きベクトルを改良すべきか否かを決定することは、第1の予測方式が可能にされるか否かを決定することと、第2の予測方式が可能にされるか否かを決定することとを含み、前記第1の予測方式が重み付け予測であり、前記第2の予測方式が、一般化された重み付け平均化を伴う双予測であり、前記初期動きベクトルを改良すべきか否かを決定することは、
    前記第1の予測方式または前記第2の予測方式のいずれかが可能にされると決定したことの結果として、前記初期動きベクトルを改良することを控えることを決定すること、あるいは
    前記第1の予測方式も前記第2の予測方式も可能にされないと決定したことの結果として、前記初期動きベクトルを改良することを決定すること
    をさらに含む、前記初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)と、
    前記初期動きベクトルを改良することを決定したことの結果として前記初期動きベクトルを改良すること(s908、s1606)、または前記初期動きベクトルを改良しないことを決定したことの結果として前記初期動きベクトルを改良することを控えること(s906、s1608)と
    を含む、方法(900、1600)。
  2. 前記初期動きベクトルを改良することが決定された場合、前記改良された動きベクトルを使用して前記予測ブロックを生成すること、または
    前記初期動きベクトルを改良しないことが決定された場合、前記初期動きベクトルを使用して前記予測ブロックを生成すること
    をさらに含む、請求項1に記載の方法。
  3. 処理回路(1402)によって実行されたとき、前記処理回路(1402)に、請求項1または2に記載の方法を行わせる命令(1444)を備える、コンピュータプログラム(1443)。
  4. 請求項3に記載のコンピュータプログラムを含んでいるコンピュータ可読記憶媒体(1442)。
  5. エンコーダまたはデコーダ装置(1400)であって、前記エンコーダまたはデコーダ装置(1400)は、
    初期動きベクトルのペアを取得すること(s902、s1602)であって、初期動きベクトルの前記ペアが、第1の初期動きベクトルと第2の初期動きベクトルとを備える、初期動きベクトルのペアを取得すること(s902、s1602)と、
    前記初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)であって、前記装置は、第1の予測方式が可能にされるか否かを決定することと、第2の予測方式が可能にされるか否かを決定することとを含むプロセスを実施することによって、前記初期動きベクトルを改良すべきか否かを決定するように適応され、前記第1の予測方式が重み付け予測であり、前記第2の予測方式が、一般化された重み付け平均化を伴う双予測であり、前記プロセスは、
    前記第1の予測方式または前記第2の予測方式のいずれかが可能にされると決定したことの結果として、前記初期動きベクトルを改良することを控えることを決定すること、あるいは
    前記第1の予測方式も前記第2の予測方式も可能にされないと決定したことの結果として、前記初期動きベクトルを改良することを決定すること
    をさらに含む、前記初期動きベクトルを改良すべきか否かを決定すること(s904、s1604)と、
    前記初期動きベクトルを改良することを決定したことの結果として前記初期動きベクトルを改良すること(s908、s1606)と、
    前記初期動きベクトルを改良しないことを決定したことの結果として前記初期動きベクトルを改良することを控えること(s906、s1608)と
    を行うように適応された、エンコーダまたはデコーダ装置(1400)。
  6. 前記エンコーダまたはデコーダ装置は、
    前記初期動きベクトルを改良することが決定された場合、前記改良された動きベクトルを使用して予測ブロックを生成すること、または
    前記初期動きベクトルを改良しないことが決定された場合、前記初期動きベクトルを使用して予測ブロックを生成すること
    を行うようにさらに適応された、請求項5に記載のエンコーダまたはデコーダ装置。
JP2021553156A 2019-03-11 2020-03-05 動き改良および重み付け予測 Active JP7261896B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962816594P 2019-03-11 2019-03-11
US62/816,594 2019-03-11
PCT/SE2020/050248 WO2020185147A1 (en) 2019-03-11 2020-03-05 Motion refinement and weighted prediction

Publications (2)

Publication Number Publication Date
JP2022524374A JP2022524374A (ja) 2022-05-02
JP7261896B2 true JP7261896B2 (ja) 2023-04-20

Family

ID=72426837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553156A Active JP7261896B2 (ja) 2019-03-11 2020-03-05 動き改良および重み付け予測

Country Status (7)

Country Link
US (1) US20220150532A1 (ja)
EP (1) EP3939310A4 (ja)
JP (1) JP7261896B2 (ja)
CN (1) CN113574893B (ja)
CA (1) CA3132602A1 (ja)
MX (1) MX2021010876A (ja)
WO (1) WO2020185147A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180184117A1 (en) 2016-12-22 2018-06-28 Mediatek Inc. Method and Apparatus of Adaptive Bi-Prediction for Video Coding
WO2018121506A1 (en) 2016-12-27 2018-07-05 Mediatek Inc. Method and apparatus of bilateral template mv refinement for video coding
US20180278950A1 (en) 2017-03-22 2018-09-27 Qualcomm Incorporated Decoder-side motion vector derivation
WO2020146704A1 (en) 2019-01-11 2020-07-16 Tencent America Llc. Method and apparatus for video coding

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8054882B2 (en) * 2005-05-13 2011-11-08 Streaming Networks (Pvt.) Ltd. Method and system for providing bi-directionally predicted video coding
US20110002387A1 (en) * 2009-07-03 2011-01-06 Yi-Jen Chiu Techniques for motion estimation
US8462852B2 (en) * 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
WO2012114712A1 (ja) * 2011-02-25 2012-08-30 パナソニック株式会社 画像符号化方法および画像復号化方法
KR20130050405A (ko) * 2011-11-07 2013-05-16 오수미 인터 모드에서의 시간 후보자 결정방법
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
EP3264768A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with adaptive motion information refinement
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
WO2018172609A2 (en) * 2017-03-21 2018-09-27 Nokia Technologies Oy Motion compensation in video encoding and decoding
US10904565B2 (en) * 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
WO2019001741A1 (en) * 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
US10873748B2 (en) * 2018-05-12 2020-12-22 Qualcomm Incorporated Storage of high precision motion vectors in video coding
EP3788779A4 (en) * 2018-10-23 2022-03-02 Tencent America LLC VIDEO CODING METHOD AND APPARATUS
US10855992B2 (en) * 2018-12-20 2020-12-01 Alibaba Group Holding Limited On block level bi-prediction with weighted averaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180184117A1 (en) 2016-12-22 2018-06-28 Mediatek Inc. Method and Apparatus of Adaptive Bi-Prediction for Video Coding
WO2018121506A1 (en) 2016-12-27 2018-07-05 Mediatek Inc. Method and apparatus of bilateral template mv refinement for video coding
US20180278950A1 (en) 2017-03-22 2018-09-27 Qualcomm Incorporated Decoder-side motion vector derivation
WO2020146704A1 (en) 2019-01-11 2020-07-16 Tencent America Llc. Method and apparatus for video coding

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Chun-Chi Chen, Xiaoyu Xiu, Yuwen He, and Yan Ye,Generalized bi-prediction for inter coding,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-C0047,3rd Meeting: Geneva, CH,2016年05月,pp.1-4
Chun-Chia Chen, et al.,CE4-related: Reduction of interactions between bi-prediction coding tools,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0086-v1,14th Meeting: Geneva, CH,2019年03月,pp.1-5
Ruoyang Yu, and Du Liu,Non-CE9: On DMVR and GBI,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-N0153,14th Meeting: Geneva, CH,2019年03月,pp.1-3
Xu Chen, Jicheng An, and Jianhua Zheng,Decoder-Side Motion Vector Refinement Based on Bilateral Template Matching,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-D0029,4th Meeting: Chengdu, CN,2016年10月,pp.1-4

Also Published As

Publication number Publication date
CN113574893A (zh) 2021-10-29
JP2022524374A (ja) 2022-05-02
US20220150532A1 (en) 2022-05-12
WO2020185147A1 (en) 2020-09-17
EP3939310A4 (en) 2022-07-27
CA3132602A1 (en) 2020-09-17
CN113574893B (zh) 2024-04-16
MX2021010876A (es) 2021-10-22
WO2020185147A9 (en) 2021-01-21
EP3939310A1 (en) 2022-01-19

Similar Documents

Publication Publication Date Title
JP6843821B2 (ja) ビデオコーディングのための適応的な動きベクトル分解シグナリング
CN111602399B (zh) 改进的解码器侧运动矢量推导
US10924757B2 (en) Apparatus and method for encoding or decoding video
JP2023164833A (ja) インター-イントラ複合予測の簡単化
US20180249156A1 (en) Method for processing image based on joint inter-intra prediction mode and apparatus therefor
US11212532B2 (en) Method and apparatus for encoding and decoding motion information
CN115190317A (zh) 解码器侧运动矢量推导
CN111818343A (zh) 将当前图片用作视频译码的参考
KR102617235B1 (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020003276A1 (en) Emm mode signaling
WO2021047544A1 (en) Intra block copy coding and decoding
US20220124365A1 (en) Method and device for encoding and decoding video using inter-prediction
JP2022544667A (ja) 映像処理における代替の補間フィルタの選択的使用
US11985328B2 (en) Bidirectional prediction method and video decoding apparatus
KR20150065845A (ko) 영상 부호화 방법, 영상 부호화 장치 및 영상 부호화 프로그램
WO2020243709A1 (en) Methods and apparatus for signaling symmetrical motion vector difference mode
CN113424535A (zh) 基于运动矢量预测表的历史更新
JP7261896B2 (ja) 動き改良および重み付け予測
EP3994881A1 (en) Motion compensation using combined inter and intra prediction
WO2023051652A1 (en) Method, apparatus, and medium for video processing
JP2024069472A (ja) 変換された片予測候補の利用
EP4364419A1 (en) Selective subblock-based motion refinement
WO2022026480A1 (en) Weighted ac prediction for video coding
EP4364420A1 (en) Overlapped decoder side motion refinement
CN114402618A (zh) 用于视频编解码中的解码器端运动矢量细化的方法和装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20211104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7261896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150