JP7263529B2 - デコーダ側精緻化ツールのサイズ選択アプリケーション - Google Patents

デコーダ側精緻化ツールのサイズ選択アプリケーション Download PDF

Info

Publication number
JP7263529B2
JP7263529B2 JP2021547084A JP2021547084A JP7263529B2 JP 7263529 B2 JP7263529 B2 JP 7263529B2 JP 2021547084 A JP2021547084 A JP 2021547084A JP 2021547084 A JP2021547084 A JP 2021547084A JP 7263529 B2 JP7263529 B2 JP 7263529B2
Authority
JP
Japan
Prior art keywords
scheme
block
video block
current video
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021547084A
Other languages
English (en)
Other versions
JP2022519883A (ja
Inventor
リュウ,ホンビン
ザン,リー
ザン,カイ
シュイ,ジィジォン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022519883A publication Critical patent/JP2022519883A/ja
Priority to JP2023063135A priority Critical patent/JP2023076744A/ja
Application granted granted Critical
Publication of JP7263529B2 publication Critical patent/JP7263529B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Description

[関連出願]
願は、国際特許出願番号第PCT/CN2019/075068号、2019年2月14日出願、及び国際特許出願番号第PCT/CN2019/082585号、2019年4月13日出願、の優先権及び利益を請求する国際特許出願番号第PCT/CN2020/075235号、2020年2月14日出願の国内移行段階である。前述の出願の全ての開示は、参照により本願の開示の部分として組み込まれる。
[技術分野]
本願明細書は、ビデオ及び画像コーディング及び復号に関する。
デジタルビデオは、インターネット及び他のデジタル通信ネットワーク上で最大の帯域幅使用を占める。ビデオを受信及び表示可能な接続されたユーザ装置の数が増加するにつれ、デジタルビデオ使用のための帯域幅要求は増大し続けることが予想される。
本願明細書は、1つの例示的な態様では、最終的な動きベクトル表現又は一般化された双予測に関連する現在のコーディングツールのコーディング効率を向上するビデオコーディングツールを開示する。
第1の例示的なビデオ処理方法は、
少なくとも重みパラメータに基づきデコーダ側動きベクトル導出(DMVD)方式を実施することにより、ビデオの現在ビデオブロックの精緻化動き情報を取得するステップであって、前記重みパラメータは、前記現在ビデオブロックの最終予測ブロックの生成処理の中で予測ブロックに適用される、ステップと、
少なくとも前記精緻化動き情報及び前記重みパラメータを用いて、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換を実行するステップと、
を含む。
第2の例示的なビデオ処理方法は、現在ビデオブロックのためのコーディングツールの使用のために、デコーダ側動きベクトル導出(DMVD)方式の使用が、ビデオの前記現在ビデオブロックと前記ビデオのコーディング表現との間の変換について無効であると決定するステップと、
前記決定に基づき、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の前記変換を実行するステップであって、前記コーディングツールは、前記現在ビデオブロックの予測ブロックに等しくない重み係数を適用することを含む、ステップと、
を含む。
第3の例示的なビデオ処理方法は、ビデオの現在ビデオブロックの1つ以上の参照ピクチャのピクチャオーダカウント(POC)値、及び前記現在ビデオブロックを含む現在ピクチャのPOC値に基づき、前記現在ビデオブロックについて1つ以上のデコーダ側動きベクトル導出(DMVD)方式を有効又は無効にするかを決定するステップと、
前記決定に基づき、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換を決定するステップと、
を含む。
第4の例示的なビデオ処理方法は、
現在ビデオブロックについてデコーダ側動きベクトル導出(DMVD)方式を実施することにより、ビデオの前記現在ビデオブロックの精緻化動き情報を取得するステップであって、対称動きベクトル差(SMVD)モードが前記現在ブロックについて有効にされる、ステップと、
前記精緻化動き情報及を用いて、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換を実行するステップと、
を含む。
第5の例示的なビデオ処理方法は、
現在ビデオブロックを含むビデオのビットストリーム表現の中のフィールドに基づき、前記現在ビデオブロックについてデコーダ側動きベクトル導出(DMVD)方式が有効又は無効であるかを決定するステップであって、対称動きベクトル差(SMVD)モードが前記現在ビデオブロックについて有効にされる、ステップと、
前記DMVD方式が有効であると決定した後に、前記現在ビデオブロックについて前記DMVD方式を実施することにより、前記現在ビデオブロックの精緻化動き情報を取得するステップと、
前記精緻化動き情報を用いて、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換を実行するステップと、
を含む。
第6の例示的なビデオ処理方法は、
ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、複数のデコーダ側動きベクトル導出(DMVD)方式が、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換について有効又は無効かを決定するステップと、
前記決定に基づき前記変換を実行するステップと、
を含む。
第7の例示的なビデオ処理方法は、
ビデオの現在ビデオブロックについて、サブブロックレベル又はブロックレベルで、複数のデコーダ側動きベクトル導出(DMVD)方式を実行するかどうかを決定するステップと、
前記複数のDMVD方式がサブブロックレベルで実行されると決定した後に、前記現在ビデオブロックの同じサブブロックレベルで、前記複数のDMVD方式を実施することにより、前記現在ビデオブロックの精緻化動き情報を取得するステップと、
前記精緻化動き情報を用いて、前記現在ビデオブロックとビットストリーム表現との間の変換を実行するステップと、
を含む。
第8の例示的なビデオ処理方法は、
ビデオの現在ビデオブロックの複数のコンポーネントについて、デコーダ側動きベクトル導出(DMVD)方式を有効又は無効にするかを決定するステップと、
前記DMVD方式が有効にされると決定した後に、前記DMVD方式を実施することにより、前記現在ビデオブロックの精緻化動き情報を取得するステップと、
前記DMVD方式を実施する間に、前記ビデオの前記現在ビデオブロックとビットストリーム表現との間の変換を実行するステップと、
を含む。
別の例示的な態様では、上述の方法及び本願明細書に記載される方法は、プロセッサを含むビデオエンコーダ聞き又はビデオデコーダ機器により実施されてよい。
別の例示的な態様では、上述の方法及び本願明細書に記載される方法は、非一時的コンピュータ可読プログラム媒体にプロセッサ実行可能命令の形式で格納されてよい。
これら及び他の態様は、本願明細書において更に記載される。
マージ候補リスト構成のための例示的な導出処理を示す。
空間マージ候補の例示的な位置を示す。
空間マージ候補の冗長性チェックのために検討される候補ペアの例を示す。
N×2N及び2N×Nパーティションの第2PUの例示的な位置を示す。 N×2N及び2N×Nパーティションの第2PUの例示的な位置を示す。
時間マージ候補の動きベクトルスケーリングの図である。
時間マージ候補C0及びC1の候補位置の例を示す。
結合双予測マージ候補の例を示す。
動きベクトル予測候補の導出処理を纏める。
空間動きベクトル候補の動きベクトルスケーリングの図を示す。
照明補償(IC)パラメータのために使用される近隣サンプルの例を示す。
4パラメータアフィンモードの簡略アフィン動きモデルを示す。 6パラメータアフィンモードの簡略アフィン動きモデルを示す。
サブブロック毎のアフィン動きベクトルフィールド(MVF)の例を示す。
4パラメータアフィンモデルの例を示す。 6パラメータアフィンモデルの例を示す。
継承されたアフィン候補のAF_INTERの動きベクトル予測子(MVP)を示す。
構成されたアフィン候補のAF_INTERのMVPを示す。
AF_MERGEの候補の例を示す。 AF_MERGEの候補の例を示す。
アフィンマージモードの候補位置の例を示す。
最終動きベクトル表現(UMVE)検索処理の例を示す。
UMVE検索点の例を示す。
バイラテラルテンプレートマッチングに基づくデコーダ側動きベクトル精緻化(DMVR)の例を示す。
DMVRにおけるリスト0とリスト1との間でミラーリングされる動きベクトル差MVD(0,1)の例を示す。
1回の反復の中でチェックされ得るMVの例を示す。
本願明細書に記載される技術を実施するハードウェアプラットフォームの例を示す。
ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。 ビデオ処理の例示的な方法の例示的なフローチャートである。
デコーダ側動きベクトル導出の対称モードの例を示す。
ここに開示される種々の技術が実施され得る例示的なビデオ処理システムを示すブロック図である。
本開示の幾つかの実施形態によるビデオコーディングシステムを示すブロック図である。
本開示の幾つかの実施形態によるエンコーダを示すブロック図である。
本開示の幾つかの実施形態によるデコーダを示すブロック図である。
本願明細書は、伸長又は復号デジタルビデオの品質を向上するためにビデオビットストリームのデコーダにより使用できる種々の技術を提供する。更に、ビデオエンコーダも、更なる符号化のために使用される復号フレームを再構成するために、符号化の処理の間に、これらの技術を実施してよい。
章見出しは、本願明細書において理解を容易にするために使用され、実施形態及び技術を対応する章に限定するものではない。従って、1つの章からの実施形態は、他の章からの実施形態と結合できる。
1.概要
本発明はビデオコーディング技術に関する。具体的に、ビデオコーディングにおける予測ブロック及び動きベクトル精緻化に適用される不均等な重みの反復に関する。それは、高効率ビデオコーディング(High Efficiency Video Coding、HEVC)のような既存のビデオコーディング規格、又は完成されるべき規格(Versatile Video Coding)に適用されてよい。それは、将来のビデオコーディング規格又はビデオコーデックにも適用可能であってよい。
2.簡単な議論
ビデオコーディング規格は、主によく知られたITU-T及びISO/IEC規格の発展を通じて進化している。ITU-TはH.261及びH.263を策定し、ISO/IECはMPEG-1及びMPEG-4ビジュアルを策定し、及び2つの組織は共同でH.262/MPEG-2ビデオ、及びH.264/MPEG-4アドバンストビデオコーディング(Advanced Video Coding)及びH.265/HEVC規格を策定した。H.262以降、ビデオコーディング規格は、ハイブリッドビデオコーディング構造に基づき、ここでは時間予測及び変換コーディングが利用される。HEVCより先の将来のコーディング技術を開発するために、共同ビデオ探索チーム(Joint Video Exploration Team (JVET))が2015年にVCEG及びMPEGにより共同で設立された。それ以来、多くの新しい方法がJVETにより採用され、共同探索モデル(Joint Exploration Model (JEM))と呼ばれる参照ソフトウェアに取り入れられてきた。2018年4月には、HEVCと比べて50%のビットレート削減を目標とするVVC規格に取り組むために、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間の共同ビデオ専門家チーム(Joint Video Expert Team (JVET))が作成された。
VVC規格ドラフトの最新バージョン、つまりVersatile Video Coding (Draft 2)は、http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K1001-v7.zipにおいて見ることができる。VTMと呼ばれるVVCの最新の参照ソフトウェアは、https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-2.1において見ることができる。
2.1 HEVC/H.265におけるインター予測
各々のインター予測されたPUは、1又は2個の参照ピクチャリストの動きパラメータを有する。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2個の参照ピクチャリストのうちの1つの使用は、inter_pred_idcを用いてシグナリングされてもよい。動きベクトルは、予測子に対するデルタ(delta)として明示的にコーディングされてよい。
CUがスキップモードでコーディングされるとき、1つのPUが該CUに関連付けられ、有意な残差係数、コーディング動きベクトルデルタ又は参照ピクチャインデックスは存在しない。マージモードが指定され、それにより、現在PUの動きパラメータが、空間及び時間候補を含む近隣PUから取得される。マージモードは、スキップモードに対してだけでなく、任意のインター予測されたPUに適用できる。マージモードの代替は、動きパラメータの明示的送信である。ここで、動きベクトル(より詳細には、動きベクトル予測子と比較される動きベクトル差(motion vector differences (MVD)))、各参照ピクチャリストの対応する参照ピクチャインデックス、及び参照ピクチャリストの使用は、PU毎に明示的にシグナリングされる。このようなモードは、本開示で、高度動きベクトル予測(Advanced motion vector prediction (AMVP))と呼ばれる。
シグナリングが、2つの参照ピクチャリストのうちの1つが使用されるべきであると示すとき、PUは、サンプルの1つのブロックから生成される。これは、「片予測(uni-prediction)」と呼ばれる。片予測は、Pスライス及びBスライスの両方のために利用可能である。
シグナリングが、両方の参照ピクチャリストが使用されるべきであると示すとき、PUは、サンプルの2つのブロックから生成される。これは、「双予測(bi-prediction)」と呼ばれる。双予測は、Bスライスにのみ利用可能である。
以下の文書は、HEVCで指定されたインター予測に関する詳細を提供する。説明は、マージモードから始まる。
2.1.1 参照ピクチャリスト
HEVCでは、用語「インター予測」は、現在復号ピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出される予測を示すために使用される。H.264/AVCと同様に、ピクチャは、複数の参照ピクチャから予測できる。インター予測のために使用される参照ピクチャは、1つ以上の参照ピクチャリストの中で組織化される。参照ピクチャがリスト内にある参照インデックス識別子は、予測信号を生成するために使用されるべきである。
単一の参照ピクチャリストList0はPスライスのために使用され、2つの参照ピクチャリストList0及びList1はBスライスのために使用される。留意すべき事に、List0/1に含まれる参照ピクチャは、キャプチャ/表示順で、過去又は将来のピクチャからであり得る。
2.1.2 マージモード
2.1.2.1 マージモードの候補の導出
PUがマージモードを用いて予測されるとき、マージ候補リスト内のエントリを指すインデックスがビットストリームからパースされ、動き情報を導出するために使用される。このリストの構成は、HEVC規格の中で指定され、以下のステップシーケンスに従い纏めることができる。
ステップ1:初期候補導出
ステップ1.1:空間候補導出
ステップ1.2:空間候補の冗長性チェック
ステップ1.3:時間候補導出
ステップ2:追加候補挿入
ステップ2.1:双予測候補の生成
ステップ2.2:ゼロ動き候補の挿入
これらのステップは、図1にも概略的に示される。空間マージ候補導出では、最大で4個のマージ候補が、5個の異なる位置に位置する候補の中から選択される。時間マージ候補導出では、最大で1個のマージ候補が2個の候補の中から選択される。デコーダにおいて各PUについて一定数の候補が想定されるので、追加候補は、ステップ1から取得された候補の数が、スライスヘッダ内でシグナリングされる最大マージ候補数(MaxNumMergeCand)に達しないときに、生成される。候補数は一定なので、最良マージ候補のインデックは、トランケートされた単項2進化(truncated unary binarization (TU))を用いて符号化される。CUのサイズが8に等しい場合、現在CUの全部のPUは、2N×2N予測ユニットのマージ候補リストと同じ単一のマージ候補リストを共有する。
以下では、前述のステップに関連する動作が詳述される。
図1は、マージ候補リスト構成のための例示的な導出処理を示す。
2.1.2.2 空間候補導出
空間マージ候補の導出では、最大で4個のマージ候補が、図2に示す位置にある候補の中から選択される。導出の順序は、A、B、B、A、及びBである。位置Bは、位置A、B、B、AにあるいずれかのPUが(例えば、それが別のスライス又はタイルに属するために)利用可能ではない又はイントラコーディングされるときにのみ考慮される。位置Aにある候補が追加された後、残りの候補の追加は、冗長性チェックを受ける。これは、同じ動き情報を有する候補がリストから排除されることを保証し、その結果、コーディング効率が向上する。計算の複雑さを低減するために、言及された冗長性チェックでは、必ずしも全部の可能な候補ペアが考慮されない。河原井に、図3の矢印によりリンクされたペアのみが考慮され、冗長性チェックのために使用される対応する候補が同じ動き情報を有しない場合に、候補がリストに追加されるだけである。重複する動き情報の別のソースは、2N×2Nと異なるパーティションに関連付けられた「第2PU」である。例として、図4A~4Bは、それぞれ、N×2N、及び2N×Nの場合の第2PUを示す。現在PUがN×2Nとしてパーティションされるとき、位置Aにある候補は、リスト構成のために考慮されない。実際に、この候補を追加することにより、同じ動き情報を有する2個の予測ユニットをもたらす。これは、コーディングユニットの中に1個のPUを有するのに対して冗長である。同様に、位置Bは、現在PUが2N×Nとしてパーティションされるとき、考慮されない。
図2は、空間マージ候補の例示的な位置を示す。
図3は、空間マージ候補の冗長性チェックのために検討される候補ペアの例を示す。
図4A~4Bは、それぞれ、N×2N及び2N×Nパーティションの第2PUの例示的な位置を示す。
2.1.2.3 時間候補導出
このステップでは、1つの候補のみがリストに追加される。特に、この時間マージ候補の導出では、スケーリングされた動きベクトルが、所与の参照ピクチャリストの中の現在ピクチャとの最小POC差を有するピクチャに属する同一位置にあるPUに基づき導出される。同一位置にあるPUの導出のために使用されるべき参照ピクチャリストは、スライスヘッダ内で明示的にシグナリングされる。時間マージ候補のスケーリングされた動きベクトルは、図5の破線により示されるように取得される。これは、同一位置にあるPUの動きベクトルからPOC距離tb及びtdを用いてスケーリングされる。ここで、tbは現在ピクチャの参照ピクチャと現在ピクチャとの間のPOC差であると定義され、tdは同一位置にあるピクチャの参照ピクチャと同一位置にあるピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しく設定される。スケーリング処理の実際の実現は、HEVC仕様の中に記載される。Bスライスでは、一方は参照ピクチャリスト0のもの、他方は参照ピクチャリスト1のものである、2個の動きベクトルが、取得され結合されて、双予測マージ候補を生成する。
図5は、 時間マージ候補の動きベクトルスケーリングの図である。
参照フレームに属する同一位置にあるPU(Y)では、時間候補の位置は、図6に示すように、候補CとCとの間で選択される。位置CにあるPUが利用可能ではない、イントラコーディングされる、又は現在コーディング木ユニット(CTU aka、LCU、最大コーディングユニット)行の外側にある場合、位置Cが使用される。その他の場合、位置Cが時間マージ候補の導出で使用される。
図6は、時間マージ候補C及びCの候補位置の例を示す。
2.1.2.4 追加候補挿入
空間及び時間マージ候補の他に、2つの追加のマージ候補タイプ:結合双予測マージ候補及びゼロマージ候補、がある。結合双予測マージ候補は、空間及び時間マージ候補を利用して生成される。結合双予測マージ候補は、Bスライスのためにのみ使用される。結合双予測候補は、初期候補の第1参照ピクチャリスト動きパラメータを、別の第2参照ピクチャリスト動きパラメータと結合することにより生成される。これらの2つのタプルが異なる動き仮説を提供する場合、それらは、新しい双予測候補を形成する。例として、図7は、mvL0及びrefIdxL0又はmvL1及びrefIdxL1を有する、元のリスト(左にある)内にある2つの候補が、最終リスト(右にある)に追加される結合された双予測マージ候補を生成するために使用される場合を示す。これらの追加マージ候補を生成するために考えられる組合せに関する多数のルールがある。
図7は、結合双予測マージ候補の例を示す。
マージ候補リスト内の残りのエントリを満たすために、ゼロ動き候補が挿入され、従ってMaxNumMergeCand容量に達する。これらの候補は、ゼロ空間変位、及びゼロから開始して新しいゼロ動き候補がリストに追加される度に増大する参照ピクチャインデックスを有する。最後に、これらの候補に対して冗長性チェックは実行されない。
2.1.3 AMVP
AMVPは、近隣PUとの動きベクトルの空間-時間相関を利用する。これは、動きパラメータの明示的送信のために使用される。参照ピクチャリスト毎に、左、上の時間的近隣PU位置の利用可能性をチェックし、冗長候補を除去し、ゼロベクトルを追加した一定長の候補リストを生成することにより、動きベクトル候補リストが構成される。次に、エンコーダは、候補リストから最良の予測子を選択し、選択した候補を示す対応するインデックスを送信できる。マージインデックスシグナリングと同様に、最良の動きベクトル候補のインデックは、トランケートされた単項(truncated unary)を用いて符号化される。この場合に符号化されるべき最大値は、2である(図8を参照)。以下の章では、動きベクトル予測候補の導出処理に関する詳細が提供される。
2.1.3.1 AMVP候補の導出
図8は、動きベクトル予測候補の導出処理を纏める。
動きベクトル予測では、2種類の動きベクトル候補:空間動きベクトル候補及び時間動きベクトル候補、が検討される。空間動きベクトル候補導出のために、2つの動きベクトル候補が、図2に示すような5個の異なる位置に位置する各PUの動きベクトルに基づき、最終的に導出される。
時間動きベクトル候補導出では、1つの動きベクトル候補は、2つの異なる同一位置に基づき導出される2個の候補から選択される。空間-時間候補の第1リストが作成された後に、該リスト内の重複する動きベクトルが除去される。可能な候補の数が2より多い場合、関連する参照ピクチャリスト内の参照ピクチャインデックスが1より大きい動きベクトル候補が、該リストから除去される。空間-時間動きベクトル候補の数が2より小さい場合、追加のゼロ動きベクトル候補がリストに追加される。
2.1.3.2 空間動きベクトル候補
空間動きベクトル候補の導出では、図2に示される位置に位置するPUから導出される5個の可能な候補の中で、最大で2個の候補が考慮される。それらの位置は動きマージの位置と同じである。現在PUの左側の導出の順序は、A、A、及びスケーリングされたA、スケーリングされたAとして定義される。現在PUの上側の導出の順序は、B、B、B、及びスケーリングされたB、スケーリングされたB、スケーリングされたBとして定義される。各側面について、動きベクトル候補として使用可能な4つのケースがある。ここで、2つのケースでは空間スケーリングを使用する必要がなく、2つのケースでは空間スケーリングが使用される。4つの異なるケースは以下のように纏められる。
空間スケーリング無し。
(1)同じ参照ピクチャリスト、同じ参照ピクチャインデックス(同じPOC)。
(2)異なる参照ピクチャリスト、同じ参照ピクチャ(同じPOC)。
空間スケーリング。
(3)同じ参照ピクチャリスト、異なる参照ピクチャ(異なるPOC)。
(4)異なる参照ピクチャリスト、異なる参照ピクチャ(異なるPOC)。
空間スケーリング無しのケースの後には、最初に空間スケーリングが続く。参照ピクチャリストに拘わらず、POCが近隣PUの参照ピクチャと現在PUの参照ピクチャとの間で異なるとき、空間スケーリングが考慮される。左候補の全部のPUが利用可能ではない又はイントラコーディングされる場合、左及び上のMV候補の並列の導出を助けるために、上の動きベクトルのスケーリングが許可される。その他の場合、上の動きベクトルについて、空間スケーリングは許可されない。
図9は、空間動きベクトル候補の動きベクトルスケーリングの図を示す。
空間スケーリング処理では、近隣PUの動きベクトルは、図9に示される時間スケーリングと同様の方法でスケーリングされる。主な違いは、現在PUの参照ピクチャリスト及びインデックスが入力として与えられることであり、実際のスケーリング処理は時間スケーリングのものと同じである。
2.1.3.3 時間動きベクトル候補
参照ピクチャインデックス導出は別として、時間マージ候補の導出のための全ての処理は、空間動きベクトル候補の導出と同じである(図6を参照)。参照ピクチャインデックスは、デコーダへシグナリングされる。
2.2 JEMにおけるローカル照明補償
ローカル照明補償(Local Illumination Compensation (LIC))は、スケーリング係数a及びオフセットbを使用する、照明の変化の線形モデルに基づく。そしてそれは、インターモードでコーディングされたコーディングユニット(coding unit (CU))毎に適応的に有効又は無効にされる。
図10は、ICパラメータを導出するために使用される近隣サンプルの例を示す。
LICがCUに適用されるとき、現在CUの近隣サンプル及びそれらの対応する参照サンプルを用いてパラメータa及びbを導出するために、最小二乗誤差法が利用される。より具体的には、図12に示すように、CUのサブサンプリング(2:1サブサンプリング)された近隣サンプル、及び参照ピクチャ内の(現在CU又はサブCUの動き情報により識別される)対応するサンプルが使用される。
2.2.1 予測ブロックの導出
ICパラメータは、予測方向毎に個別に導出され適用される。予測方向毎に、第1予測ブロックが復号動き情報により生成され、時間予測ブロックがLICモデルを適用することにより取得される。その後、最終的な予測ブロックを導出するために、2個の時間予測ブロックが利用される。
CUがマージモードによりコーディングされるとき、マージモードにおける動き情報のコピーと同様の方法で、近隣ブロックからLICフラグがコピーされる。その他の場合、LICフラグは、LICが適用されるか否かを示すために、CUについてシグナリングされる。
LICがピクチャについてシグナリングされるとき、LICがCUに適用されるか否かを決定するために、追加CUレベルRDチェックが必要である。LICがCUについて有効であるとき、整数ペル(pel)動き探索及び分数ペル動き探索のために、それぞれ、SAD及びSATDの代わりに、平均除去絶対差分和(mean-removed sum of absolute difference (MR-SAD))及び平均除去絶対アダマール変換差分和(mean-removed sum of absolute Hadamard-transformed difference (MR-SATD))が使用される。
符号化の複雑さを低減するために、JEMでは以下の符号化方式が適用される。
現在ピクチャとその参照ピクチャとの間に明らかな照明の変化が存在しないとき、LICはピクチャ全体について無効にされる。この状況を識別するために、現在ピクチャ及び現在ピクチャの全ての参照ピクチャのヒストグラムが、エンコーダにおいて計算される。現在ピクチャと現在ピクチャの全ての参照ピクチャとの間のヒストグラム差が所与の閾値より小さい場合、LICは現在ピクチャについて無効にされ、その他の場合、LICは現在ピクチャについて有効にされる。
2.3 VVCにおけるインター予測方法
MVDをシグナリングするための適応型動きベクトル差精度(Adaptive motion vector difference resolution (AMVR))、アフィン予測モード、三角形予測モード(Triangular prediction mode (TPM))、高度TMVP(Advanced TMVP (ATMVP, aka SbTMVP))、一般化双予測(Generalized Bi-Prediction (GBI))、双方向オプティカルフロー(Bi-directional Optical flow (BIO又はBDOF))のような、インター予測の向上のための幾つかの新しいコーディングツールがある。
2.3.1 VVCにおけるコーディングブロック構造
VVCでは、ピクチャを正方形又は長方形ブロックに分割するために、4分木/2分木/マルチ木(QuadTree/BinaryTree/MulitpleTree (QT/BT/TT))構造が採用される。
QT/BT/TTに加えて、別の木(別名、デュアルコーディング木)も、IフレームについてVVCにおいて採用される。別の木により、コーディングブロック構造は、ルマ及びクロマ成分について個別にシグナリングされる。
2.3.2 適応型動きベクトル差精度
HEVCでは、(動きベクトルとPUの予測動きベクトルとの間の)動きベクトル差(motion vector differences (MVDs))は、スライスヘッダ内でuse_integer_mv_flagが0に等しいとき、4分の1ルマサンプルの単位でシグナリングされる。VVCでは、ローカル適応型動きベクトル精度(adaptive motion vector resolution (AMVR))が導入される。VVCでは、MVDは、4分の1ルマサンプル、整数ルマサンプル、又は4個のルマサンプル(つまり、1/4ペル、1ペル、4ペル)の単位でコーディングできる。MVD精度は、コーディングユニット(coding unit (CU))レベルで制御され、MVD精度フラグは、少なくとも1つのゼロではないMVD成分を有するCU毎に、条件付きでシグナリングされる。
少なくとも1つのゼロではないMVD成分を有するCUについて、4分の1ルマサンプルMV精度が該CUについて使用されるかどうかを示すために、第1フラグがシグナリングされる。第1フラグ(1に等しい)が、4分の1ルマサンプルMV精度が使用されないことを示すとき、整数ルマサンプルMV精度又は4ルマサンプルMV精度が使用されるかどうかを示すために、別のフラグがシグナリングされる。
CUの第1MVD精度フラグが0である、又はCUについてコーディングされない(CU内の全部のMVDが0であことを意味する)とき、4分の1ルマサンプルMV精度が該CUについて使用される。CUが整数ルマサンプルMV精度又は4ルマサンプルMV精度を使用するとき、該CUのAMVP候補リスト内のMVPは、対応する精度に丸め込まれる。
2.3.3 アフィン動き補償精度
HEVCでは、変換動きモデルのみが動き補償予測(motion compensation prediction (MCP))のために適用される。現実世界では、多くの種類の動き、例えばズームイン/アウト、回転、遠近法の動き、及び他の不規則な動きが存在する。VVCでは、4パラメータアフィンモデル及び6パラメータアフィンモデルにより、簡略化されたアフィン変換動き補償予測が適用される。図13に示すように、ブロックのアフィン動きフィールドは、4パラメータアフィンモデルでは2つの制御点動きベクトル(control point motion vectors (CPMVs))により、6パラメータアフィンモデルでは3個のCPMVにより、記述される。
図11A~11Bは、それぞれ、4パラメータアフィンモード及び6パラメータアフィンモードの簡略アフィン動きモデルを示す。
ブロックの動きベクトルフィールド(motion vector field (MVF))は、次式により、式(1)の4パラメータアフィンモデル(4パラメータは変数a、b、e及びfにより定義される)、式(2)の6パラメータアフィンモデル(6パラメータは変数a、b、c、d、e及びfにより定義される)によりそれぞれ記述される。
Figure 0007263529000001
ここで、(mvh ,mvh )は左上角制御点の動きベクトルであり、(mvh ,mvh )は右上角制御点の動きベクトルであり、(mvh ,mvh )は左下角制御点の動きベクトルであり、3個の動きベクトルの全部は制御点動きベクトル(control point motion vectors (CPMV))と呼ばれ、(x,y)はそれぞれの点の現在ブロック内の左上サンプルに対する代表点(representative point)の座標を表し、(mvh(x,y),mvv(x,y))は(x,y).にあるサンプルについて導出された動きベクトルである。CP動きベクトルは、(アフィンAMVPモードにおけるように)シグナリングされるか、又は(アフィンマージモードにおけるように)オンザフライで導出されてよい。w及びhは、現在ブロックの幅及び高さである。実際には、丸め込み演算を伴う右シフトにより分割が実施される。VTMでは、代表点は、サブブロックの中央位置であると定義される。例えば、現在ブロック内の左上サンプルに対するサブブロックの左上角の座標が(xs,ys)であるとき、代表点の座標は(xs+2,ys+2)であると定義される。サブブロック(つまり、VTMでhは4×4)毎に、サブブロック全体の動きベクトルを導出するために、代表点が利用される。
動き補償予測を更に簡略化するために、サブブロックに基づくアフィン変換予測が適用される。M×N(現在のVVCでは、M及びNは両方とも4に設定される)の動きベクトルを導出するために、各サブブロックの中央サンプルの動きベクトルは、図14に示すように、式(1)及び(2)に従い導出され、1/16分数精度で丸め込まれる。次に、1/16ペルの動き補償補間フィルタが適用されて、導出した動きベクトルにより各サブブロックの予測を生成する。1/16ペルの補間フィルタは、アフィンモードにより導入される。
図12は、サブブロック毎のアフィンMVFの例を示す。
MCPの後に、各サブブロックの高精度動きベクトルは丸め込まれ、通常の動きベクトルと同じ精度で保存される。
2.3.3.1 アフィン予測のシグナリング
変換動きモデルと同様に、アフィン予測によりサイド情報をシグナリングするための2つのモードがある。それらは、AFFINE_INTER及びAFFINE_MERGEモードである。
2.3.3.2 AF_INTERモード
8より大きい幅及び高さを有するCUでは、AF_INTERモードが適用できる。AF_INTERモードが使用されるかどうかを示すために、CUレベルのアフィンフラグがビットストリーム内でシグナリングされる。
このモードでは、参照ピクチャリスト(リスト0又はリスト1)毎に、以下の順序で3種類のアフィン動き予測子により、アフィンAMVP候補リストが構成される。ここで、各候補は現在ブロックの推定CPMVを含む。エンコーダ側で見付かった最良のCPMV(図17のmv、mv、及びmv)と推定CPMVとの差がシグナリングされる。加えて、推定CPMVが導出されるアフィンAMVP候補のインデックスが、更にシグナリングされる。
(1)継承アフィン動き予測子
チェック順序は、HEVCのAMVPリスト構成の空間MVPの順序と同様である。先ず、左の継承アフィン動き予測子は、アフィンコーディングされ現在ブロック内と同じ参照ピクチャを有する、{A1,A0}内の第1ブロックから導出される。次に、上の継承アフィン動き予測子は、アフィンコーディングされ現在ブロック内と同じ参照ピクチャを有する、{B1,B0,B2}内の第1ブロックから導出される。図16には、5個のブロックA1,A0,B1,B0,B2が示される。
近隣ブロックがアフィンモードでコーディングされるべきであると分かると、現在ブロックのCPMVの予測子を導出するために、近隣ブロックをカバーするコーディングユニットのCPMVが使用される。例えば、A1が非アフィンモードによりコーディングされ、A0が4パラメータアフィンモードによりコーディングされる場合、左の継承アフィンMV予測子はA0から導出される。この場合、図16Bで左上CPMVのMV N及び右上CPMVのMV Nとして示されるように、A0をカバーするCUのCPMVは、現在ブロックの左上(座標(x0,y0))、右上(座標(x1,y1))及び右下(座標(x2,y2))のMV C、MV1C及びMV Cにより示される、現在ブロックの推定CPMVを導出するために利用される。
(2)構成されたアフィン動き予測子
構成されたアフィン動き予測子は、図17に示すように近隣のインターコーディングされたブロックから導出され同じ参照ピクチャを有する制御点動きベクトル(control-point motion vectors (CPMVs))により構成される。現在のアフィン動きモデルが4パラメータアフィンである場合、CPMVの数は2である。その他の場合、現在のアフィン動きモデルが6パラメータアフィンである場合、CPMVの数は3である。左上CPMV(mv )は、インターコーディングされ現在ブロック内と同じ参照ピクチャを有する、グループ{A,B,C}の中の第1ブロックにおけるMVにより導出される。右上CPMV(ベクトルmv)は、インターコーディングされ現在ブロック内と同じ参照ピクチャを有する、グループ{D,E}の中の第1ブロックにおけるMVにより導出される。左下CPMV(ベクトルmv)は、インターコーディングされ現在ブロック内と同じ参照ピクチャを有する、グループ{F,G}の中の第1ブロックにおけるMVにより導出される。
現在のアフィン動きモデルが4パラメータアフィンである場合、構成されたアフィン動き予測子は、ベクトルmv及びmvの両方が見付かった場合にのみ、候補リストに挿入される。つまり、ベクトルmv及びmvは、現在ブロックの左上(座標(x0,y0))、右上(座標(x1,y1))位置の推定CPMVとして使用される。
現在のアフィン動きモデルが6パラメータアフィンである場合、構成されたアフィン動き予測子は、ベクトルmv、mv及びmvの全部が見付かった場合にのみ、候補リストに挿入される。つまり、ベクトルmv、mv及びmvは、現在ブロックの左上(座標(x0,y0))、右上(座標(x1,y1))及び右下(座標(x2,y2))位置の推定CPMVとして使用される。
構成されたアフィン動き予測子を候補リストに挿入するときに、刈り込み処理は適用されない。
(3)通常のアフィン動き予測子
以下は、アフィン動き予測子が最大に達するまで適用される。
1)利用可能な場合、全部のCPMVをベクトルmvに等しく設定することにより、アフィン動き予測子を導出する。
2)利用可能な場合、全部のCPMVをベクトルmvに等しく設定することにより、アフィン動き予測子を導出する。
3)利用可能な場合、全部のCPMVをベクトルmvに等しく設定することにより、アフィン動き予測子を導出する。
4)利用可能な場合、全部のCPMVをベクトルHEVC TMVPに等しく設定することにより、アフィン動き予測子を導出する。
5)全部のCPMVをゼロMVに設定することにより、アフィン動き予測子を導出する。
ベクトルmviは構成されたアフィン動き予測子において既に導出されていることに留意する。
図13A~13Bは、それぞれ4パラメータアフィンモデル及び6パラメータアフィンモデルの例を示す。
図14は、継承されたアフィン候補のAF_INTERのMVPを示す。
図15は、構成されたアフィン候補のAF_INTERのMVPを示す。
図16A~16Bは、AF_MERGEの候補の例を示す。
AF_INTERモードでは、4/6パラメータアフィンモードが使用されるとき、2/3制御点が必要であり、従って、図15に示すように、これらの制御点について2/3MVDがコーディングされる必要がある。JVET-K0337では、MVを以下のように導出することが提案されている。つまり、mvd及びmvdがmvdから予測される。
Figure 0007263529000002
ここで、ベクトルmvi、mvd及びmvは、図16Bに示すように、それぞれ左上ピクセル(i=0)、右上ピクセル(i=1)、又は左下ピクセル(i=2)の予測された動きベクトル、動きベクトル差、及び動きベクトルである。2つの動きベクトル(例えば、mvA(xA,yA)及びmvB(xB,yB))の加算は、別の2つの成分の和に等しい、つまり、newMV=mvA+mvBであり、newMVの2つの成分はそれぞれ(xA+xB)及び(yA+yB)に設定されることに留意する。
2.3.3.3 AF_MERGEモード
AF_MERGEモードでCUが適用されるとき、有効な近隣再構成ブロックから、アフィンモードによりコーディングされた第1ブロックを得る。候補ブロックの選択順は、図16Aに示すように(順にA、B、C、D、Eにより示される)、左から、上、右上、左下、左上へである。例えば、近隣の左下ブロックが図167でA0により示されるようにアフィンモードでコーディングされる場合、要素B、ブロックAを含む近隣CPU/PUの左上角、右上角、及び左下角の制御点(Control Point (CP))動きベクトルmv N、mv N、及びmv Nが、フェッチされる。そして、現在CU/PU上の左上角/右上/左下の動きベクトルmv C,mv C及びmv C(6パラメータアフィンモードのために使用される)は、mv N,mv N及びmv Nに基づき計算される。留意すべきことに、VTM-2.0では、現在ブロックがアフィンコーディングされる場合、左上角に位置するサブブロック(例えば、VTMにおいて4×4ブロック)は、mv0を格納し、右上角にあるサブブロックはmv1を格納する。現在ブロックが6パラメータアフィンモデルによりコーディングされる場合、左下角に位置するサブブロックは、mv2を格納し、その他の場合(4パラメータアフィンモデルによる)、LBはmv2'を格納する。他のサブブロックは、MCのために 使用されるMVを格納する。
現在CUのCPMV mv C,mv C及びmv Cが導出された後に、簡略アフィン動きモデルの式(1)及び(2)に従い、現在CUのMVFが生成される。現在CUがAF_MERGEモードでコーディングされるかどうかを識別するために、アフィンモードでコーディングされる少なくとも1つの近隣ブロックがあるとき、アフィンフラグがビットストリーム内でシグナリングされる。
JVET-L0142及びJVET-L0632では、アフィンマージ候補リストが以下のステップにより構成される。
1)継承アフィン候補を挿入する。
継承アフィン候補は、候補が、その有効な近隣のアフィンコーディングされたブロックのアフィン動きモデルから導出されることを意味する。最大2個の継承アフィン候補が、近隣ブロックのアフィン動きモデルから導出され、候補リストに挿入される。左の予測子について、スキャン順は{A0,A1}であり、上の予測子について、スキャン順は{B0,B1,B2}である。
2)構成されたアフィン候補を挿入する。
アフィンマージ候補リストの構成要素がMaxNumAffineCand(例えば、5)より少ない場合、構成されたアフィン候補が候補リストに挿入される。構成されたアフィン候補は、候補が、各制御点の近隣動き情報を結合することにより構成されることを意味する。
a)図19に示すように、制御点の動き情報が、先ず、指定された空間近隣及び時間近隣から導出される。CPk(k=1,2,3,4)は、k番目の制御点を表す。A0,A1,A2,B0,B1,B2及びB3は、CPk(k=1,2,3)を予測するための空間位置であり、TはCP4を予測するための時間位置である。
CP1,CP2,CP3及びCP4の座標は、それぞれ(0,0),(W,0),(H,0)及び(W,H)である。ここで、W及びHは、現在ブロックの幅及び高さである。
図17は、アフィンマージモードの候補位置の例を示す。
各制御点の動き情報は、以下の優先順位に従い取得される。
CP1について、チェック優先度は、B2->B3->A2である。B2は、利用可能な場合に使用される。或いは、B2が利用可能な場合、B3が使用される。B2及びB3の両方が利用可能ではない場合、A2が使用される。3個の候補の全部が利用可能ではない場合、CP1の動き情報は取得できない。
CP2について、チェック優先度は、B1->B0である。
CP3について、チェック優先度は、A1->A0である。
CP4について、Tが使用される。
b)第2に、アフィンマージ候補を構成するために、制御点の組合せが使用される。
I.6パラメータアフィン候補を構成するために、3個の制御点の動き情報が必要である。3個の制御点は、以下の4個の組合せ({CP1,CP2,CP4},{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4})のうちの1つから選択できる。組合せ{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4}は、左上、右上、及び左下制御点により表される6パラメータ動きモデルへと変換される。
II.4パラメータアフィン候補を構成するために、2個の制御点の動き情報が必要である。2個の制御点は、2個の組合せ({CP1,CP2},{CP1,CP3})のうちの1つから選択できる。2個の組合せは、左上及び右上制御点により表される4パラメータ動きモデルへと変換される。
III.構成されたアフィン候補の組合せは、以下の順で候補リストに挿入される:
{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3}。
i.組合せ毎に、各CPのリストXの参照インデックスがチェックされ、それらが全部同じ場合、この組合せはリストXについて有効なCPMVを有する。組合せがリスト0及びリスト1の両方について有効なCPMVを有しない場合、この組合せは無効としてマークされる。その他の場合、それは有効であり、CPMVはサブブロックマージリストに入れられる。
3)ゼロ動きベクトルによりパディングする。
アフィンマージ候補リストの中の候補の数が5より少ない場合、リストが満たされるまで、ゼロ参照インデックスを有するゼロ動きベクトルが候補リストに挿入される。
より具体的には、サブブロックマージ候補リストについて、4パラメータマージ候補は、(0,0)に設定されたMV、及びリスト0(Pスライスについて)からの片予測及び双予測(Bスライスについて)に設定された予測方向を有する。
2.3.4 動きベクトル差とのマージ(Merge with Motion Vector Difference (MMVD))
JVET-L0054では、最終的な動きベクトル表現(ultimate motion vector expression (UMVE)、MMVDとしても知られる)が提示される。UMVEは、提案された動きベクトル表現方法によるスキップ又はマージモードのために使用される。
UMVEは、VCCにおける通常のマージ候補リストに含まれるものと同じマージ候補を再利用する。マージ候補の中から、基本候補を選択することができ、提案された動きベクトル表現方法により更に拡張される。
UMVEは、新しい動きベクトル差(motion vector difference (MVD))表現方法を提供し、その中で、MVDを表すために、開始点、動きの大きさ及び動き方向が使用される。
図18は、UMVE検索処理の例を示す。
図19は、UMVE検索点の例を示す。
この提案される技術は、マージ候補リストをそのまま使用する。しかし、規定マージタイプ(MRG_TYPE_DEFAULT_N)である候補のみが、UMVEの拡張のために考慮される。
基本候補インデックスは、開始点を定める。基本候補インデックスは、以下のように、リスト内の候補の中で最良の候補を示す。
表1 基本候補IDX
Figure 0007263529000003
基本候補の数が1に等しい場合、基本候補IDXはシグナリングされない。
距離インデックスは、動きの大きさの情報である。距離インデックスは、開始点情報からの予め定められた距離を示す。予め定められた距離は以下の通りである。
表2 距離IDX
Figure 0007263529000004
方向インデックスは、開始点に対するMVDの方向を表す。方向インデックスは、以下に示すように4つの方向を表すことができる。
表3 方向IDX
Figure 0007263529000005
UMVEフラグは、スキップフラグ又はマージフラグを送信した直後にシグナリングされる。スキップ又はマージフラグが真(true)の場合に、UMVEフラグがパースされる。UMVEフラグが1に等しい場合、UMVEシンタックスがパースされる。しかし、1ではない場合、AFFINEフラグがパースされる。AFFINEフラグが1に等しい場合、AFFINEモードであるが、1ではない場合、VTMのスキップ/マージインデックスがパースされる。
UMVE候補による追加のラインバッファは必要ない。何故なら、ソフトウェアのスキップ/マージ候補が、基本候補として直接使用されるからである。動き補償の直前に、入力UMVEインデックスを用いて、MVの補足が決定される。このために、長いラインバッファを保持する必要がない。
現在の共通テスト条件では、マージ候補リスト内の第1又は第2マージ候補のいずれかが、基本候補として選択され得る。
UMVEは、MV差によるマージ(Merge with MV Differences (MMVD))としても知られている。
2.3.5 デコーダ側動きベクトル精緻化(Decoder-side Motion Vector Refinement (DMVR))
双予測動作では、1つのブロック領域の予測について、それぞれリスト0の動きベクトル(MV)及びリスト1のMVを用いて形成された2個の予測ブロックが結合されて、単一の予測信号を形成する。デコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方法では、双予測の2個の動きベクトルが更に精緻化される。
2.5.3.1 JEMにおけるDMVR
JEM設計では、動きベクトルは、バイラテラルテンプレートマッチング処理により精緻化される。バイラテラルテンプレートマッチングは、追加動き情報を送信することなく精緻化MVを取得するために、バイラテラルテンプレートと参照ピクチャ内の再構成サンプルとの間の歪みに基づく検索を実行するためにデコーダにおいて適用される。図22に例が示される。図22に示されるように、バイラテラルテンプレートは、それぞれリスト0の初期MV0及びリスト1のMV1から、2個の予測ブロックの加重組合せ(つまり平均)として生成される。テンプレートマッチング動作は、生成されたテンプレートと参照ピクチャ内の(初期予測ブロックの周囲の)サンプル領域との間の計算コスト指標で構成される。2個の参照ピクチャの各々について、最小テンプレートコストを生じるMVが、元のMVを置き換えるための、該リストの更新MVと考えられ得る。JEMでは、9個のMV候補が各リストについて検索される。9個のMV候補は、元のMVと、水平又は垂直又は両方向で元のMVに対して1ルマサンプルオフセットを有する8個の周囲MVとを含む。最後に、図22に示されるように、2個の新しいMV、つまりMV0′及びMV1′が、最終双予測結果を生成するために使用される。絶対差の合計(sum of absolute differences (SAD))がコスト指標として使用される。1個の周囲MVにより生成された予測ブロックのコストを計算するとき、実際には、実数MVの代わりに、(整数ペルに)丸め込まれたMVが予測ブロックを取得するために使用される。
図20は、バイラテラルテンプレートマッチングに基づくDMVRの例を示す。
2.3.58.2 VCCにおけるDMVR
図21に示されるように、VCCにおけるDMVRについて、リスト0とリスト1との間のMVDミラーリングが想定され、バイラテラル照合が実行されて、MVを精緻化する。つまり、幾つかのMVD候補の中から最良のMVDを見付ける。2個の参照ピクチャリストのMVをMVL0(L0X,L0Y)及びMVL1(L1X,L1Y)により示す。コスト関数(例えば、SAD)を最小化し得る、リスト0について(MvdX,MvdY)により示されるMVDは、最良のMVDとして定義される。SAD関数では、それは、リスト0参照ピクチャ内の動きベクトル(L0X+MvdX,L0Y+MvdY)により導出されたリスト0の参照ブロックと、リスト1参照ピクチャ内の動きベクトル(L1X-MvdX,L1Y-MvdY)により導出されたリスト1の参照ブロックとの間のSADとして定義される。
動きベクトル精緻化処理は、2回繰り返されてよい。図22に示されるように、反復において、最大で6個のMVD(整数ペル精度を有する)が、2つのステップでチェックされてよい。第1ステップではMVD(0,0),(-1,0),(1,0),(0,-1),(0,1)がチェックされる。第2ステップでは、MVD(-1,-1),(-1,1),(1,-1)又は(1,1)のうちの1つが選択され、更にチェックされる。関数Sad(x,y)がMVD(x,y)のSAD値を返すとする。第2ステップでチェックされた、(MvdX,MvdY)により示されるMVDは、以下のように決定される。
Figure 0007263529000006
第1の反復では、開始点がシグナリングされたMVであり、第2の反復では、開始点は、シグナリングされたMVに、第1の反復における選択された最良のMVDを加算したものである。DMVRは、1個の参照ピクチャが先行するピクチャであり、他の参照ピクチャが後続のピクチャであるときにのみ適用され、2個の参照ピクチャは、現在ピクチャから同じピクチャオーダカウント距離を有する。
図21は、DMVRにおけるリスト0とリスト1との間でミラーリングされるMVD(0,1)の例を示す。
図22は、1回の反復の中でチェックされ得るMVの例を示す。
DMVRの処理を更に簡略化するために、JVET-M0147は、JEMにおける設計に対して幾つかの変更を提案した。おり具体的には、(間もなく発表される)VTM-4.0に採用されたDMVR設計は、以下の主な特徴を有する。
リスト0とリスト1との間の(0,0)位置SADが閾値より小さいとき、早く終了する。
リスト0とリスト1との間のSADが特定の位置でゼロであるとき、早く終了する。
DMVRのブロックサイズ:W*H>=64&&H>=8、ここで、W及びHはブロックの幅及び高さである。
CUサイズ>16*16のDMVRについて、CUを複数の16×16サブブロックに分割する。CUの幅又は高さのみが16より大きい場合、それは、垂直又は水平方向に分割されるだけである。
(ルマの)参照ブロックサイズ(W+7)*(H+7)。
25点のSADに基づく整数ペル検索(つまり、(+-)2精緻化検索範囲、単一ステージ)。
バイリニア補間に基づくDMVR。
「パラメータ誤差表面式(Parametric error surface equation)」に基づくサブペル精緻化。この手順は、最小SADコストがゼロに等しくなく、最良MVDが最後のMV精緻化反復の中で(0,0)であるときにのみ実行される。
(必要に応じて)参照ブロックパディングを伴うルマ/クロマMC。
MC及びTMVPにのみ使用される精緻化MV。
2.3.5.2.1 DMVRの使用
以下の条件が全て真であるとき、DMVRは有効にされてよい。
SPS内のDMVR有効ラグ(つまりsps_dmvr_enabled_flag)が1に等しい。
TPMフラグ、インターアフィンフラグ、及びサブブロックマージフラグ(ATMVP又はアフィンマージのいずれか)、MMVDフラグは、全て0に等しい。
マージフラグは1に等しい。
現在ブロックは双予測され、現在ピクチャとリスト1内の参照ピクチャとの間のPOC差は、リスト0内の参照ピクチャと現在ピクチャとの間のPOC距離に等しい。
現在CU高さは、8以上である。
ルマサンプルの数(CU幅*高さ)は、64以上である。
2.3.5.2.2 「パラメータ誤差表面式(Parametric error surface equation)」に基づくサブペル精緻化
方法は、以下に纏められる。
1.パラメータ誤差表面適合は、所与の反復において中心位置が最良コスト位置である場合にのみ、計算される。
2.中心位置コスト、及び中心からの(-1,0),(0,-1),(1,0)及び(0,1)位置におけるコストは、次式の形式の2D放物誤差表面式を適合するために使用される。
Figure 0007263529000007
ここで、(x,y)は、最小コストを有する位置に対応し、Cは最小コスト値に対応する。5個の未知数の5個の方程式を解くことにより、(x,y)は以下のように計算される。
Figure 0007263529000008
(x,y)は、分割が実行される精度(つまり、商の何個のビットが計算されるか)を調整することにより、任意の所要のサブピクセル精度に計算できる。1/16ペル精度では、商の絶対値の中に4ビットが計算される必要があるだけである。これは、CU毎に必要な2回の除算の高速シフト減算に基づく実施に役立つ。
3.計算された(x,y)は、整数距離精緻化MVに加算されて、サブピクセル精度精緻化デルタMVを得る。
2.3.6 結合されたイントラ及びインター予測
JVET-L0100では、複数仮説予測(multi-hypothesis prediction)が提案されている。複数仮説を生成するための1つの方法は、結合イントラ及びインター予測である。
複数仮説予測がイントラモードを向上するために適用されるとき、複数仮説予測は、1つのイントラ予測と1つのマージインデックス予測とを結合する。マージCUの中で、マージモードのために1つのフラグがシグナリングされ、フラグが真であるとき、イントラ候補リストからイントラモードを選択する。ルマ成分について、イントラ候補リストは、DC、平面、水平、及び垂直を含む4個のイントラ予測モードから導出され、イントラ候補リストのサイズはブロック形状に依存して3又は4であり得る。CU幅がCU高さの2倍より大きいとき、水平モードはイントラモードリストから削除され、CU高さがCU幅の2倍より大きいとき、垂直モードがイントラモードリストから削除される。イントラモードインデックスにより選択された1つのイントラ予測モードと、マージインデックスにより選択された1つのマージインデックス予測とが、加重平均を用いて結合される。クロマ成分については、追加シグナリングを伴わずに、DMが常に適用される。予測を結合するための重みを以下に説明する。DC又は平面モードが選択され、CB幅又は高さが4より小さいとき、等しい重みが適用される。CB幅及び高さが4以上であるCBについては、水平/垂直モードが選択されるとき、1つのCBは、先ず、水平方向/垂直方向に分割されて、4個の等面積の領域になる。各重みセットは、(w_intrai,w_interi)と示され、ここで、iは1~4であり、(w_intra,w_inter)=(6,2)、(w_intra,w_inter)=(5,3)、(w_intra,w_inter)=(3,5)、(w_intra,w_inter)=(2,6)であり、対応する領域に適用される。(w_intra,w_inter)は参照サンプルに最も近い領域のためであり、(w_intra,w_inter)は参照サンプルに最も離れた領域のためである。次に、結合された予測は、2つの重み付けされた予測を加算し、3ビットだけ右へシフトすることにより、計算できる。更に、予測子の複数仮説のためのイントラ予測モードは、以降の近隣CUの参照のために保存され得る。
2.3.7 JVET-M0481における対称動きベクトル差
JVET-M0481では、双予測における動き情報コーディングのために、対称動きベクトル差(symmetric motion vector difference (SMVD))が提案されている。
最初に、スライスレベルで、変数BiDirPredFlag,RefIdxSymL0及びRefIdxSymL1が以下のように導出される。
現在ピクチャに最も近い参照ピクチャリスト0内の順方向参照ピクチャが検索される。見付かると、RefIdxSymL0は、順方向ピクチャの参照インデックスに等しく設定される。
現在ピクチャに最も近い参照ピクチャリスト1内の逆方向参照ピクチャが検索される。見付かると、RefIdxSymL1は、逆方向ピクチャの参照インデックスに等しく設定される。
順方向及び逆方向ピクチャの両方が見付かると、BiDirPredFlagは1に等しく設定される。
その他の場合、以下が適用される。
現在ピクチャに最も近い参照ピクチャリスト0内の逆方向参照ピクチャが検索される。見付かると、RefIdxSymL0は、逆方向ピクチャの参照インデックスに等しく設定される。
現在ピクチャに最も近い参照ピクチャリスト1内の順方向参照ピクチャが検索される。見付かると、RefIdxSymL1は、順方向ピクチャの参照インデックスに等しく設定される。
逆方向及び順方向ピクチャの両方が見付かると、BiDirPredFlagは1に等しく設定される。その他の場合、BiDirPredFlagが0に等しく設定される。
第2に、CUレベルで、CUの予測方向が双予測であり、BiDirPredFlagが1に等しい場合、対称モードが使用されるか否かを示す対称モードフラグが、明示的にシグナリングされる。
フラグが真であるとき、mvp_l0_flag,mvp_l1_flag及びMVD0のみが、明示的にシグナリングされる。参照インデックスは、リスト0及びリスト1についてそれぞれRefIdxSymL0,RefIdxSymL1に等しく設定される。MVD1は、-MVD0に等しく設定される。最終動きベクトルは次式に示される。
Figure 0007263529000009
図25は、対称モードの例示的な図を示す。
コーディングユニットシンタックスにおける変更は、表4に(太字体で)示される。
表4 コーディングユニットシンタックスにおける変更
Figure 0007263529000010
Figure 0007263529000011
3.今日のビデオコーディング技術に伴う問題
現在のデコーダ側動きベクトル導出(decoder side motion vector derivation (DMVD))は、以下の問題を有することがある。
1.現在ピクチャについて重み付けされた予測が有効であるときでも、DMVRが有効にされる。
2.2つの参照ピクチャが現在ピクチャから異なるPOC距離を有するとき、DMVDが無効にされる。
3.DMVR及びBIOが、異なるブロックサイズについて有効にされる。
a.DMVRが次式のとき有効にされる。
Figure 0007263529000012
b.BIOが次式のとき有効にされる。
Figure 0007263529000013
4.DMVR及びBIOが、異なるサブブロックレベルで実行される。
a.DMVRが、サブブロックレベルで実行されることがある。CUの幅及び高さの両方が16より大きいとき、16×16個のサブブロックに分割される。その他の場合、CUの幅が16より大きいとき、垂直方向に16×H個のサブブロックに分割され、CUの高さが16より大きいとき、水平方向にW×16個のサブブロックに分割される。
b.BIOが、ブロックレベルで実行される。
4.例示的な技術及び実施形態
以下の詳細な技術は、一般的な概念を説明するための例として考えられるべきである。これらの技術は、狭義に解釈されるべきではない。更に、これらの技術は任意の方法で結合できる。
本願明細書では、DMVDは、ブロック/サブブロック動き情報を導出又は精緻化するために動き推定を実行するDMVR及びFRUC、及びサンプル毎の動き精緻化を実行するBIOのような方法を含む。
予測ブロックに適用される不均等の重みは、2個の予測ブロックの平均の代わりに予測ブロックに追加動作を適用する必要のあるコーディングツールの、GBI処理、LIC処理、加重予測処理、又は他の符号化/復号処理で使用されるものを表してよい。
リスト0及びリスト1内の参照ピクチャがそれぞれRef0及びRef1であると仮定すると、現在ピクチャとRef0との間のPOC距離はPocDist0であり(つまり、現在ピクチャのPOCからRef0のPOCを差し引いたもの)、Ref1と現在ピクチャとの間のPOC距離はPocDist1である(つまり、Ref1のPOCから現在ピクチャのPOCを差し引いたもの)。本願明細書では、PocDist1はPocDis1と同じであり、PocDist0はPocDis0と同じである。ブロックの幅及び高さをそれぞれW及びHと表す。関数abs(x)がxの絶対値を返すとする。
1.最終予測ブロック生成処理において予測ブロックに適用されるパラメータ(例えば、重み情報)は、DMVD処理で利用されてよい。
a.パラメータは、GBi又は加重予測等を使用して、デコーダへシグナリングされてよい。GBiは、コーディングユニット(coding unit (CU))重み(bi-prediction with codingunit weights (BCW))による双予測としても知られている。
b.パラメータは、LICを使用して、デコーダにおいて導出されてよい。
c.パラメータは、サンプル値のセットをサンプル値の別のセットにマッピングする再シェーピング処理のためであってよい。
d.一例では、予測ブロックに適用されるパラメータは、DMVDにおいて適用されてよい。
i.一例では、コスト関数(例えば、SAD、MR-SAD、勾配)を計算するとき、GBIインデックスに従う重み付け係数が先ず予測ブロックに適用され、次にコストが計算される。
ii.一例では、コスト関数(例えば、SAD、MR-SAD、勾配)を計算するとき、加重予測に従う重み付け係数及び/又はオフセットが先ず予測ブロックに適用され、次にコストが計算される。
iii.一例では、コスト関数(例えば、SAD、MR-SAD、勾配)を計算するとき、LICパラメータに従う重み付け係数及び/又はオフセットが先ず予測ブロックに適用され、次にコストが計算される。
iv.一例では、BIOにおける時間勾配及び空間勾配を計算するとき、GBIインデックスに従う重み付け係数が先ず予測ブロックに適用され、次にこれらの勾配が計算される。
v.一例では、BIOにおける時間勾配及び空間勾配を計算するとき、加重予測に従う重み付け係数及び/又はオフセットが先ず予測ブロックに適用され、次にこれらの勾配が計算される。
vi.一例では、BIOにおける時間勾配及び空間勾配を計算するとき、LICパラメータに従う重み付け係数及び/又はオフセットが先ず予測ブロックに適用され、次にこれらの勾配が計算される。
vii.代替として、更に、コスト計算(例えば、SAD、MR-SAD)/勾配計算は、再シェーピングされたドメインにおいて実行される。
viii.代替として、更に、動き情報が精緻化された後に、精緻化された動き情報により生成された予測ブロックについて、再シェーピング処理が無効にされる。
e.一例では、DMVDは、GBIモード及び/又はLICモード及び/又は加重予測及び/又は複数仮説予測において無効にされてよい。
f.一例では、2個の参照ピクチャの重み付け係数及び/又はオフセットが異なるとき、DMVDは、加重予測において無効にされてよい。
g.一例では、2個の参照ブロックの重み付け係数及び/又はオフセットが異なるとき、DMVDは、LICにおいて無効にされてよい。
2.DMVD処理(例えば、DMVR又はBIO)は、第1ピクチャオーダカウント距離(PocDis0)が第2ピクチャオーダカウント距離(PocDis1)と等しくないときでも、双予測ブロックに適用可能であってよい。
a.一例では、全部のDMVD処理は、PocDis0及びPocDis1に対して、同じルールに従い有効又は無効にされてよい。
i.例えば、全部のDMVD処理は、PocDis0がPocDis1に等しいとき、有効にされてよい。
ii.例えば、全部のDMVD処理は、PocDis0がPocDis1に等しくないとき、有効にされてよい。
代替として、更に、全部のDMVD処理は、PocDis0*PocDist1が0より小さいとき、無効にされてよい。
iii.例えば、全部のDMVD処理は、PocDis0がPocDis1に等しくないとき、無効にされてよい。
iv.例えば、全部のDMVD処理は、PocDis0*PocDist1が0より小さいとき、無効にされてよい。
b.一例では、PocDis0がPocDis1に等しい場合の現在の設計は有効にされる。
i.一例では、リスト0のMVDはリスト1にミラーリングされてよい。つまり、(MvdX,MvdY)がリスト0について使用される場合、2個の参照ブロックを識別するために、(-MvdX,-MvdY)がリスト1について使用される。
ii.代替として、リスト1のMVDはリスト0にミラーリングされてよい。つまり、(MvdX,MvdY)がリスト1について使用される場合、2個の参照ブロックを識別するために、(-MvdX,-MvdY)がリスト0について使用される。
c.代替として、リスト0及びリスト1についてミラーリングされたMVDを使用する(つまり、(MvdX,MvdY)がリスト0について使用され、次に(-MvdX,-MvdY)がリスト1について使用され得る)代わりに、ミラーリングされていないMVDが代わりに2つの参照ブロックを識別するために使用されてよい。
i.一例では、リスト0のMVDは、PocDist0及びPocDist1に従い、リスト1にスケーリングされてよい。
1.リスト0の選択されたMVDを(MvdX,MvdY)により表し、次に、(-MvdX*PocDist1/PocDist0,-MvdY*PocDist1/PocDist0)がリスト1に適用されるMVDとして選択される。
ii.一例では、リスト1のMVDは、PocDist0及びPocDist1に従い、リスト0にスケーリングされてよい。
1.リスト1の選択されたMVDを(MvdX,MvdY)により表し、次に(-MvdX*PocDist0/PocDist1,-MvdY*PocDist0/PocDist1)がリスト0に適用されるMVDとして選択される。
iii.スケーリングにおける分割動作は、ルックアップテーブル、複数の演算、及び右ー右演算により実施できる。
d.2個の参照ピクチャのMVDをどのように定義するか(例えば、ミラーリングを使用するか、又はMVDのスケーリングによるか)は、参照ピクチャに依存してよい。
i.一例では、abs(PocDist0)がabs(PocDist1)より小さい又は等しい場合、リスト0のMVDは、PocDist0及びPocDist1に従い、リスト1にスケーリングされてよい。
ii.一例では、abs(PocDist0)がabs(PocDist1)より大きい又は等しい場合、リスト0のMVDは、PocDist0及びPocDist1に従い、リスト1にスケーリングされてよい。
iii.一例では、abs(PocDist1)がabs(PocDist0)より小さい又は等しい場合、リスト1のMVDは、PocDist0及びPocDist1に従い、リスト0にスケーリングされてよい。
iv.一例では、abs(PocDist1)がabs(PocDist0)より大きい又は等しい場合、リスト1のMVDは、PocDist0及びPocDist1に従い、リスト0にスケーリングされてよい。
v.一例では、1個の参照ピクチャが先行するピクチャであり、他の参照ピクチャが現在ピクチャの後続のピクチャである場合、リスト0のMVDはリスト1にミラーリングされてよく、MVDスケーリングは実行されない。
e.ある種のDMVDを適用するかどうか及びどのように適用するかは、PocDist0の符号、及びPocDist1の符号に依存してよい。
i.一例では、ある種のDMVDは、PocDist0*PocDist1<0のときにのみ行うことができる。
ii.一例では、ある種のDMVDはPocDist0*PocDist1>0のときにのみ行うことができる。
f.代替として、DMVD処理(例えば、DMVR又はBIO)は、PocDist0がPocDist1に等しくないとき、無効にされてよい。
3.DMVR及び/又は他のDMVD方法は、SMVDモードにおいて有効にされてよい。
a.一例では、SMVDモードに従いビットストリームから復号されたMVD/MVは、1個のブロックを復号するために使用される前に、更に精緻化されてよい。
b.一例では、SMVDモードで、MV/MVD精度がNペルである場合、DMVR又は/及び他のDMVD方法は、mvdDmvrによりMVDを精緻化するために使用されてよい。mvdDmvrはMペル精度を有する。N,M=1/16,1/8,1/4,1/2,1,2,4,8,16等である。
i.一例では、MはN以下であってよい。
c.一例では、MVDは、SMVDモードではシグナリングされなくてよく、代わりに、DMVR及び/又は他のDMVD方法が、MVDを精製するために適用されてよい。
i.代替として、更に、AMVR情報はシグナリングされなくてよく、MV/MVD精度は、所定の値を有するよう導出されてよい(例えば、MVDは1/4ペル精度を有する)。
1.一例では、所定の値の指示は、シーケンス/ピクチャ/タイルグループ/スライス/タイル/ビデオデータユニットレベルでシグナリングされてよい。
2.一例では、所定の値は、アフィン又は非アフィン動きのようなモード/動き情報に依存してよい。
d.一例では、DMVR及び/又は他のDMVD方法が適用されるか否かの指示は、SMVDコーディングブロックについてシグナリングされてよい。
i.DMVR及び/又は他のDMVD方法が適用される場合、MVDはシグナリングされなくてよい。
ii.一例では、このような指示は、特定のMV/MVD精度についてシグナリングされてよい。例えば、このような指示は、1ペル及び/又は4ペルMV/MVD精度についてシグナリングされてよい。
iii.一例では、このような指示は、PocDist0がPocDist1に等しく、Ref0が表示順序で現在ピクチャの先行するピクチャであり、Ref1が後続のピクチャであるときにのみシグナリングされてよい。
iv.一例では、このような指示は、PocDist0がPocDist1に等しく、Ref0が表示順序で現在ピクチャの後続のピクチャであり、Ref1が先行するピクチャであるときにのみシグナリングされてよい。
e.一例では、DMVR及び/又は他のDMVD方法がSMVDコーディングブロックに適用されるかどうかは、現在ブロック及び/又は近隣ブロックのコーディング情報に依存してよい。
i.例えば、DMVR及び/又は他のDMVD方法がSMVDコーディングブロックに適用されるかどうかは、現在のブロック寸法(block dimensions)に依存してよい。
ii.例えば、DMVR及び/又は他のDMVD方法がSMVDコーディングブロックに適用されるかどうかは、POCのような参照ピクチャの情報に依存してよい。
iii.例えば、DMVR及び/又は他のDMVD方法がSMVDコーディングブロックに適用されるかどうかは、シグナリングされたMVD情報に依存してよい。
4.DMVR及び/又はBIO及び/又は全部のDMVD方法は、ブロック寸法に対する同じルールに従い有効にされてよい。
a.一例では、DMVR及びBIO及び/又は全部のDMVD方法、及び/又は提案される方法は、次式のとき有効にされてよい。
Figure 0007263529000014
b.一例では、DMVR及びBIO及び/又は全部のDMVD方法は、次式のとき有効にされてよい。
Figure 0007263529000015
c.一例では、ブロックサイズがM*H個、例えば16又は32又は64個のルマサンプルより少ないサンプルを含むとき、DMVR及びBIO及び/又は全部のDMVD方法は許可されない。
d.一例では、ブロックサイズがM*H個、例えば、16又は32又は64個のルマサンプルより多くのサンプルを含むとき、DMVR及びBIO及び/又は全部のDMVD方法は許可されない。
e.代替として、ブロックの幅及び/又は高さの最小サイズがXより小さい又は大きくないとき、DMVR及びBIO及び/又は全部のDMVD方法は許可されない。一例では、Xは8に設定される。
f.代替として、ブロックの幅>th1又は>=th1、及び/又はブロックの高さ>th2又は>=th2であるとき、DMVR及びBIO及び/又は全部のDMVD方法は許可されない。一例では、th1及び/又はth2は64に設定される。
i.例えば、DMVR及びBIO及び/又は全部のDMVD方法は、M×M(例えば、128×128)ブロックについて無効にされる。
ii.例えば、DMVR及びBIO及び/又は全部のDMVD方法は、N×M/M×Nブロック、例えばN>=64,M=128、について無効にされる。
iii.例えば、DMVR及びBIO及び/又は全部のDMVD方法は、N×M/M×Nブロック、例えばN>=4,M=128、について無効にされる。
f.代替として、ブロックの幅<th1又は<=th1、及び/又はブロックの高さ<th2又は<=th2であるとき、DMVR及びBIO及び/又は全部のDMVD方法は許可されない。一例では、th1及び/又はth2は8に設定される。
5.DMVR及び/又はBIO及び/又は全部のDMVD方法は、同じサブブロックレベルで実行されてよい。
a.DMVRのような動きベクトル精緻化処理は、サブブロックレベルで実行されてよい。
i.バイラテラルマッチングが、ブロック全体のレベルの代わりに、サブブロックレベルで行われてよい。
b.BIOが、サブブロックレベルで実行されてよい。
i.一例では、BIOを有効にする/無効にする決定は、サブブロックレベルで行われてよい。
ii.一例では、BIOにおけるサンプル毎の動き精緻化は、サブブロックレベルで行われてよい。
iii.一例では、BIOを有効/無効にする決定、及びBIOにおけるサンプル毎の動き精緻化は、サブブロックレベルで行われてよい。
c.一例では、幅>=LW又は高さ>=LH、或いは幅>=LW及び高さ>=LHを有するブロックのとき、該ブロックは複数のサブブロックに分割されてよい。各サブブロックは、サブブロックサイズと等しいサイズを有する通常のコーディングブロックと同じ方法で扱われる。
i.一例では、Lは64であり、64×128/128×64ブロックは、2個の64×64サブブロックに分割され、128×128ブロックは4個の64×64サブブロックに分割される。しかしながら、N×128/128×Nブロックはサブブロックに分割されず、ここでN<64である。L値はLH及び/又はLWと呼ばれ得る。
ii.一例では、Lは64であり、64×128/128×64ブロックは、2個の64×64サブブロックに分割され、128×128ブロックは4個の64×64サブブロックに分割される。一方で、N×128/128×Nブロックは2個のN×64/64×Nサブブロックに分割される。L値はLH及び/又はLWと呼ばれ得る。
iii.一例では、幅(又は高さ)がLより大きいとき、それは、垂直(又は水平)方向に分割され、サブブロックの幅及び/又は高さはLより大きくない。L値はLH及び/又はLWと呼ばれ得る。
d.一例では、ブロックのサイズ(つまり、幅*高さ)が、閾値L1より大きいとき、それは複数のサブブロックに分割されてよい。各サブブロックは、サブブロックサイズと等しいサイズを有する通常のコーディングブロックと同じ方法で扱われる。
i.一例では、ブロックは、L1より大きくない同じサイズを有するサブブロックに分割される。
ii.一例では、ブロックの幅(又は高さ)が閾値L2より大きくないとき、それは、垂直(又は水平)方向に分割されない。
iii.一例では、L1は1024であり、L2は32である。例えば、16×128ブロックは、2個の16×64サブブロックに分割される。
e.閾値Lは、予め定められ、又はSPS/PPS/ピクチャ/スライス/タイルグループ/タイルレベルでシグナリングされてよい。
f.代替として、閾値は、ブロックサイズ、ピクチャサイズ、時間レイヤ、インデックス、等のような特定のコーディング情報に依存してよい。
6.ある種のDMVDを適用するかどうか及びどのように適用するかの決定は、1回行われ、全部の色成分により共有されてよく、或いは、それは異なる色成分について複数回行われてよい。
a.一例では、DMVDについての決定は、Y(又はG)成分の情報に基づき行われ、他の色成分がそれに従う。
b.一例では、Y(又はG)成分に適用されるDMVDについての決定は、Y(又はG)成分の情報に基づき行われる。そして、Cb(又はCb、又はB、又はR)成分に適用されるDMVDについての決定は、Cb(又はCb、又はB、又はR)成分の情報に基づき行われる。
図23は、ビデオ処理機器2300のブロック図である。機器2300は、ここに記載した方法のうちの1つ以上を実施するために使用されてよい。機器2300は、スマートフォン、タブレット、コンピュータ、モノのインターネット(Internet of Things (IoT))受信機、等において実施されてよい。機器2300は、1つ以上のプロセッサ2302、1つ以上のメモリ2304、及びビデオ処理ハードウェア2306を含んでよい。プロセッサ2302は、本願明細書に記載した1つ以上の方法を実施するよう構成されてよい。メモリ(複数のメモリ)2304は、本願明細書に記載の方法及び技術を実施するために使用されるデータ及びコードを格納するために使用されてよい。ビデオ処理ハードウェア2306は、ハードウェア回路で、本願明細書に記載された幾つかの技術を実施するために使用されてよく、部分的に又は完全に、プロセッサ2302(例えば、グラフィックプロセッサコアGPU又は他の信号処理回路)の部分であってよい。
本願明細書では、用語「ビデオ処理」は、ビデオ符号化、ビデオ復号、ビデオ圧縮、又はビデオ伸長を表してよい。例えば、ビデオ圧縮アルゴリズムは、ビデオをピクセル表現から対応するビットストリーム表現へ又はその逆に変換する間に適用されてよい。現在ビデオブロックのビットストリーム表現は、シンタックスにより定義されるように、例えば、ビットストリーム内の同一位置にある又は異なる場所に拡散しているビットに対応してよい。例えば、マクロブロックは、変換されたコーディングされた誤差残差値の観点で、ヘッダ及びビットストリーム内の他のフィールドのビットも使用して、符号化されてよい。
本願明細書において開示された技術の使用を可能にすることにより、スマートフォン、ラップトップ、デスクトップ、及び類似の装置のようなビデオ処理装置に組み込まれるビデオエンコーダ及びデコーダの実施形態に利益をもたらす幾つかの技術が開示されたことが理解される。
図24Aは、ビデオ処理の例示的な方法2400のフローチャートである。方法2400は、2402で、少なくとも重みパラメータに基づきデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を実施することにより、ビデオの現在ビデオブロックについて精緻化動き情報を取得するステップを含む。ここで、重みパラメータは、現在ビデオブロックの最終予測ブロックの生成処理において予測ブロックに適用される。方法2400は、2404で、少なくとも精緻化動き情報及び重みパラメータを使用して、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2400の幾つかの実施形態では、ビットストリーム表現内のフィールドは、重みパラメータを示す。方法2400の幾つかの実施形態では、重みパラメータの指示は、コーディングユニット重み(Coding unit Weights (BCW))技術により双予測を用いてシグナリングされる。方法2400の幾つかの実施形態では、重みパラメータの指示は、加重予測技術を用いてシグナリングされる。方法2400の幾つかの実施形態では、重みパラメータは導出される。方法2400の幾つかの実施形態では、重みパラメータは、ローカル照明補償(Local Illumination Compensation (LIC))技術を用いて導出される。方法2400の幾つかの実施形態では、重みパラメータは、サンプル値のセットをサンプル値の別のセットにマッピングする再シェーピング処理に関連付けられてよい。方法2400の幾つかの実施形態では、DMVD方式は、重みパラメータを現在ビデオブロックの予測ブロックに適用することにより、実施される。方法2400の幾つかの実施形態では、変換は、先ず、コーディングユニット重み(Coding unit Weights (BCW))インデックスを有する双予測に従う重みパラメータを予測ブロックに適用し、次に、予測コスト関数を計算することにより、現在ビデオブロックについて予測コスト関数を計算することを含む。
方法2400の幾つかの実施形態では、変換は、先ず加重予測方式に従う重みパラメータを予測ブロックに適用し、次に、予測コスト関数を計算することにより、現在ビデオブロックについて予測コスト関数を計算することを含む。方法2400の幾つかの実施形態では、変換は、先ず、ローカル照明補償(Local Illumination Compensation (LIC))方式に従う重みパラメータを予測ブロックに適用し、次に、予測コスト関数を計算することにより、現在ビデオブロックについて予測コスト関数を計算することを含む。方法2400の幾つかの実施形態では、予測コスト関数は勾配関数である。方法2400の幾つかの実施形態では、予測コスト関数は絶対値差分の和(sum of absolute difference (SAD))コスト関数である。方法2400の幾つかの実施形態では、予測コスト関数は平均除去絶対差分和(mean-removed sum of absolute difference (MR-SAD))コスト関数である。
方法2400の幾つかの実施形態では、変換は、先ず、コーディングユニット重み(Coding unit Weights (BCW))インデックスを有する双予測に従う重みパラメータを予測ブロックに適用し、次に時間勾配及び空間勾配を計算することにより、現在ビデオブロックについて、双方向オプティカルフロー(Bi-directional Optical flow (BIO))方式の時間勾配及び空間勾配を計算することを含む。方法2400の幾つかの実施形態では、変換は、先ず、加重予測方式に従う重みパラメータを予測ブロックに適用し、次に時間勾配及び空間勾配を計算することにより、現在ビデオブロックについて、双方向オプティカルフロー(Bi-directional Optical flow (BIO))方式の時間勾配及び空間勾配を計算することを含む。
方法2400の幾つかの実施形態では、変換は、先ず、ローカル照明補償(Local Illumination Compensation (LIC))方式に従う重みパラメータを予測ブロックに適用し、次に時間勾配及び空間勾配を計算することにより、現在ビデオブロックについて、双方向オプティカルフロー(Bi-directional Optical flow (BIO))方式の時間勾配及び空間勾配を計算することを含む。方法2400の幾つかの実施形態では、予測コスト関数又は時間勾配又は空間勾配の計算は、再シェーピングされたドメインにおいて実行される。方法2400の幾つかの実施形態では、再シェーピング処理は、現在ビデオブロックについて精緻化された動き情報により生成された予測ブロックについては無効にされる。
図24Bは、ビデオ処理の例示的な方法2410のフローチャートである。方法2410は、2412で、デコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式の使用が、現在ビデオブロックに対するコーディングツールの使用により、ビデオの現在ビデオブロックとビデオのコーディングされた表現との間の変換について無効にされることを決定するステップを含む。方法2410は、2414で、決定に基づき、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。ここで、コーディングツールは、不均等な重み付け係数を現在ビデオブロックの予測ブロックに適用することを含む。方法2410の幾つかの実施形態では、コーディングツールは、サンプル予測処理で重み係数を使用するよう構成される。
方法2410の幾つかの実施形態では、コーディングツールは、コーディングユニット重み(Coding unit Weights (BCW))モードによる双予測を含む。方法2410の幾つかの実施形態では、BCWモードで2個の予測ブロックに対して使用される2個の重み付け係数は等しくない。方法2410の幾つかの実施形態では、重み付け係数は、現在ビデオブロックによるビットストリーム表現内のフィールド内で示される。幾つかの実施形態では、DMVD方式は、予測コスト関数に基づき精緻化動き情報を導出するデコーダ側動きベクトル精緻化(DMVR)コーディングモードを含む。幾つかの実施形態では、DMVD方式は、勾配計算に基づき精緻化予測を導出する双方向オプティカルフロー(Bi-directional optical flow (BDOF))コーディングモードを含む。方法2410の幾つかの実施形態では、現在ビデオブロックにより使用されているBCWモードは、BCWインデックス及び重み付け係数のインデックスを表すフィールドを使用することを含み、BCWインデックスは0に等しくない。
方法2410の幾つかの実施形態では、コーディングツールは、加重予測モードを含む。方法2410の幾つかの実施形態では、現在ビデオブロックにより使用されている加重予測モードは、現在ビデオブロックの予測ブロックの少なくとも1つに加重予測を適用することを含む。方法2410の幾つかの実施形態では、コーディングツールは、ローカル照明補償(Local Illumination Compensation (LIC))モードを含む。方法2410の幾つかの実施形態では、コーディングツールは、複数仮説予測モードを含む。方法2410の幾つかの実施形態では、第1参照ピクチャの第1重みパラメータ、及び第2参照ピクチャの第2重みパラメータは、現在ビデオブロックの加重予測モードに関連付けられ、第1重みパラメータが第2重みパラメータと異なることに応答して、DMVD方式は、現在ビデオブロックについて無効にされると決定される。
方法2410の幾つかの実施形態では、第1重みパラメータ及び/又は第2重みパラメータは、現在ビデオブロックを含むビデオユニットを有するビットストリーム表現内のフィールド内で示され、ビデオユニットはピクチャ又はスライスのうちの少なくとも1つを含む。方法2410の幾つかの実施形態では、現在ビデオブロックの第1参照ピクチャの第1線形モデルパラメータ、及び現在ビデオブロックの第2参照ピクチャの第2線形モデルパラメータは、第1線形モデルパラメータが第2線形モデルパラメータと異なることに応答して、DMVD方式は、現在ビデオブロックについて無効にされると決定される。
図24Cは、ビデオ処理の例示的な方法2420のフローチャートである。方法2420は、2422で、ビデオの現在ビデオブロックの1つ以上の参照ピクチャのピクチャオーダカウント(POC)値、及び現在ビデオブロックを含む現在ピクチャのPOC値に基づき、現在ビデオブロックについて1つ以上のデコーダ側動きベクトル導出(DMVD)方式を有効又は無効にするかを決定するステップを含む。方法2420は、2424で、決定に従い、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2420の幾つかの実施形態では、1つ以上のDMVD方式を有効又は無効にするかを決定するステップは、現在ビデオブロックの第1参照ピクチャから現在ピクチャまでの第1距離を表す第1POC距離(PocDis0)と、現在ピクチャから現在ビデオブロックの第2参照ピクチャまでの第2距離を表す第2POC距離(PocDis1)との間の関係に基づく。方法2420の幾つかの実施形態では、第1参照ピクチャは、現在ビデオブロックの参照ピクチャリスト0であり、第2参照ピクチャは、現在ビデオブロックの参照ピクチャリスト1である。
方法2420の幾つかの実施形態では、PocDist0は現在ピクチャの第1POC値から第1参照ピクチャの第2POC値を差し引いたものに設定され、PocDist1は第2参照ピクチャの第3POC値から現在ピクチャの第1POC値を差し引いたものに設定される。方法2420の幾つかの実施形態では、PocDis0がPocDis1に等しくないことに応答して、1つ以上のDMVD方式が有効にされる。方法2420の幾つかの実施形態では、1つ以上のDMVD方式の中で1つより多くのDMVD方式を有効又は無効にするかの決定は、PocDis0及びPocDis1に対して適用される同じルールに基づく。方法2420の幾つかの実施形態では、PocDis0がPocDis1に等しいことに応答して、1つ以上のDMVD方式が有効にされる。
方法2420の幾つかの実施形態では、PocDis0をPocDis1により乗算したものが0より小さいことに応答して、1つ以上のDMVD方式が無効にされる。方法2420の幾つかの実施形態では、PocDis0がPocDis1に等しくないことに応答して、1つ以上のDMVD方式が無効にされる。方法2420の幾つかの実施形態では、1つ以上のDMVD方式は、変換中に、第1参照ピクチャリストについて動きベクトル差(motion vector difference (MVD))の第1セット及び第2参照ピクチャリストについてMVDの第2セットを用いて、2個の参照ブロックを識別する。MVDの第1セットは、MVDの第2セットのミラーリングされたバージョンである。方法2420の幾つかの実施形態では、1つ以上のDMVD方式は、変換中に、第1参照ピクチャリストについて動きベクトル差(motion vector difference (MVD))の第1セット及び第2参照ピクチャリストについてMVDの第2セットを用いて、2個の参照ブロックを識別する。MVDの第2セットは、MVDの第1セットのミラーリングされたバージョンである。
方法2420の幾つかの実施形態では、1つ以上のDMVD方式は、変換中に、第1参照ピクチャリストについて動きベクトル差(motion vector difference (MVD))の第1セット及び第2参照ピクチャリストについてMVDの第2セットを用いて、2個の参照ブロックを識別する。MVDの第1セットは、MVDの第2セットのミラーリングされていないバージョンである。方法2420の幾つかの実施形態では、MVDの第1セットは、PocDis0及びPocDis1に従い、MVDの第2セットにスケーリングされる。方法2420の幾つかの実施形態では、(MvdX,MvdY)を含むMVDの第1セットは、以下のように計算されるMVDの第2セットにスケーリングされる:(-MvdX*PocDis1/PocDis0,-MvdY*PocDis1/PocDis0)。方法2420の幾つかの実施形態では、MVDの第2セットは、PocDis0及びPocDis1に従い、MVDの第1セットにスケーリングされる。方法2420の幾つかの実施形態では、(MvdX,MvdY)を含むMVDの第2セットは、以下のように計算されるMVDの第1セットにスケーリングされる:(-MvdX*PocDis0/PocDis1,-MvdY*PocDis0/PocDis1)。
方法2420の幾つかの実施形態では、スケーリングされた動作の除算演算が、ルックアップテーブル、複数演算、又は右-右演算を用いて実施される。方法2420の幾つかの実施形態では、1つ以上のDMVD方式は、DMVD処理中に、ビデオの現在ブロックについて、第1参照ピクチャリストについて動きベクトル差(MVD)の第1セット、及び第2参照ピクチャリストについてMVDの第2セットを、現在ビデオブロックの参照ピクチャのPOC値及び現在ビデオブロックを含む現在ピクチャのPOC値に基づき、決定する。方法2420の幾つかの実施形態では、PocDis0の第1絶対値がPocDis1の第2絶対値より小さい又は等しいことに応答して、MVDの第1セットは、PocDis0及びPocDis1に従いMVDの第2セットを生成するためにスケーリングされる。方法2420の幾つかの実施形態では、PocDis0の第1絶対値がPocDis1の第2絶対値より大きい又は等しいことに応答して、MVDの第1セットは、PocDis0及びPocDis1に従いMVDの第2セットを生成するためにスケーリングされる。
方法2420の幾つかの実施形態では、PocDis1の第2絶対値がPocDis0の第1絶対値より小さい又は等しいことに応答して、MVDの第2セットは、PocDis0及びPocDis1に従いMVDの第1セットを生成するためにスケーリングされる。方法2420の幾つかの実施形態では、PocDis1の第2絶対値がPocDis0の第1絶対値より大きい又は等しいことに応答して、MVDの第2セットは、PocDis0及びPocDis1に従いMVDの第1セットを生成するためにスケーリングされる。方法2420の幾つかの実施形態では、2個の参照ピクチャが、現在ピクチャに先行する第1参照ピクチャ及び現在ピクチャの後に続く第2参照ピクチャを含むことに応答して、MVDの第1セットは、MVDの第2セットを生成するためにミラーリングされ、MVDの第1セット又はMVDの第2セットを取得するためにスケーリングは実行されない。方法2420の幾つかの実施形態では、1つ以上のDMVD方式を有効又は無効にするかを決定するステップは、現在ビデオブロックの第1参照ピクチャから現在ピクチャまでの第1距離を表す第1ピクチャオーダカウント距離(PocDis0)の第1符号と、現在ピクチャから現在ビデオブロックの第2参照ピクチャまでの第2距離を表す第2ピクチャオーダカウント距離(PocDis1)の第2符号と、に基づく。
方法2420の幾つかの実施形態では、第1符号を有するPocDis0を第2符号を有するPocDis1により乗算した結果が0より小さいことに応答して、1つ以上のDMVD方式が有効にされる。方法2420の幾つかの実施形態では、第1符号を有するPocDis0を第2符号を有するPocDis1により乗算した結果が0より大きいことに応答して、1つ以上のDMVD方式が有効にされる。方法2420の幾つかの実施形態では、1つ以上のDMVD方式は、現在ビデオブロックの第1参照ピクチャから現在ピクチャまでの第1距離を表す第1ピクチャオーダカウント距離(PocDis0)が、現在ピクチャから現在ビデオブロックの第2参照ピクチャまでの第2距離を表す第2ピクチャオーダカウント距離(PocDis1)と等しくないことに応答して、無効にされる。
方法2420の幾つかの実施形態では、第1参照ピクチャリストの動き情報は、MVDの第1セットを用いて精緻化され、第2参照ピクチャリストの動き情報は、MVDの第2セットを用いて精緻化される。方法2420の幾つかの実施形態では、第1参照ピクチャリストは参照ピクチャリスト0であり、第2参照ピクチャリストは参照ピクチャリスト1である。
図24Dは、ビデオ処理の例示的な方法2430のフローチャートである。方法2430は、2432で、現在ビデオブロックについてデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を実施することにより、ビデオの現在ビデオブロックについて精緻化動き情報を取得するステップを含む。ここで、対称動きベクトル差(symmetric motion vector difference (SMVD))モードが、現在ビデオブロックについて有効にされる。方法2430は、2434で、精緻化動き情報を使用して、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2430の幾つかの実施形態では、ビットストリーム表現は、精緻化動き情報の動きベクトル差(MVD)を含み、MVDは、SMVDモードに従い復号され、現在ビデオブロックを復号するために使用される前に更に精緻化される。方法2430の幾つかの実施形態では、SMVDモードでは、動きベクトル(MV)精度又はMVD精度をNペル精度からMペル精度に変更することにより、精緻化動き情報の動きベクトル差(MVD)を精緻化するために、DMVD方式が使用される。ここで、N及びMは1/16、1/8、1/4、1/2、1、2、4、8、又は16に等しい。方法2430の幾つかの実施形態では、MはN以下である。方法2430の幾つかの実施形態では、ビットストリーム表現は、SMVDモードで精緻化動き情報の動きベクトル差(MVD)についてのシグナリングを含まず、MVDはDMVD方式を用いて生成される。
方法2430の幾つかの実施形態では、適応動きベクトル差精度(Adaptive Motion Vector difference Resolution (AMVR))情報は、SMVDモードでコーディングされたビデオブロックについてビットストリーム表現の中でシグナリングされず、精緻化動き情報の動きベクトル(MV)精度又は動きベクトル差(MVD)精度は、所定の値に従い導出される。方法2430の幾つかの実施形態では、MV精度又はMVD精度は1/4ペル精度である。方法2430の幾つかの実施形態では、所定の値は、シーケンス、ピクチャ、タイルグループ、スライス、タイル、ビデオデータユニットレベルで、ビットストリーム表現内でシグナリングされる。方法2430の幾つかの実施形態では、所定の値は、モード情報又は動き情報に依存する。方法2430の幾つかの実施形態では、モード情報又は動き情報は、アフィン動き情報又は非アフィン動き情報を含む。
図24Eは、ビデオ処理の例示的な方法2440のフローチャートである。方法2440は、2442で、現在ビデオブロックを含むビデオのビットストリーム表現に基づき、現在ビデオブロックについてデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を有効又は無効にするかを決定するステップを含む。ここで、対称動きベクトル差(symmetric motion vector difference (SMVD))モードが、現在ビデオブロックについて有効にされる。方法2440は、2444で、DMVD方式が有効にされると決定した後に、現在ビデオブロックについてDMVD方式を実施することにより、現在ビデオブロックについて精緻化動き情報を取得するステップを含む。方法2440は、2446で、精緻化動き情報を使用して、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2440の幾つかの実施形態では、DMVD方式が有効にされていることに応答して、動きベクトル差(MVD)は、ビットストリーム表現内でシグナリングされない。方法2440の幾つかの実施形態では、DMVD方式が有効又は無効にされるかを示すフィールドは、1つ以上の動きベクトル(MV)精度又は動きベクトル差(MVD)精度についてビットストリーム表現内に存在する。方法2440の幾つかの実施形態では、1つ以上のMV精度又はMVD精度は1ペル及び/又は4ペル精度である。
方法2440の幾つかの実施形態では、DMVD方式が有効又は無効にされることを示すフィールドは、現在ビデオブロックの第1参照ピクチャから現在ピクチャまでの第1距離を表す第1ピクチャオーダカウント距離(PocDis0)が、現在ピクチャから現在ビデオブロックの第2参照ピクチャまでの第2距離を表す第2ピクチャオーダカウント距離(PocDis1)と等しいことに応答して、ビットストリーム表現内に存在し、第1参照ピクチャ(Ref0)は表示順で現在ピクチャに先行し、第2参照ピクチャ(Ref1)は現在ピクチャの後に続く。
方法2440の幾つかの実施形態では、DMVD方式が有効又は無効にされるかを示すフィールドは、現在ビデオブロックの第1参照ピクチャ(Ref0)から現在ピクチャまでの第1距離を表す第1ピクチャオーダカウント距離(PocDis0)が、現在ピクチャから現在ビデオブロックの第2参照ピクチャ(Ref1)までの第2距離を表す第2ピクチャオーダカウント距離(PocDis1)と等しいことに応答して、ビットストリーム表現内に存在し、第2参照ピクチャ(Ref1)は表示順で現在ピクチャに先行し、第1参照ピクチャ(Ref0)は現在ピクチャの後に続く。
方法2440の幾つかの実施形態では、DMVD方式は、現在ビデオブロックの及び/又は1つ以上の近隣ブロックのコーディング情報に基づき、SMVDモードで有効にされる。方法2440の幾つかの実施形態では、DMVD方式は、現在ビデオブロックのブロック寸法(block dimensions)に基づき、SMVDモードで有効にされる。方法2440の幾つかの実施形態では、DMVD方式は、現在ビデオブロックの参照ピクチャに関連する情報に基づき、SMVDモードで有効にされる。方法2440の幾つかの実施形態では、参照ピクチャに関連する情報は、ピクチャオーダカウント(picture order count (POC))情報を含む。方法2440の幾つかの実施形態では、DMVD方式は、ビットストリーム表現内の動きベクトル差(motion vector difference (MVD))情報に基づき、SMVDモードで有効にされる。方法2440の幾つかの実施形態では、1つ以上のDMVD方式は、デコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方式を含む。方法2430及び2440の幾つかの実施形態では、DMVD方式は、デコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方式を含む。方法2430の幾つかの実施形態では、1つ以上のDMVD方式は、双方向オプティカルフロー(bi-directional optical flow (BDOF))方式を含む。方法2430及び2440の幾つかの実施形態では、DMVD方式は、双方向オプティカルフロー(bi-directional optical flow (BDOF))方式を含む。
図24Fは、ビデオ処理の例示的な方法2450のフローチャートである。方法2450は、2452で、ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、複数のデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式が、現在ビデオブロックとビデオのビットストリーム表現との間の変換について有効又は無効にされるかを決定するステップを含む。方法2450は、2454で、決定に基づき返還を実行するステップを含む。
方法2450の幾つかの実施形態では、複数のDMVD方式は、(W*H)>=T1及びH>=T2,であることに応答して有効であると決定され、ここで、W及びHはそれぞれ現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である。方法2450の幾つかの実施形態では、T1は64であり、T2は8である。方法2450の幾つかの実施形態では、複数のDMVD方式は、H>=T1、及びWがT2に等しくないか又はHがT1に等しくないことに応答して有効であると決定され、ここで、W及びHはそれぞれ現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である。方法2450の幾つかの実施形態では、T1は8であり、T2は4である。
方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの第1サンプル数が第2サンプル数より少ないことに応答して無効であると決定される。方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの第1サンプル数が第2サンプル数より多いことに応答して無効であると決定される。方法2450の幾つかの実施形態では、第2サンプル数は16ルマサンプル又は32ルマサンプル又は64ルマサンプル又は128ルマサンプルである。方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの幅が値より少ないことに応答して無効であると決定される。
方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの高さが値より少ないことに応答して無効であると決定される。方法2450の幾つかの実施形態では、該値は8である。方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの幅が第1閾値より大きい又は等しいことに応答して、及び/又は、現在ビデオブロックの高さが第2閾値より大きい又は等しいことに応答して、無効であると決定される。方法2450の幾つかの実施形態では、幅は128であり、高さは128である。方法2450の幾つかの実施形態では、幅は64以上であり、高さは128であるか、又は、幅は128であり、高さは64以上である。方法2450の幾つかの実施形態では、幅は4以上であり、高さは128であるか、又は、幅は128であり、高さは4以上である。方法2450の幾つかの実施形態では、第1閾値及び第2閾値は64である。
方法2450の幾つかの実施形態では、複数のDMVD方式は、現在ビデオブロックの幅が第1閾値より小さい又は等しいことに応答して、及び/又は、現在ビデオブロックの高さが第2閾値より小さい又は等しいことに応答して、無効であると決定される。方法2450の幾つかの実施形態では、第1閾値及び第2閾値は8である。方法2450の幾つかの実施形態では、複数のDMVD方式は、コスト関数に基づき精緻化動き情報を導出するデコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方式を含む。方法2450の幾つかの実施形態では、複数のDMVD方式は、勾配計算に基づき精緻化動き情報を導出する双方向オプティカルフロー(bi-directional optical flow (BDOF))方式を含む。
図24Gは、ビデオ処理の例示的な方法2460のフローチャートである。方法2460は、2462で、ビデオの現在ビデオブロックについて、サブブロックレベル又はブロックレベルで複数のデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を実行するかどうかを決定するステップを含む。方法2460は、2464で、複数DMVD方式がサブブロックレベルで実行されると決定した後に、現在ビデオブロックについて同じサブブロックレベルで複数DMVD方式を実施することにより、現在ビデオブロックについて精緻化動き情報を取得するステップを含む。方法2460は、2466で、精緻化動き情報を使用して、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2460の幾つかの実施形態では、複数DMVD方式は、デコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方式を含む。方法2460の幾つかの実施形態では、精緻化動き情報は、現在ビデオブロックについて、サブブロックレベルでDMVD方式においてバイラテラルマッチングを適用ことにより取得される。方法2460の幾つかの実施形態では、複数のDMVD方式は、双方向オプティカルフロー(bi-directional optical flow (BDOF))コーディング方式を含む。方法2460の幾つかの実施形態では、BDOFコーディング方式は、現在ビデオブロックについて、サブブロックレベルで有効又は無効にされると決定される。方法2460の幾つかの実施形態では、BDOFコーディング方式は有効であると決定され、精緻化動き情報は、BDOFコーディング方式において現在ビデオブロックのサブブロックレベルで実行される動き情報のサンプル毎の精緻化を実行ことにより、取得される。
方法2460の幾つかの実施形態では、BDOFコーディング方式は、現在ビデオブロックのサブブロックレベルで有効又は無効であると決定され、BDOFコーディング方式におけるサンプル毎の動き情報精緻化処理は、現在ビデオブロックのサブブロックレベルで実行されると決定される。方法2460の幾つかの実施形態では、サブブロックの幅及び高さは両方とも16に等しい。方法2460の幾つかの実施形態では、現在ビデオブロックは、以下: 現在ビデオブロックの第1幅が値より大きい又は等しいこと、又は、現在ビデオブロックの第1高さが該値より大きい又は等しい、又は、第1幅が該値より大きい又は等しく、第1高さが該値より大きい又は等しい、ことに応答して複数のサブブロックに分割される。
方法2460の幾つかの実施形態では、複数のサブブロックの各々は、サブブロックサイズと等しいサイズを有するコーディングブロックと同じ方法で、1つ以上のDMVD方式により処理される。方法2460の幾つかの実施形態では、該値は64であり、現在ビデオブロックが64の第1幅と128の第1高さを有すること、又は128の第1幅と64の第1高さを有することに応答して、現在ビデオブロックは2個のサブブロックに分割され、該2個のサブブロックの各々は64の第2幅及び第2高さを有する。方法2460の幾つかの実施形態では、該値は64であり、現在ビデオブロックが128の第1幅と128の第1高さを有することに応答して、現在ビデオブロックは4個のサブブロックに分割され、該4個のサブブロックの各々は64の第2幅及び第2高さを有する。
方法2460の幾つかの実施形態では、現在ビデオブロックがNの第1幅と128の第1高さを有すること、又は128の第1幅とNの第1高さを有することに応答して、現在ビデオブロックはサブブロックに分割されない、ここでNは64より小さい。方法2460の幾つかの実施形態では、該値は64であり、現在ビデオブロックがNの第1幅と128の第1高さを有すること、又は128の第1幅とNの第1高さを有することに応答して、現在ビデオブロックは2個のサブブロックに分割され、該2個のサブブロックの各々はNの第2幅及び64の第2高さを有するか、又は64の第2幅及びNの第2高さを有する。
方法2460の幾つかの実施形態では、現在ビデオブロックの第1幅が値より大きいことに応答して、現在ビデオブロックは垂直方向に分割され、現在ビデオブロックのサブブロックの第2幅は該値より小さい又は等しい。方法2460の幾つかの実施形態では、現在ビデオブロックの第1高さが値より大きいことに応答して、現在ビデオブロックは水平方向に分割され、現在ビデオブロックのサブブロックの第2高さは該値より小さい又は等しい。方法2460の幾つかの実施形態では、該値は16である。方法2460の幾つかの実施形態では、現在ビデオブロックのサブブロックの第2幅は16である。方法2460の幾つかの実施形態では、現在ビデオブロックのサブブロックの第2高さは16である。方法2460の幾つかの実施形態では、現在ビデオブロックの第1サイズが第1閾値より大きいことに応答して、現在ビデオブロックは複数のサブブロックに分割される。方法2460の幾つかの実施形態では、複数のサブブロックの各々は、サブブロックサイズと等しい第2サイズを有するコーディングブロックと同じ方法で、1つ以上のDMVD方式により処理される。
方法2460の幾つかの実施形態では、複数のサブブロックの各々は、第1閾値より小さい又は等しい同じサイズを有する。方法2450及び2460の幾つかの実施形態では、現在ビデオブロックはルマビデオブロックである。方法2450の幾つかの実施形態では、複数のDMVD方式を有効又は無効にするかどうかを決定するステップは、ルマビデオブロックに対して実行され、関連付けられたクロマビデオブロックにより共有される。方法2460の幾つかの実施形態では、サブブロックレベルで複数のDMVD方式を実行するかどうかを決定するステップは、ルマビデオブロックに対して実行され、関連付けられたクロマビデオブロックにより共有される。方法2460の幾つかの実施形態では、現在ビデオブロックの高さ又は幅が第2閾値より小さい又は等しいことに応答して、現在ビデオブロックは複数のサブブロックに水平方向又は垂直方向に分割されないと決定される。方法2460の幾つかの実施形態では、第1閾値は1024であり、第2閾値は32である。
方法2460の幾つかの実施形態では、該値は、現在ビデオブロックについて、予め定義されるか、又は、シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、ピクチャ、スライス、タイルグループ、又はタイルレベルで、シグナリングされる。方法2460の幾つかの実施形態では、該値又は第1閾値又は第2閾値は、現在ビデオブロックのコーディング情報に依存する。方法2460の幾つかの実施形態では、サブブロックサイズの決定は、複数のDMVD方式について同じである。方法2460の幾つかの実施形態では、現在ビデオブロックのコーディング情報は、現在ビデオブロックのブロックサイズ又はピクチャタイプ又は時間レイヤインデックスを含む。方法2460の幾つかの実施形態では、現在ビデオブロックの複数のDMVD方式は、現在ビデオブロックの全部のDMVD方式を含む。
図24Hは、ビデオ処理の例示的な方法2470のフローチャートである。方法2470は、2472で、ビデオの現在ビデオブロックの複数の成分について、デコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を有効又は無効にするかを決定するステップを含む。方法2470は、2474で、DMVD方式が有効にされると決定した後に、DMVD方式を実施することにより、現在ビデオブロックについて精緻化動き情報を取得するステップを含む。方法2470は、2476で、DMVD方式の実施中に、現在ビデオブロックとビデオのビットストリーム表現との間の変換を実行するステップを含む。
方法2470の幾つかの実施形態では、DMVD方式を有効又は無効にするかどうかを決定するステップは、1回実行され、複数の成分により共有される。方法2470の幾つかの実施形態では、DMVDを有効又は無効にするかどうかを決定するステップは、複数の成分について複数回実行される。方法2470の幾つかの実施形態では、DMVDを有効又は無効にするかどうかを決定するステップは、最初に複数の成分のうちの1つの成分について実行され、次に複数の成分のうちの1つ以上の残りの成分について実行されるか又は共有される。方法2470の幾つかの実施形態では、1つの成分はルマ成分又は緑色成分である。方法2470の幾つかの実施形態では、DMVDを有効又は無効にするかどうかを決定するステップは、1つの成分の情報に基づき、複数の成分のうちの1つの成分について実行される。方法2470の幾つかの実施形態では、1つの成分はルマ成分、クロマ成分、緑色成分、青色成分、又は赤色成分である。
幾つかの実施形態は、以下の項に基づく形式を用いて記述され得る。
(項1)ビデオ処理方法は、プロセッサにより、現在ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換の間に、導出ルールに基づきパラメータを導出することにより、動きベクトル精緻化のためにデコーダ側動きベクトル導出(DMVD)方式を実施するステップを含む方法。
(項2)前記パラメータは、前記現在ビデオブロックの最終予測ブロックに適用されるパラメータから導出される、項1に記載の技術。
(項3)前記パラメータは、前記ビットストリーム表現内でシグナリングされる、項1に記載の技術。
(項4)前記パラメータは、前記プロセッサにより導出される、項1に記載の技術。
(項5)前記導出ルールは、前記DMVD方式について最終予測ブロックを導出することに使用されるパラメータを使用するよう指定する、項1~4のいずれかに記載の技術。
(項6)前記変換は、先ず一般双方向コーディング重み又は加重予測方式の重み又はローカル照明補償方式の重みのうちの1つを双方向オプティカルフロー方式の時間又は空間勾配に適用し、次に予測コスト関数を計算することにより、前記現在ビデオブロックについて前記予測コスト関数を計算するステップを含む、項5に記載の技術。
(項7)前記予測コスト関数は、勾配関数又は絶対差分和(sum of absolute difference (SAD))コスト関数である、項6に記載の技術。
(項8)前記パラメータは、前記最終予測ブロックのローカル照明補償のためのパラメータである、項2に記載の技術。
(項9)ビデオ処理方法であって、現在ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換の間に、有効化(enablement)ルールに基づき、動きベクトル精緻化のためにデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を選択的に使用するステップを含む方法。
(項10)前記有効化ルールは、前記変換が一般双方向コーディングモード又はローカル照明補償モード又は加重予測モード又は複数仮説予測モードを使用する場合に、前記DMVD方式を無効にすることを指定する、項9に記載の技術。
(項11)前記有効化ルールは、不均等なピクチャオーダカウント距離を使用する双予測ブロックである前記現在ビデオブロックについて前記DMVD方式を使用することを指定する、項9に記載の技術。
(項12)前記有効化ルールは、現在ビデオブロックの双方向予測の2つの方向を表すピクチャオーダカウント距離PocDis0及びPocDis1の間の関係に基づき、前記DMVD方式を使用することを指定する、項9に記載の技術。
(項13)前記有効化ルールは、PocDis0=PocDis1の場合に、前記DMVD方式を使用することを指定する、項12に記載の技術。
(項14)前記有効化ルールは、PocDis0がPocDis1と等しくない場合に、前記DMVD方式を使用することを指定する、項12に記載の技術。
(項15)前記有効化ルールは、PocDis0をPocDis1により乗算したものが0より小さい場合に、前記DMVD方式を使用することを指定する、項12に記載の技術。
(項16)前記DMVD方式は、前記変換の間の2つの参照ピクチャリストとして、リスト0及びリスト1を使用し、リスト0はリスト1のミラーリングされたバージョンである、項9~14のいずれかに記載の技術。
(項17)前記DMVD方式は、PocDis0及びPocDis1距離に基づくスケーリングに従い、リスト0及びリスト1の動きベクトル差を使用することを含む、項15に記載の技術。
(項18)前記DMVD方式は、リスト0の動きベクトル差を使用してリスト1の差にスケーリングすることを含む、項17に記載の技術。
(項19)前記DMVD方式は、リスト1の動きベクトル差を使用してリスト0の差にスケーリングすることを含む、項17に記載の技術。
(項20)前記DMVD方式は、前記参照ピクチャのピクチャオーダカウントに従い参照ピクチャを使用することを含む、項9~14のいずれかに記載の技術。
(項21)前記有効化ルールは前記現在ビデオブロックの次元に基づく、項9に記載の技術。
(項22)前記DMVD方式は、W*H>=T1&&H>=T2の場合に有効であるデコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))を含み、W及びHは前記現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である、項21に記載の技術。
(項23)前記DMVD方式は、W*H>=T1&&H>=T2の場合に有効である双方向オプティカル(bidirectional optical (BIO))コーディング方法を含み、W及びHはそれぞれ前記現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である、項21に記載の技術。
(項24)前記DMVD方式は、次式
Figure 0007263529000016
の場合に有効であるデコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))を含み、W及びHは前記現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である、項21に記載の技術。
(項25)前記DMVD方式は、次式
Figure 0007263529000017
の場合に有効である双方向オプティカルフロー(bidirectional optical flow(BIO))コーディング方式を含み、W及びHはそれぞれ前記現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である、項21に記載の技術。
(項26)前記DMVD方式は、デコーダ側動きベクトル精緻化(decoder-side motion vector refinement (DMVR))方式又は双方向オプティカルフロー(bidirectional optical flow (BIO))コーディング方式であり、前記DMVD方式は、前記現在ビデオブロックが幅>th1又は高さ>th2を有する場合に無効にされる、項9~21のいずれかに記載の技術。
(項27)ビデオ処理技術であって、現在ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換の間に、ルールに基づき前記DMVD方式をサブブロックレベルで適用することにより、動きベクトル精緻化のためにデコーダ側動きベクトル導出(decoder-side motion vector derivation (DMVD))方式を選択的に使用するステップを含む技術。
(項28)前記DMVD方式は、デコーダ側動きベクトル精緻化(ecoder-side motion vector refinement (DMVR))方式又は双方向オプティカルフロー(bidirectional optical flow (BIO))方式である、項27に記載の技術。
(項29)前記DMVD方式は前記BIO方式であり、前記ルールは、サブブロック毎に前記DMVD方式の適用可能性を指定する、項28に記載の技術。
(項30)前記現在ビデオブロックは、幅>=LW又は高さ>=LHを有し、或いは幅*高さが閾値L1より大きく、L1、L、W、及びHは整数であり、前記変換は、前記現在ビデオブロックを複数のサブブロックに分割することにより実行され、該サブブロックは前記DMVD方式を用いて更に処理される、項29に記載の技術。
(項31)前記分割するステップは、前記現在ビデオブロックを水平方向に分割するステップを含む、項30に記載の技術。
(項32)前記分割するステップは、前記現在ビデオブロックを垂直方向に分割するステップを含む、項30に記載の技術。
(項33)Lは、シーケンスパラメータセットレベル、ピクチャパラメータセットレベル、ピクチャレベル、スライスレベル、タイルグループレベル、又はタイルレベルで、前記ビットストリーム表現内でシグナリングされるか、又は、Lは、前記現在ビデオブロックのサイズ又は前記現在ビデオブロックを含むピクチャのタイプ又は前記現在ビデオブロックの時間レイヤインデックスに基づき暗示的にシグナリングされる、項30~32のいずれかに記載の技術。
(項34)前記DMVDは、前記現在ビデオブロックのルマ又はクロマタイプに依存して、前記現在ビデオブロックに適用される、項1~33のいずれかに記載の技術。
(項35)前記変換は、ブロックについて前記DMVD方式を使用することの決定又は前記現在ビデオブロックに対応する異なるルマ又はクロマタイプに基づき決定される前記DMVD方式を使用する、項1~34のいずれかに記載の技術。
(項36)前記DMVD方式は、デコーダ側動きベクトル精緻化方式又は双方向オプティカルフロー方式を含む、項1~35に記載の技術。
(項37)ビデオ処理技術であって、現在ビデオブロックは対称動きベクトル差コーデック技術を使用し、前記現在ビデオブロックと前記現在ビデオブロックのビットストリーム表現との間の変換の間に、デコーダ側動きベクトル導出技術を使用するステップであって、前記デコーダ側動きベクトル導出技術により、前記現在ビデオブロックの動きベクトルが前記変換中に精緻化され、前記対称動きベクトル差コーデック技術は対称動きベクトル差導出を使用する、ステップと、前記デコーダ側動きベクトル導出技術を使用して前記変換を実行するステップと、を含む技術。
(項38)前記デコーダ側動きベクトル導出技術は、デコーダ側動きベクトル精緻化を含む、項37に記載の技術。
(項39)前記デコーダ側動きベクトル導出技術は、動きベクトル精度を、前記対称動きベクトル差コーデック技術に使用されるNペルからMペル精度へと変更し、N及びMは整数の分数であり、N及びMは1/16、1/8、1/4、1/2、1、2、4、8、又は16に等しい、項37~38のいずれかに記載の技術。
(項40)MはN以下である、項39に記載の技術。
(項41)前記ビットストリーム表現は、前記現在ビデオブロックの動きベクトル差指示を排除し、前記デコーダ側動きベクトル導出技術は、前記動きベクトル差を導出するために使用される、項37~41のいずれかに記載の技術。
(項42)前記ビットストリーム表現は、前記デコーダ側動きベクトル導出技術及び前記対称動きベクトル導出技術が前記現在ビデオブロックの前記変換のために使用されるか否かを示す、項37~42のいずれかに記載の技術。
(項43)前記変換は、前記現在ビデオブロックから前記ビットストリーム表現を生成すること、又は前記ビットストリーム表現から前記現在ビデオブロックを生成すること、を含む、項1~42のいずれかに記載の技術。
(項44)ビデオ符号化機器であって、項1~43のうちの1つ以上に記載の方法を実施するよう構成されるプロセッサを含むビデオ符号化機器。
(項45)ビデオ復号機器であって、項1~43のうちの1つ以上に記載の方法を実施するよう構成されるプロセッサを含むビデオ復号機器。
(項46)格納されたコードを有するコンピュータ可読媒体であって、前記コードは、実行されると、プロセッサに項1~43のうちの1つ以上に記載の方法を実施させる、コンピュータ可読媒体。
図26は、ここに開示される種々の技術が実施され得る例示的なビデオ処理システム2100を示すブロック図である。種々の実装は、システム2100のコンポーネントの一部又は全部を含んでよい。システム2100は、ビデオコンテンツを受信する入力2102を含んでよい。ビデオコンテンツは、生(raw)又は非圧縮フォーマット、例えば8又は10ビット複数成分ピクセル値で受信されてよく、或いは圧縮又は符号化フォーマットであってよい。入力2102は、ネットワークインタフェース、周辺機器バスインタフェース、又はストレージインタフェースを表してよい。ネットワークインタフェースの例は、イーサネット(登録商標)、受動光ネットワーク(passive optical network (PON))等のような有線インタフェース、及びWi-Fi又はセルラインタフェースのような無線インタフェースを含む。
システム2100は、本願明細書に記載された種々のコーディング又は符号化方法を実施し得るコーディングコンポーネント2104を含んでよい。コーディングコンポーネント2104は、入力2102からコーディングコンポーネント2104の出力へのビデオの平均ビットレートを低減して、ビデオのコーディング表現を生成してよい。コーディング技術は、従って、時に、ビデオ圧縮又はビデオトランスコーディング技術と呼ばれる。コーディングコンポーネント2104の出力は、コンポーネント2106により表されるように、格納されるか、又は通信接続を介して送信されてよい。入力2102で受信された、格納され又は通信されたビットストリーム(又はコーディングされた)表現は、コンポーネント2108により、ディスプレイインタフェース2110へ送信されるピクセル値又は表示可能なビデオを生成するために、使用されてよい。ビットストリーム表現からユーザに閲覧可能なビデオを生成する処理は、時に、ビデオ伸長と呼ばれる。更に、特定のビデオ処理動作は「コーディング」動作又はツールと呼ばれるが、コーディングツール又は動作は、エンコーダにおいて使用され、コーディングの結果を逆にする対応する復号ツール又は動作がデコーダにより実行されることが理解される。
周辺機器バスインタフェース又はディスプレイインタフェースの例は、ユニバーサルシリアルバス(universal serial bus (USB))又は高解像度マルチメディアインタフェース(high definition multimedia interface (HDMI(登録商標)))又はディスプレイポート(Displayport)、等を含んでよい。ストレージインタフェースの例は、SATA(serial advanced technology attachment)、PCI、IDEインタフェース、等を含む。本願明細書に記載した技術は、移動電話機、ラップトップ、スマートフォン、又はデジタルデータ処理を実行可能な他の装置、及び/又はビデオディスプレイのような種々の電子装置に実装されてよい。
開示した技術の幾つかの実施形態は、ビデオ処理ツール又はモードを有効にすることの決定又は判断を行うことを含む。例では、ビデオ処理ツール又はモードが有効にされると、エンコーダは、ビデオのブロックの処理において該ツール又はモードを使用又は実施するが、必ずしもツール又はモードの使用に基づき結果として生じるビットストリームを変更する必要はない。つまり、ビデオのブロックからビデオのビットストリーム表現への変換は、決定又は判断に基づき有効にされるとき、ビデオ処理ツール又はモードを使用する。別の例では、ビデオ処理ツール又はモードが有効にされると、デコーダは、ビットストリームがビデオ処理ツール又はモードに基づき変更されているという知識により、ビットストリームを処理する。つまり、ビデオのビットストリーム表現からビデオのブロックへの変換は、決定又は判断に基づき有効にされたビデオ処理ツール又はモードを使用して実行される。
開示した技術の幾つかの実施形態は、ビデオ処理ツール又はモードを無効にすることの決定又は判断を行うことを含む。例では、ビデオ処理ツール又はモードが無効にされるとき、エンコーダは、ビデオのブロックをビデオのビットストリーム表現へ変換する際にツール又はモードを使用しない。別の例では、ビデオ処理ツール又はモードが無効にされると、デコーダは、決定又は判断に基づきビットストリームがビデオ処理ツール又はモードを用いて変更されていないという知識により、ビットストリームを処理する。
図27は、本開示の技術を利用し得る例示的なビデオコーディングシステム100を示すブロック図である。図27に示されるように、ビデオコーディングシステム100は、ソース装置110と宛先装置120とを含んでよい。ソース装置110は、ビデオ符号化装置と呼ばれてよく、符号化ビデオデータを生成する。宛先装置120は、ビデオ復号装置と呼ばれてよく、ソース装置110により生成された符号化ビデオデータを復号してよい。ソース装置110は、ビデオソース112、ビデオエンコーダ114、及び入力/出力(I/O)インタフェース116を含んでよい。
ビデオソース112は、ビデオキャプチャ装置のようなソース、ビデオコンテンツプロバイダからビデオデータを受信するインタフェース、及び/又はビデオデータを生成するコンピュータグラフィックシステム、又はそのようなソースの組合せを含んでよい。ビデオデータは、1つ以上のピクチャを含んでよい。ビデオエンコーダ114は、ビデオソース112からのビデオデータを符号化して、ビットストリームを生成する。ビットストリームは、ビデオデータのコーディング表現を形成するビットのシーケンスを含んでよい。ビットストリームは、コーディングピクチャ及び関連データを含んでよい。コーディングピクチャは、ピクチャのコーディング表現である。関連データは、シーケンスパラメータセット、ピクチャパラメータセット、及び他のシンタックス構造を含んでよい。I/Oインタフェース116は、変調器/復調器(モデム)及び/又は送信機を含んでよい。符号化ビデオデータは、I/Oインタフェース116を介してネットワーク130aを通じて、宛先装置120へ直接送信されてよい。符号化ビデオデータは、宛先装置120によるアクセスのために、記憶媒体/サーバ130bに格納されてもよい。
宛先装置120は、I/Oインタフェース126、ビデオデコーダ124、及びディスプレイ装置122を含んでよい。
I/Oインタフェース126は、受信機及び/又はモデムを含んでよい。I/Oインタフェース126は、ソース装置110又は記憶媒体/サーバ130bから符号化ビデオデータを取得してよい。ビデオデコーダ124は、符号化ビデオデータを復号してよい。ディスプレイ装置122は、復号ビデオデータをユーザに表示してよい。ディスプレイ装置122は、宛先装置120に統合されてよく、又は宛先装置120の外部にあり、外部ディスプレイ装置とインタフェースするよう構成されてよい。
ビデオエンコーダ114及びビデオデコーダ124は、高効率ビデオコーディング(High Efficiency Video Coding (HEVC))規格、バーサタイルビデオコーディング(Versatile Video Coding (VVM))規格、及び他の現在及び/又は将来の規格のような、ビデオ圧縮規格に従い動作してよい。
図28は、図27に示したシステム100の中のビデオエンコーダ114であってよいビデオエンコーダ200の例を示すブロック図である。
ビデオエンコーダ200は、本開示の技術のうちのいずれか又は全部を実行するよう構成されてよい。図28の例では、ビデオエンコーダ200は複数の機能コンポーネントを含む。本開示に記載した技術は、ビデオエンコーダ200の種々のコンポーネントの間で共有されてよい。幾つかの例では、プロセッサは、本開示に記載した技術のうちのいずれか又は全部を実行するよう構成されてよい。
ビデオエンコーダ200の機能コンポーネントは、パーティションユニット201、モード選択ユニット203と動き推定ユニット204と動き補償ユニット205とイントラ予測ユニット206とを含んでよい予測ユニット202、残差生成ユニット207、変換ユニット208、量子化ユニット209、逆量子化ユニット210、逆変換ユニット211、再構成ユニット212、バッファ213、及びエントロピー符号化ユニット214を含んでよい。
他の例では、ビデオエンコーダ200は、より多くの、より少ない、又は異なる機能コンポーネントを含んでよい。例では、予測ユニット202は、イントラブロックコピー(intra block copy (IBC))ユニットを含んでよい。IBCユニットは、IBCモードで予測を実行してよく、IBCモードでは少なくとも1つの参照ピクチャが現在ビデオブロックの位置するピクチャである。
更に、動き推定ユニット204及び動き補償ユニット205のような幾つかのコンポーネントは、高度に統合されてよいが、説明の目的で図28の例では別個に表される。
パーティションユニット201は、ピクチャを1つ以上のビデオブロックにパーティションする。ビデオエンコーダ200及びビデオデコーダ300は、種々のビデオブロックサイズをサポートしてよい。
モード選択ユニット203は、コーディングモード、イントラ又はインターのうちの1つを、例えば誤差結果に基づき選択し、結果として生じたイントラ又はインターコーディングされたブロックを残差ブロックデータを生成するために残差生成ユニット207に、及び参照ピクチャとして使用するために符号化ブロックを再構成するために再構成ユニット212に提供してよい。幾つかの例では、モード選択ユニット203は、結合イントラ及びインター予測(combination of intra and inter predication (CIIP))モードを選択してよい。CIIPモードでは、予測はインター予測信号及びイントラ予測信号に基づく。モード選択ユニット203は、インター予測の場合に、ブロックについて動きベクトルの解像度(例えば、サブピクセル又は整数ピクセル精度)を選択してもよい。
現在ビデオブロックに対してインター予測を実行するために、動き推定ユニット204は、バッファ213からの1つ以上の参照フレームを現在ビデオブロックと比較することにより、現在ビデオブロックについて動き情報を生成してよい。動き補償ユニット205は、動き情報及び現在ビデオブロックに関連するピクチャ以外のバッファ213からのピクチャの復号サンプルに基づき、現在ビデオブロックについて予測ビデオブロックを決定してよい。
動き推定ユニット204及び動き補償ユニット205は、例えば現在ビデオブロックがIスライス、Pスライス、又はBスライスかに依存して、現在ビデオブロックについて異なる動作を実行してよい。
幾つかの例では、動き推定ユニット204は、現在ビデオブロックについて片方向予測を実行してよく、動き推定ユニット204は、現在ビデオブロックの参照ビデオブロックについて、リスト0又はリスト1の参照ピクチャを検索してよい。動き推定ユニット204は、次に、参照ビデオブロックを含むリスト0又はリスト1内の参照ピクチャを示す参照インデックス、及び現在ビデオブロックと参照ビデオブロックとの間の空間変位を示す動きベクトルを生成してよい。動き推定ユニット204は、参照インデックス、予測方向指示子、及び動きベクトルを、現在ビデオブロックの動き情報として出力してよい。動き補償ユニット205は、現在ビデオブロックの動き情報により示される参照ビデオブロックに基づき、現在ブロックの予測ビデオブロックを生成してよい。
他の例では、動き推定ユニット204は、現在ビデオブロックについて双方向予測を実行してよく、動き推定ユニット204は、現在ビデオブロックの参照ビデオブロックについてリスト0内の参照ピクチャを検索してよく、現在ビデオブロックの別の参照ビデオブロックについてリスト1内の参照ピクチャを検索してよい。動き推定ユニット204は、次に、参照ビデオブロックを含むリスト0又はリスト1内の参照ピクチャを示す参照インデックス、及び参照ビデオブロックと現在ビデオブロックとの間の空間変位を示す動きベクトルを生成してよい。動き推定ユニット204は、現在ビデオブロックの動き情報として、参照インデックス及び現在ビデオブロックの動きベクトルを出力してよい。動き補償ユニット205は、現在ビデオブロックの動き情報により示される参照ビデオブロックに基づき、現在ビデオブロックの予測ビデオブロックを生成してよい。
幾つかの例では、動き推定ユニット204は、デコーダの復号処理のために動き情報の完全なセットを出力してよい。
幾つかの例では、動き推定ユニット204は、現在ビデオ動き情報の完全なセットを出力しなくてよい。むしろ、動き推定ユニット204は、別のビデオブロックの動き情報を参照して、現在ビデオブロックの動き情報をシグナリングしてよい。例えば、動き推定ユニット204は、現在ビデオブロックの動き情報が、近隣ビデオブロックの動き情報と十分に類似していることを決定してよい。
一例では、動き推定ユニット204は、現在ビデオブロックに関連付けられたシンタックス構造の中で、現在ビデオブロックが別のビデオブロックと同じ動き情報を有することをビデオデコーダ300に示す値を示してよい。
別の例では、動き推定ユニット204は、現在ビデオブロックに関連付けられたシンタックス構造の中で、別のビデオブロック及び動きベクトル差(motion vector difference (MVD))を識別してよい。動きベクトル差は、現在ビデオブロックの動きベクトルと示されたビデオブロックの動きベクトルとの間の差を示す。ビデオデコーダ300は、示されたビデオブロックの動きベクトル及び動きベクトル差を使用して、現在ビデオブロックの動きベクトルを決定してよい。
上述のように、ビデオエンコーダ200は、動きベクトルを予測的にシグナリングしてよい。ビデオエンコーダ200により実施され得る予測的シグナリング技術の2つの例は、高度動きベクトル予測(advanced motion vector predication (AMVP))及びマージモードシグナリングを含む。
イントラ予測ユニット206は、現在ビデオブロックに対してイントラ予測を実行してよい。イントラ予測ユニット206が現在ビデオブロックに対してイントラ予測を実行するとき、イントラ予測ユニット206は、同じピクチャ内の他のビデオブロックの復号サンプルに基づき、現在ビデオブロックの予測データを生成してよい。現在ビデオブロックの予測データは、予測ビデオブロック及び種々のシンタックス要素を含んでよい。
残差生成ユニット207は、現在ビデオブロックの予測ビデオブロックを現在ビデオブロックから減算することにより(例えば、マイナス符号により示される)、現在ビデオブロックの残差データを生成してよい。現在ビデオブロックの残差データは、現在ビデオブロック内のサンプルの異なるサンプル成分に対応する残差ビデオブロックを含んでよい。
他の例では、現在ビデオブロックについて、例えばスキップモードでは現在ビデオブロックの残差データが存在しなくてよく、残差生成ユニット207は減算動作を実行しなくてよい。
変換処理ユニット208は、現在ビデオブロックに関連付けられた残差ビデオブロックに1つ以上の変換を適用することにより、現在ビデオブロックについて1つ以上の変換係数ビデオブロックを生成してよい。
変換処理ユニット208が現在ビデオブロックに関連付けられた変換係数ビデオブロックを生成した後に、量子化ユニット209は、現在ビデオブロックに関連付けられた1つ以上の量子化パラメータ(quantization parameter (QP))に基づき、現在ビデオブロックに関連付けられた変換係数ビデオブロックを量子化してよい。
逆量子化ユニット210及び逆変換ユニット211は、それぞれ変換係数ビデオブロックに逆量子化及び逆変換を適用して、変換係数ビデオブロックから残差ビデオブロックを再構成してよい。再構成ユニット212は、再構成残差ビデオブロックを、予測ユニット202により生成された1つ以上の予測ビデオブロックからの対応するサンプルに加算して、バッファ213に格納するために現在ビデオブロックに関連付けられた再構成ビデオブロックを生成してよい。
再構成ユニット212がビデオブロックを再構成した後に、ループフィルタリング動作が実行されて、ビデオブロック内のビデオブロッキングアーチファクトを低減してよい。
エントロピー符号化ユニット214は、ビデオエンコーダ200の他の機能コンポーネントからデータを受信してよい。エントロピー符号化ユニット214がデータを受信すると、エントロピー符号化ユニット214は、1つ以上のエントロピー符号化動作を実行して、エントロピー符号化データを生成し、エントロピー符号化データを含むビットストリームを出力してよい。
図29は図27に示したシステム100の中のビデオデコーダ114であってよいビデオデコーダ300の例を示すブロック図である。
ビデオデコーダ300は、本開示の技術のうちのいずれか又は全部を実行するよう構成されてよい。図29の例では、ビデオデコーダ300は複数の機能コンポーネントを含む。本開示に記載した技術は、ビデオデコーダ300の種々のコンポーネントの間で共有されてよい。幾つかの例では、プロセッサは、本開示に記載した技術のうちのいずれか又は全部を実行するよう構成されてよい。
図29の例では、ビデオデコーダ300は、エントロピー復号ユニット301、動き補償ユニット302、イントラ予測ユニット303、逆量子化ユニット304、逆変換ユニット305、及び再構成ユニット306、及びバッファ307を含む。ビデオデコーダ300は、幾つかの例では、ビデオエンコーダ200(図28)に関して説明した符号化経路に対して通常相互的な復号経路を実行してよい。
エントロピー復号ユニット301は、符号化ビットストリームを読み出してよい。符号化ビットストリームは、エントロピー符号化ビデオデータ(例えば、ビデオデータの符号化ブロック)を含んでよい。エントロピー復号ユニット301は、エントロピー符号化ビデオデータを復号し、エントロピー復号ビデオデータから、動き補償ユニット302が、動きベクトル、動きベクトル精度、参照ピクチャリストインデックス、及び他の動き情報を含む動き情報を決定してよい。動き補償ユニット302は、例えば、AMVP及びマージモードを実行することにより、このような情報を決定してよい。
動き補償ユニット302は、場合によっては補間フィルタに基づき補間を実行することにより、動き補償ブロックを生成してよい。サブピクセル精度で使用されるべき補間フィルタの識別子は、シンタックス要素に含まれてよい。
動き補償ユニット302は、参照ブロックのサブ整数ピクセルの補間値を計算するためにビデオブロックの符号化中にビデオエンコーダ20により使用されるような補間フィルタを使用してよい。動き補償ユニット302は、受信したシンタックス情報に従い、ビデオエンコーダ200により使用される補間フィルタを決定し、補間フィルタを使用して予測ブロックを生成してよい。
動き補償ユニット302は、シンタックス情報の一部を使用して、符号化ビデオシーケンスのフレーム及び/又はスライスを符号化するために使用されるブロックのサイズ、符号化ビデオシーケンスのピクチャの各マクロブロックがどのようにパーティションされるかを記述するパーティション情報、各パーティションがどのように符号化されるかを示すモード、インター符号化ブロック毎の1つ以上の参照フレーム(及び参照フレームリスト)、及び符号化ビデオシーケンスを復号するための他の情報を決定してよい。
イントラ予測ユニット303は、例えばビットストリーム内で受信したイントラ予測モードを使用して、空間的に隣接するブロックから予測ブロックを形成してよい。逆量子化ユニット303は、ビットストリーム内で提供され、エントロピー復号ユニット301により復号された量子化されたビデオブロック係数を逆量子化、つまり量子化解除する。逆変換ユニット303は、逆変換を適用する。
再構成ユニット306は、残差ブロックを、動き補償ユニット202又はイントラ予測ユニット303により生成された対応する予測ブロックと加算して、復号ブロックを形成してよい。望ましい場合には、ブロックアーチファクトを除去するために復号ブロックをフィルタリングするデブロッキングフィルタも適用されてよい。復号ビデオブロックは、次に、バッファ307に格納されて、後の動き補償/イントラ予測のために参照ブロックを提供し、更にディスプレイ装置上で提示するために復号ビデオを生成する。
以上から、本開示の技術の特定の実施形態が説明の目的でここに記載されたが、種々の変形が本発明の範囲から逸脱することなく行われてよいことが理解される。従って、本開示の技術は、添付の請求の範囲を除いて、限定されない。
本願明細書に記載された本開示の及び他のソリューション、例、実施形態、モジュール、及び機能動作は、デジタル電子回路で、又は本願明細書に開示された構造を含む、コンピュータソフトウェア、ファームウェア、又はハードウェア、及びそれらの構造的均等物で、又はそれらの1つ以上の結合で、実装できる。本開示の及び他の実施形態は、1つ以上のコンピュータプログラムプロダクト、つまり、データ処理機器による実行のために又はその動作を制御するために、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実装できる。コンピュータ可読媒体は、機械可読記憶装置、機械可読記憶基板、メモリ装置、機械可読伝搬信号に影響を与える物質の組成、又は1つ以上のそれらの組合せであり得る。用語「データ処理機器」は、データを処理するあらゆる機器、装置、及び機械を包含し、例として、プログラマブルプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む。機器は、ハードウェアに加えて、対象となるコンピュータプログラムの実行環境を生成するコード、例えばプロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組合せを構成するコードを含むことができる。伝搬信号は、人工的に生成された信号、例えば、適切な受信機機器への送信のために情報を符号化するために生成された、機械により生成された電気、光、又は電磁気信号である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる)は、コンパイルされた又はインタープリットされた言語を含む任意の形式のプログラミング言語で記述でき、それは、スタンドアロンプログラム又はモジュール、コンポーネント、サブルーチン、又はコンピューティング環境内での使用に適する他のユニットを含む任意の形式で展開できる。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応する必要はない。プログラムは、他のプログラム又はデータ(例えばマークアップ言語文書内に格納された1つ以上のスクリプト)を保持するファイルの一部に、問題のプログラムに専用の単一のファイルに、又は複数の連携ファイル(例えば、1つ以上モジュール、サブプログラム、又はコードの部分を格納するファイル)に、格納できる。コンピュータプログラムは、1つのコンピュータ上で、又は1つの場所に置かれた若しくは複数の場所に分散されて通信ネットワークにより相互接続される複数のコンピュータ上で、実行されるよう展開できる。
本願明細書に記載の処理及びロジックフローは、入力データに作用し及び出力を生成することにより機能を実行する1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサにより実行できる。特定用途論理回路、例えば、FPGA(field programmable gate array)又はASIC(application specific integrated circuit)により、処理及びロジックフローが実行でき、それとして機器が実装できる。
コンピュータプログラムの実行に適するプロセッサは、例えば、汎用及び特定用途向けマイクロプロセッサの両方、及び任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。通常、プロセッサは、命令及びデータを読み出し専用メモリ又はランダムアクセスメモリ又は両者から受信する。コンピュータの基本的要素は、命令を実行するプロセッサ、及び命令及びデータを格納する1つ以上のメモリ装置である。通常、コンピュータは、データを格納する1つ以上の大容量記憶装置、例えば、磁気、光磁気ディスク、又は光ディスク、も含み、又はそれらからデータを受信し又はそれらへデータを転送するために又は両者のために動作可能に結合される。しかしながら、コンピュータはこのような装置を有する必要はない。コンピュータプログラム命令及びデータを格納するのに適する非一時的コンピュータ可読媒体は、例えば半導体メモリ装置、例えばEPROM、EEPROM,及びフラッシュメモリ装置、磁気ディスク、例えば内部ハードディスク又は取り外し可能ディスク、光磁気ディスク、及びCD-ROM及びDVD-ROMディスクを含む、全ての形式の-不揮発性メモリ、媒体、及びメモリ装置を含む。プロセッサ及びメモリは、特定用途向け論理回路により補足され、又はその中に組み込むことができる。
本願明細書は多数の特定事項を含むが、これらは、任意の主題の又は請求され得るものの範囲に対する限定としてではなく、むしろ、特定の技術の特定の実施形態に固有の特徴の説明として考えられるべきである。別個の実装の文脈で本願明細書に記載された特定の特徴は、単一の実装形態において組み合わせることもできる。反対に、単一の実施形態の文脈で記載された種々の特徴は、複数の実施形態の中で別個に又は任意の適切な部分的組み合わせで実装されることもできる。更に、特徴は特定の組み合わせで動作するよう上述され、そのように初めに請求され得るが、請求される組み合わせからの1つ以上の特徴は、幾つかの場合には、組み合わせから切り離されてよく、請求される組み合わせは、部分的組み合わせ又は部分的組み合わせの変形に向けられてよい。
同様に、動作は、図中に特定の順序で示されるが、これは、望ましい結果を達成するために、そのような動作が示された特定の順序で又はシーケンシャルに実行されること、及び全ての図示の動作が実行されること、を要求すると理解されるべきではない。更に、本願明細書に記載された実施形態における種々のシステムコンポーネントの分離は、全ての実施形態においてこのような分離を必要とすると理解されるべきではない。
少数の実装及び例のみが記載され、本願明細書に記載され示されたものに基づき他の実装、拡張、及び変形が行われ得る。

Claims (20)

  1. ビデオデータを処理する方法であって、
    ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、前記現在ビデオブロックと前記ビデオのビットストリームとの間の変換について第1方式が有効又は無効にされるかについての第1決定を行うステップであって、前記第1方式は、リスト0の少なくとも1つの参照サンプルとリスト1の少なくとも1つの参照サンプルとの間のコストに基づき、精緻化動き情報を導出するために使用される、ステップと、
    同じルールに基づき、前記変換について第2方式が有効又は無効にされるかについての第2決定を行うステップであって、前記第2方式は双方向オプティカルフロー方式である、ステップと、
    前記第1決定及び前記第2決定に基づき、前記変換を実行するステップと、
    を含む方法。
  2. 前記第1方式及び前記第2方式は、前記現在ビデオブロックに含まれる第1サンプル数が第2サンプル数より少ないことに応答して無効であると決定され、前記第2サンプル数はサンプル数閾値である、請求項1に記載の方法。
  3. 前記第1方式及び前記第2方式は、前記現在ビデオブロックの幅が値より小さい及び/又は前記現在ビデオブロックの高さが値より小さいことに応答して、無効であると決定される、請求項1に記載の方法。
  4. 前記値は8である、請求項3に記載の方法。
  5. 前記第1方式及び前記第2方式は、(W*H)>=T1及びH>=T2であることに基づき有効であると決定され、ここで、W及びHはそれぞれ前記現在ビデオブロックの幅及び高さであり、T1及びT2は有理数である、請求項1に記載の方法。
  6. T2は8である、請求項に記載の方法。
  7. 前記第1方式及び前記第2方式は、前記現在ビデオブロックの同じサブブロックレベルで実行される、請求項1~6のいずれか一項に記載の方法。
  8. サブブロックサイズの決定は、前記第1方式及び前記第2方式について同じである、請求項1~7のいずれか一項に記載の方法。
  9. 前記現在ビデオブロックは、前記現在ビデオブロックの幅が第1値より大きいことに応答して垂直方向に分割され、前記現在ビデオブロックのサブブロックの幅は、前記第1値より小さい又は等しい、及び/又は、
    前記現在ビデオブロックは、前記現在ビデオブロックの高さが第2値より大きいことに応答して水平方向に分割され、前記現在ビデオブロックのサブブロックの高さは前記第2値より小さい又は等しい、
    請求項1~8のいずれか一項に記載の方法。
  10. サブブロックは、サブブロックサイズと等しいサイズを有するコーディングブロックと同じ方法で、前記第1方式及び前記第2方式により処理される、請求項1~9のいずれか一項に記載の方法。
  11. 前記第1値は16であり、及び/又は前記第2値は16である、請求項9に記載の方法。
  12. 前記現在ビデオブロックはルマビデオブロックであり、前記第1方式及び記第2方式を有効又は無効にするかを決定する前記ステップは、前記ルマビデオブロックの情報に基づき且つ関連するクロマビデオブロックの情報を使用せずに実行される、請求項1~11のいずれか一項に記載の方法。
  13. 前記第1方式はデコーダ側動きベクトル精緻化方式であり、前記精緻化動き情報は、前記デコーダ側動きベクトル精緻化方式において、前記現在ビデオブロックについて前記サブブロックレベルでバイラテラルマッチングを適用することにより取得される、請求項に記載の方法。
  14. 前記第2方式が有効であると決定され、前記精緻化動き情報は、前記第2方式において前記現在ビデオブロックの前記サブブロックレベルで実行されるき情報のサンプル毎の精緻化を実行することにより、取得される、請求項に記載の方法。
  15. 前記第2方式は、前記現在ビデオブロックについて、前記サブブロックレベルで有効又は無効であると決定される、請求項に記載の方法。
  16. 前記変換は、前記現在ビデオブロックを前記ビットストリームに符号化することを含む、請求項1~15のいずれか一項に記載の方法。
  17. 前記変換は、前記ビットストリームから前記現在ビデオブロックを復号することを含む、請求項1~15のいずれか一項に記載の方法。
  18. ビデオデータを処理する機器であって、プロセッサと命令を有する非一時的メモリとを含み、前記命令は、前記プロセッサにより実行されると、前記プロセッサに、
    ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、前記現在ビデオブロックと前記ビデオのビットストリームとの間の変換について第1方式が有効又は無効にされるかについての第1決定を行わせ、前記第1方式は、リスト0の少なくとも1つの参照サンプルとリスト1の少なくとも1つの参照サンプルとの間のコストに基づき、精緻化動き情報を導出するために使用され、
    同じルールに基づき、前記変換について第2方式が有効又は無効にされるかについての第2決定を行わせ、前記第2方式は双方向オプティカルフロー方式であり、
    前記第1決定及び前記第2決定に基づき、前記変換を実行させる、
    機器。
  19. 命令を格納する非一時的コンピュータ可読記憶媒体であって、前記命令は、プロセッサに、
    ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、前記現在ビデオブロックと前記ビデオのビットストリームとの間の変換について第1方式が有効又は無効にされるかについての第1決定を行わせ、前記第1方式は、リスト0の少なくとも1つの参照サンプルとリスト1の少なくとも1つの参照サンプルとの間のコストに基づき、精緻化動き情報を導出するために使用され、
    同じルールに基づき、前記変換について第2方式が有効又は無効にされるかについての第2決定を行わせ、前記第2方式は双方向オプティカルフロー方式であり、
    前記第1決定及び前記第2決定に基づき、前記変換を実行させる、
    非一時的コンピュータ可読記憶媒体。
  20. ビデオのビットストリームを格納する方法であって
    ビデオの現在ビデオブロックのブロック寸法を使用するルールに基づき、前記現在ビデオブロックと前記ビデオのビットストリームとの間の変換について第1方式が有効又は無効にされるかについての第1決定を行うステップであって、前記第1方式は、リスト0の少なくとも1つの参照サンプルとリスト1の少なくとも1つの参照サンプルとの間のコストに基づき、精緻化動き情報を導出するために使用される、ステップと、
    同じルールに基づき、前記変換について第2方式が有効又は無効にされるかについての第2決定を行うステップであって、前記第2方式は双方向オプティカルフロー方式である、ステップと、
    前記第1決定及び前記第2決定に基づき、前記ビットストリームを生成するステップと、 前記ビットストリームを非一時的コンピュータ可読記憶媒体に格納するステップと、
    を含む方法
JP2021547084A 2019-02-14 2020-02-14 デコーダ側精緻化ツールのサイズ選択アプリケーション Active JP7263529B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023063135A JP2023076744A (ja) 2019-02-14 2023-04-10 デコーダ側精緻化ツールのサイズ選択アプリケーション

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN2019075068 2019-02-14
CNPCT/CN2019/075068 2019-02-14
CN2019082585 2019-04-13
CNPCT/CN2019/082585 2019-04-13
PCT/CN2020/075235 WO2020164580A1 (en) 2019-02-14 2020-02-14 Size selective application of decoder side refining tools

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023063135A Division JP2023076744A (ja) 2019-02-14 2023-04-10 デコーダ側精緻化ツールのサイズ選択アプリケーション

Publications (2)

Publication Number Publication Date
JP2022519883A JP2022519883A (ja) 2022-03-25
JP7263529B2 true JP7263529B2 (ja) 2023-04-24

Family

ID=72043749

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021547084A Active JP7263529B2 (ja) 2019-02-14 2020-02-14 デコーダ側精緻化ツールのサイズ選択アプリケーション
JP2023063135A Pending JP2023076744A (ja) 2019-02-14 2023-04-10 デコーダ側精緻化ツールのサイズ選択アプリケーション

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023063135A Pending JP2023076744A (ja) 2019-02-14 2023-04-10 デコーダ側精緻化ツールのサイズ選択アプリケーション

Country Status (6)

Country Link
US (5) US11240531B2 (ja)
EP (2) EP4300953A3 (ja)
JP (2) JP7263529B2 (ja)
KR (1) KR102662449B1 (ja)
CN (5) CN113424533A (ja)
WO (4) WO2020164580A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9900615B2 (en) * 2011-12-28 2018-02-20 Microsoft Technology Licensing, Llc Representative motion information for temporal motion prediction in video encoding and decoding
CN113424533A (zh) 2019-02-14 2021-09-21 北京字节跳动网络技术有限公司 复杂度降低的解码器侧运动推导
CN114339237B (zh) * 2019-02-20 2023-04-25 北京达佳互联信息技术有限公司 用于视频编码的方法和电子设备
EP3941061A4 (en) * 2019-03-15 2022-05-04 Lg Electronics Inc. BDOF-BASED INTERPREDITION METHOD AND DEVICE
EP3959886A4 (en) * 2019-04-25 2022-06-22 OP Solutions, LLC SIGNALING A GLOBAL MOTION VECTOR IN AN IMAGE HEAD
WO2021052491A1 (en) 2019-09-19 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Deriving reference sample positions in video coding
WO2021063418A1 (en) 2019-10-05 2021-04-08 Beijing Bytedance Network Technology Co., Ltd. Level-based signaling of video coding tools
EP4029262A4 (en) 2019-10-12 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. PREDICTIVE TYPE SIGNALING IN VIDEO ENCODING
MX2022004200A (es) * 2019-10-13 2022-05-02 Beijing Bytedance Network Tech Co Ltd Interaccion entre remuestreo de imagen de referencia y herramientas de codificacion de video.
US20220248047A1 (en) * 2021-01-29 2022-08-04 Qualcomm Incorporated Model-based motion vector difference derivation and template matching prediction for video coding
WO2023091775A1 (en) * 2021-11-22 2023-05-25 Beijing Dajia Internet Information Technology Co., Ltd. Decoder side motion information derivation
WO2023116778A1 (en) * 2021-12-22 2023-06-29 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
WO2023136655A1 (ko) * 2022-01-13 2023-07-20 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체
WO2023182781A1 (ko) * 2022-03-21 2023-09-28 주식회사 윌러스표준기술연구소 템플릿 매칭에 기초한 비디오 신호 처리 방법 및 이를 위한 장치
US20240007615A1 (en) * 2022-07-04 2024-01-04 Alibaba (China) Co., Ltd. Deriving bi-prediction with coding unit-level weight indices for merge candidates
WO2024080747A1 (ko) * 2022-10-11 2024-04-18 한국전자통신연구원 영상 부호화/복호화를 위한 방법, 장치 및 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180241998A1 (en) 2017-02-21 2018-08-23 Qualcomm Incorporated Deriving motion vector information at a video decoder
JP2022520825A (ja) 2019-02-14 2022-04-01 エルジー エレクトロニクス インコーポレイティド Dmvr基盤のインター予測方法及び装置

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7627037B2 (en) 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
EP1997318A4 (en) * 2006-03-22 2011-04-06 Korea Electronics Telecomm METHOD AND DEVICE FOR CODING AND DECODING THE COMPENSATED LIGHTING CHANGE
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
BRPI0818444A2 (pt) * 2007-10-12 2016-10-11 Qualcomm Inc codificação adaptativa de informação de cabeçalho de bloco de vídeo
JP2011509631A (ja) * 2008-01-11 2011-03-24 トムソン ライセンシング ビデオおよび奥行きの符号化
US8208563B2 (en) * 2008-04-23 2012-06-26 Qualcomm Incorporated Boundary artifact correction within video units
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
US20110176611A1 (en) 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
CN102215386B (zh) * 2010-04-09 2013-03-27 华为技术有限公司 视频图像块处理方法及装置
EP2642755B1 (en) 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
US10764592B2 (en) 2012-09-28 2020-09-01 Intel Corporation Inter-layer residual prediction
EP2901692A4 (en) 2012-09-28 2016-04-13 Intel Corp PREDICTING SAMPLES OF INTERLAYER PIXELS
US9294777B2 (en) 2012-12-30 2016-03-22 Qualcomm Incorporated Progressive refinement with temporal scalability support in video coding
US9521425B2 (en) 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
CA2896810C (en) * 2013-04-10 2017-12-19 Mediatek Inc. Method and apparatus for bi-prediction of illumination compensation
US9762927B2 (en) 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9667996B2 (en) 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9838712B2 (en) 2014-03-17 2017-12-05 Hfi Innovation Inc. Method of signaling for depth-based block partitioning
CN104301724B (zh) 2014-10-17 2017-12-01 华为技术有限公司 视频处理方法、编码设备和解码设备
US10958927B2 (en) * 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
US10356416B2 (en) * 2015-06-09 2019-07-16 Qualcomm Incorporated Systems and methods of determining illumination compensation status for video coding
US10887597B2 (en) * 2015-06-09 2021-01-05 Qualcomm Incorporated Systems and methods of determining illumination compensation parameters for video coding
CN108028939B (zh) * 2015-09-02 2021-10-15 联发科技股份有限公司 用于视频编解码的解码器侧的运动推导的方法和装置
CN108293131B (zh) * 2015-11-20 2021-08-31 联发科技股份有限公司 基于优先级运动矢量预测子推导的方法及装置
EP3456049B1 (en) * 2016-05-13 2022-05-04 VID SCALE, Inc. Systems and methods for generalized multi-hypothesis prediction for video coding
US20170339405A1 (en) * 2016-05-20 2017-11-23 Arris Enterprises Llc System and method for intra coding
US11638027B2 (en) * 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
US9832351B1 (en) * 2016-09-09 2017-11-28 Cisco Technology, Inc. Reduced complexity video filtering using stepped overlapped transforms
US10728572B2 (en) * 2016-09-11 2020-07-28 Lg Electronics Inc. Method and apparatus for processing video signal by using improved optical flow motion vector
US10750203B2 (en) * 2016-12-22 2020-08-18 Mediatek Inc. Method and apparatus of adaptive bi-prediction for video coding
CN116320476A (zh) * 2016-12-22 2023-06-23 株式会社Kt 对视频进行解码或编码的方法和发送视频数据的方法
WO2018113658A1 (en) * 2016-12-22 2018-06-28 Mediatek Inc. Method and apparatus of motion refinement for video coding
CN110140355B (zh) * 2016-12-27 2022-03-08 联发科技股份有限公司 用于视频编解码的双向模板运动向量微调的方法及装置
US20180192071A1 (en) * 2017-01-05 2018-07-05 Mediatek Inc. Decoder-side motion vector restoration for video coding
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US10701390B2 (en) * 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
US10595035B2 (en) * 2017-03-22 2020-03-17 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation
US10491917B2 (en) * 2017-03-22 2019-11-26 Qualcomm Incorporated Decoder-side motion vector derivation
WO2018199050A1 (ja) * 2017-04-27 2018-11-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US20180332298A1 (en) * 2017-05-10 2018-11-15 Futurewei Technologies, Inc. Bidirectional Prediction In Video Compression
US10904565B2 (en) * 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
US10477237B2 (en) * 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
US11750832B2 (en) * 2017-11-02 2023-09-05 Hfi Innovation Inc. Method and apparatus for video coding
US11277609B2 (en) 2017-12-29 2022-03-15 Sharp Kabushiki Kaisha Systems and methods for partitioning video blocks for video coding
US11265551B2 (en) * 2018-01-18 2022-03-01 Qualcomm Incorporated Decoder-side motion vector derivation
US20190306502A1 (en) 2018-04-02 2019-10-03 Qualcomm Incorporated System and method for improved adaptive loop filtering
US10779002B2 (en) 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
WO2019234668A1 (en) * 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Sub-block dmvr
US10958934B2 (en) * 2018-07-27 2021-03-23 Tencent America LLC History-based affine merge and motion vector prediction
CN112913239A (zh) 2018-10-22 2021-06-04 北京字节跳动网络技术有限公司 基于参考图片的解码器侧运动矢量推导
WO2020084461A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Restrictions on decoder side motion vector derivation based on coding information
EP3861731A4 (en) 2018-11-05 2021-11-24 Beijing Bytedance Network Technology Co. Ltd. INTERPOLATION TO INTERPRDICTION WITH REFINEMENT
EP3878178A1 (en) * 2018-11-05 2021-09-15 InterDigital VC Holdings, Inc. Video encoding or decoding using block extension for overlapped block motion compensation
US11146810B2 (en) * 2018-11-27 2021-10-12 Qualcomm Incorporated Decoder-side motion vector refinement
US20220078488A1 (en) * 2018-12-17 2022-03-10 Interdigital Vc Holdings, Inc. Mmvd and smvd combination with motion and prediction models
EP3900347A2 (en) * 2018-12-21 2021-10-27 Vid Scale, Inc. Methods, architectures, apparatuses and systems directed to improved linear model estimation for template based video coding
CN113424533A (zh) 2019-02-14 2021-09-21 北京字节跳动网络技术有限公司 复杂度降低的解码器侧运动推导

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180241998A1 (en) 2017-02-21 2018-08-23 Qualcomm Incorporated Deriving motion vector information at a video decoder
JP2022520825A (ja) 2019-02-14 2022-04-01 エルジー エレクトロニクス インコーポレイティド Dmvr基盤のインター予測方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hongbin Liu, et al.,"CE9-related: Simplification of Decoder Side Motion Vector Derivation",Document: JVET-K0105-v1, [online],JVET-K0105 (version 2),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年07月13日,Pages 1-3,[令和5年2月28日検索], インターネット, <URL: https://jvet-experts.org/doc_end_user/current_document.php?id=3608> and <URL: https://jvet-experts.org/doc_end_user/documents/11_Ljubljana/wg11/JVET-K0105-v2.zip>,(See document file "JVET-K0105_r1.docx" in the zip file "JVET-K0105-v2.zip".)

Also Published As

Publication number Publication date
EP3909239A1 (en) 2021-11-17
KR20210121060A (ko) 2021-10-07
EP4300953A3 (en) 2024-03-06
CN113424538A (zh) 2021-09-21
US20210377559A1 (en) 2021-12-02
WO2020164575A1 (en) 2020-08-20
CN113424533A (zh) 2021-09-21
EP4300953A2 (en) 2024-01-03
US11425417B2 (en) 2022-08-23
WO2020164582A1 (en) 2020-08-20
JP2023076744A (ja) 2023-06-01
CN113424525B (zh) 2023-11-10
US11240531B2 (en) 2022-02-01
EP3909239A4 (en) 2022-04-20
US20210274212A1 (en) 2021-09-02
KR102662449B1 (ko) 2024-04-30
US11876932B2 (en) 2024-01-16
JP2022519883A (ja) 2022-03-25
CN111837395A (zh) 2020-10-27
WO2020164577A1 (en) 2020-08-20
CN113424525A (zh) 2021-09-21
US20220116650A1 (en) 2022-04-14
CN117336505A (zh) 2024-01-02
WO2020164580A1 (en) 2020-08-20
US20210274211A1 (en) 2021-09-02
US20210368181A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
JP7263529B2 (ja) デコーダ側精緻化ツールのサイズ選択アプリケーション
US11070821B2 (en) Side information signaling for inter prediction with geometric partitioning
WO2020098807A1 (en) Controlling merge with motion vector differencing mode
JP7209092B2 (ja) 動きベクトル差分によるマージ(mmvd)モードにおける動きベクトル予測
JP7277599B2 (ja) 映像処理におけるモデルベース再整形に対する制約
JP2024015289A (ja) オプティカルフローベースの予測精緻化の計算
WO2020233659A1 (en) Adaptive motion vector difference resolution for affine mode
KR20220030995A (ko) 비디오 코딩에서 변환 블록 크기 제한
CN115280774A (zh) 在仿射模式下与运动向量差分merge
WO2020156515A1 (en) Refined quantization steps in video coding
WO2020143742A1 (en) Simplified context modeling for context adaptive binary arithmetic coding
CN113273208A (zh) 仿射预测模式的改进

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210811

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150