JP2022532629A - サブブロックマージモードでのシンタックスシグナリング - Google Patents

サブブロックマージモードでのシンタックスシグナリング Download PDF

Info

Publication number
JP2022532629A
JP2022532629A JP2021568037A JP2021568037A JP2022532629A JP 2022532629 A JP2022532629 A JP 2022532629A JP 2021568037 A JP2021568037 A JP 2021568037A JP 2021568037 A JP2021568037 A JP 2021568037A JP 2022532629 A JP2022532629 A JP 2022532629A
Authority
JP
Japan
Prior art keywords
subblock
affine
candidates
motion vector
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021568037A
Other languages
English (en)
Other versions
JP7377894B2 (ja
Inventor
ザン,カイ
ザン,リー
リュウ,ホンビン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022532629A publication Critical patent/JP2022532629A/ja
Application granted granted Critical
Publication of JP7377894B2 publication Critical patent/JP7377894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

視覚メディア処理の方法は、視覚メディアデータのビットストリーム表現におけるアフィン適応動きベクトル分解(AMVR)技術に関する制御情報に応じて、視覚メディアデータに対してアフィンAMVR技術を使用すべきかどうかを決定するステップであり、制御情報が、規則に基づき前記ビットストリーム表現において包含又は削除される、ステップと、視覚メディアデータと視覚メディアデータのビットストリーム表現との間の変換を実行するステップとを含む。

Description

[関連出願への相互参照]
適用可能な特許法、及び/又はパリ条約に従う規則の下で、本願は、2019年5月21日付けで出願された国際特許出願第PCT/CN2019/087805号に対する優先権及びその利益を適時請求するようになされる。法の下での全ての目的のために、上記の出願の開示全体は、本願の開示の部分として参照により援用される。
本特許文献は、ビデオ符号化/復号化技術、デバイス、及びシステムに関する。
ビデオ圧縮の進歩にかかわらず、デジタルビデオは依然として、インターネット及び他のデジタル通信ネットワーク上で最大バンド幅使用を占める。ビデオを受信及び表示することが可能なユーザデバイスの接続数が増えるにつれて、デジタルビデオ利用のためのバンド幅需要は成長し続けることが予期される。
本明細書は、サブブロックベースの動きベクトル精緻化を用いてビデオ符号化又は復号化が実行される様々な実施形態及び技術について記載する。一例となる態様では、視覚メディア処理の方法が開示される。方法は、視覚メディアデータのビットストリーム表現におけるアフィン適応動きベクトル分解(AMVR)技術に関する制御情報に応じて、前記視覚メディアデータに対して前記アフィンAMVR技術を使用すべきかどうかを決定するステップであり、前記制御情報は、規則に基づき前記ビットストリーム表現において包含又は削除される、前記決定するステップと、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の変換を実行するステップとを含む。
他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、サブブロックベースの時間的動きベクトル予測(subblock-based Temporal Motion Vector Prediction,sbTMVP)技術が視覚メディアデータに適用されるか否かの決定を行うステップと、該決定に応答して、前記視覚メディアデータに含まれる現在のビデオブロックについてサブブロックマージ候補リストを生成するステップと、該サブブロックマージ候補リストを用いて、前記現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップとを含む。
更なる他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、現在のビデオブロックとビットストリーム表現との間の変換中に、該変換のためのサブブロックマージ候補リストに1つ以上のデフォルトのマージ候補を付け足すステップと、付け足された前記1つ以上のデフォルトのマージ候補を含む前記サブブロックマージ候補リストを用いて、前記変換を実行するステップとを含む。
更なる他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、ビデオの現在のビデオブロックとビットストリーム表現との間の変換中に、該変換へのサブブロックベースの時間的動きベクトル予測(sbTMVP)の適用可能性を決定するステップであり、前記ビットストリーム表現中の1つ以上のビットが前記決定に対応する、前記決定するステップと、前記決定に基づき前記変換を実行するステップとを含む。
更なる他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、時間的動きベクトル予測(TMVP)ステップ又はサブブロックベースの時間的動きベクトル予測(sbTMVP)ステップに関連した条件に基づき選択的にサブブロックマージ候補リストを構成するステップと、該サブブロックマージ候補リストに基づき現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップとを含む。
更なる他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、視覚メディアデータと該視覚メディアデータのビットストリーム表現との間の変換中に、前記視覚メディアデータに関連した同一位置(collocated)参照ピクチャに関する情報を決定するステップであり、前記情報は、時間動き情報にアクセスするコーディングモードが有効にされるかどうかに基づき前記ビットストリーム表現において包含又は削除される、前記決定するステップと、前記情報に従って前記同一位置参照ピクチャを決定するステップと、該同一位置参照ピクチャに基づき、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の前記変換を実行するステップとを含む。
更なる他の例となる態様では、視覚メディア処理の他の方法が開示される。方法は、視覚メディアデータのビデオブロックと前記視覚メディアデータのビットストリーム表現との間の変換を実行するステップと、該変換中に、規則に基づき前記ビットストリーム表現において包含又は削除される制御情報に応じて、オプティカルフローを使用した予測精緻化(Predictive Refinement using Optical Flow,PROF)を適用すべきかどうか決定するステップとを含む。
更なる他の例となる態様では、上記の方法を実装するよう構成されたプロセッサを有するビデオ符号化及び/又は復号化装置が開示される。
更なる他の例となる態様では、コンピュータ可読媒体が開示される。コンピュータ可読媒体は、上記の方法の1つを具現するプロセッサ実行可能なコードを記憶している。
これら及び他の態様は、本明細書で更に記載される。
マージ候補リスト構成のための導出プロセスの例を示す。 空間的候補の位置の例を示す。 空間マージ候補の冗長性検査のために考慮される候補対の例を示す。 N×2N及び2N×Nパーティションの第2PUの位置の例を示す。 N×2N及び2N×Nパーティションの第2PUの位置の例を示す。 時間マージ候補に対する動きベクトルスケーリングの実例である。 時間マージ候補の候補位置C0及びC1の例を示す。 複合双予測マージ候補の例を示す。 動きベクトル予測候補の導出プロセスを要約する。 空間動きベクトル候補に対する動きベクトルスケーリングの実例を示す。 CUに対する適応時間動きベクトル予測(ATMVP)の例を示す。 4つのサブブロック(A~D)を含む1つのCU及びその隣接するブロック(a~d)の例を示す。 異なるMV精度による符号化の例となるフローチャートである。 (a)は、135°パーティションタイプ(左上隅から右下隅への分割)及び(b)45°分割パターンを示す。 隣接ブロックの例となる位置を示す。 TPMフラグコーディングでコンテキスト選択のために使用される隣接ブロック(A及びL)を示す。 (a)4パラメータアフィンモデル及び(b)6パラメータアフィンモデルを示す。 サブブロックごとのアフィンMVFの例を示す。 (a)4パラメータアフィンモデル及び(b)6パラメータアフィンモデルを示す。 遺伝的アフィン候補に対するAF_INTERのためのMVPを示す。 構成されたアフィン候補に対するAF_INTERのためのMVPを示す。 (a)5つの隣接ブロック及び(b)CPMV予測子導出の例を示す。 アフィンマージモードのための例となる候補の位置を示す。 ATMVPによって使用される空間隣接ブロックの例を示す。 空間近傍からの動きシフトを適用し、対応する同一位置サブCUからの動き情報をスケーリングすることによってサブCU動き場を導出する例を示す。 アフィンマージモードのための候補の位置を示す。 変更されたマージリストの構成プロセスを示す。 サブブロックMV VSB及びピクセルΔv(i,j)(赤色矢印)を示す。 本明細書で記載される方法を実装するために使用されるハードウェアプラットフォームの例のブロック図である。 ビデオ処理の方法の例のフローチャートである。 開示されている技術が実装され得るビデオ処理システムの例のブロック図である。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。 視覚メディア処理の方法の例のフローチャートである。
セクション見出しは、理解を簡単にするために本明細書で使用されているのであって、セクションで開示されている実施形態をそのセクションにのみ制限するものではない。更に、特定の実施形態は、VVC(Versatile Video Coding)又は他の特定のビデオコーディングを参照して記載されているが、開示されている技術は、他のビデオコーディング技術にも適用可能である。更に、いくつかの実施形態は、ビデオコーディングステップについて詳述しているが、符号化を元に戻す対応する復号化ステップがデコーダによって実装されることが理解されるだろう。更に、ビデオ処理という用語は、ビデオ符号化又は圧縮、ビデオ復号化又は圧縮解除、及びビデオピクセルが1つの圧縮されたフォーマットから他の圧縮されたフォーマットに又は異なる圧縮ビットレートで表現されるビデオトランスコーディングを包含する。
1.概要
本明細書は、ビデオコーディング技術に関係がある。具体的に、それは、ビデオコーディングにおける動きベクトルコーディングに関係がある。それは、HEVCのような既存のビデオコーディング標準規格、又はまとめられるべき標準規格(VVC)に適用されてもよい。それはまた、将来のビデオコーディング標準規格又はビデオコーデックにも適用可能であり得る。
2.最初の議論
ビデオコーディング標準規格は、主として、よく知られているITU-T及びISO/IEC標準規格の開発を通じて、進化してきた。ITU-Tは、H.261及びH.263を作り出し、ISO/IECは、MPEG-1及びMPEG-4 Visualを作り出し、2つの組織は共同で、H.262/MPEG-2 Video及びH264/MPEG-4 AVC(Advanced Video Coding)並びにH.265/HEVC標準規格を作り出した。H.262以降、ビデオコーディング標準規格は、ハイブリッドビデオコーディング構造に基づいており、時間予測及び変換コーディングが利用される。HEVCを越える将来のビデオコーディング技術を探るために、JVET(Joint Video Exploration Team)が2015年にVCEG及びMPEGによって共同設立された。それ以来、多くの新しい方法がJVETによって導入され、JEM(Joint Exploration Model)と名付けられた参照ソフトウェアに置かれてきた[3,4]。2018年4月に、VCEG(Q6/16)とISO/IEC JTC1 SG29/WG11(MPEG)との間で、HEVCと比較してビットレート50%減を目指すVVC標準規格を研究するためのJVETJoint Video Experts Team)が作られた。
VVC草案(Versatile Video Coding (Draft 5))の最新バージョンは、phenix.it-sudparis.eu/jvet/doc_end_user/documents/14_Geneva/wg11/JVET-N1001-v5.zipで入手可能である。
VTMと名付けられたVVCの最新の参照ソフトウェアは、vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/tags/VTM-5.0で入手可能である。
2.1.HEVC/H.265でのインター予測
夫々のインター予測されたPU(prediction unit)は、1つ又は2つの参照ピクチャリストについての動きパラメータを有している。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2つの参照ピクチャリストの一方の利用は、inter_pred_idcを用いてシグナリングされてもよい。動きベクトルは、予測子に対する差分として明示的にコーディングされてもよい。
CUがスキップモードでコーディングされる場合に、1つのPUがCUと関連付けられ、有意な残差係数、コーディングされた動きベクトル差分、又は参照ピクチャインデックスは、存在しない。マージモードが指定され、これによって、現在のPUの動きパラメータは、空間及び時間的候補を含む隣接PUから取得される。マージモードは、スキップモードのためだけでなく、如何なるインター予測されたPUにも適用可能である。マージモードに対する代替手段は、動きパラメータの明示的な伝送であり、動きベクトル(より厳密に言えば、動きベクトル予測子と比較した動きベクトル差分(motion vector differences,MVD))、各参照ピクチャリストの対応する参照ピクチャインデックス、及び参照ピクチャリスト利用が、各PUごとに明示的にシグナリングされる。このようなモードは、本開示ではアドバンスド動きベクトル予測(advanced motion vector prediction,AMVP)と呼ばれる。
2つの参照ピクチャリストの一方が使用されるべきであることをシグナリングが示す場合に、PUは、サンプルの1つのブロックから生成される。これは「片予測」(uni-prediction)と呼ばれる。片予測は、Pスライス及びBスライスの両方について利用可能である。
両方の参照ピクチャリストが使用されるべきであることをシグナリングが示す場合に、PUは、サンプルの2つのブロックから生成される。これは「双予測」(bi-prediction)と呼ばれる。双予測は、Bスライスについてのみ利用可能である。
下記は、HEVCで規定されているインター予測モードに関する詳細を提供する。記載はマージモードから始まる。
2.1.1.参照ピクチャリスト
HEVCでは、インター予測という用語が、現在のデコードされているピクチャ以外の参照ピクチャのデータ要素(例えば、サンプル値又は動きベクトル)から導出された予測を表すために使用される。同様に、H.264/AVCでは、ピクチャは、複数の参照ピクチャから予測され得る。インター予測のために使用される参照ピクチャは、1つ以上の参照ピクチャリストに編成される。参照インデックスは、リスト内のどの参照ピクチャが予測信号を生成するために使用されるべきであるかを識別する。
単一の参照ピクチャリストList0は、Pスライスのために使用され、2つの参照リストList0及びList1は、Bスライスのために使用される。留意されるべきは、List0/1に含まれる参照ピクチャは、捕捉/表示順序に関して過去及び未来のピクチャからであってよい点である。
2.1.2.マージモード
2.1.2.1.マージモードのための候補の導出
PUがマージモードを用いて予測される場合に、merge candidates list(マージ候補リスト)内のエントリを指し示すインデックスは、ビットストリームからパースされ、動き情報を読み出すために使用される。このリストの構成は、HEVC標準規格で規定されており、次のステップの連続に従って手短に述べられ得る:
ステップ1:初期候補の導出
ステップ1.1:空間的候補の導出
ステップ1.2:空間的候補に対する冗長性検査
ステップ1.3:時間的候補の導出
ステップ2:追加候補の挿入
ステップ2.1:双予測候補の生成
ステップ2.2:ゼロ動き候補の挿入
これらのステップは、図1でも概略的に説明されている。初期マージ候補の導出のために、最大4つのマージ候補が、5つの異なった位置にある候補の中から選択される。時間マージ候補の導出のために、最大1つのマージ候補が、2つの候補の中から選択される。PUごとの一定数の候補がデコーダで考えられているので、ステップ1から取得された候補の数が、スライスヘッダでシグナリングされているマージ候補の最大数(MaxNumMergeCand)に達しない場合には、追加候補が生成される。候補の数は一定であるから、最良のマージ候補のインデックスは、トランケーテッドユーナリー二値化(truncated unary binarization,TU)を用いて符号化される。CUのサイズが8に等しい場合に、現在のCUの全てのPUは、2N×2N予測ユニットのマージ候補リストと同一である単一のマージ候補リストを共有する。
以下では、上記のステップに関連した動作が詳述される。
図1は、マージ候補リスト構成のための導出プロセスの例を示す。
2.1.2.2.空間的候補の導出
空間マージ候補の導出において、最大4つのマージ候補が、図2に表されている位置にある候補の中から選択される。導出の順序は、A、B、B、A、及びBである。位置Bは、位置A、B、B、AのいずれかのPU(それが他のスライス又はタイルに属するために)利用可能でないか、あるいは、イントラコーディングされている場合にのみ検討される。位置Aでの候補が加えられた後、残りの候補の追加は冗長性検査を受ける。これは、同じ動き情報を有する候補が、コーディング効率が改善されるようにリストから外されることを確かにする。
計算複雑性を低減するために、上記の冗長性検査において、可能性がある全ての候補対が検討されるわけではない。代わりに、図3において矢印で結ばれている対が検討され、候補は、冗長性検査のために使用された対応する候補が同じ動き情報を有していない場合にのみリストに加えられる。そっくり同じ動き情報の他のソースは、2N×2Nとは異なるパーティションに関連した「第2PU」である。例として、図4は、夫々、N×2N及び2N×Nの場合について、第2PUを表す。現在のPUがN×2Nとしてパーティション化される場合に、位置Aでの候補はリスト構成のために考慮に入れられない。実際に、この候補を加えることで、同じ動き情報を有する2つの予測ユニットが生じることになり、これは、コーディングユニット内でただ1つのPUを有するには冗長である。同様に、位置Bは、現在のPUが2N×Nとしてパーティション化される場合に考慮に入れられない。
2.1.2.3.時間的候補の導出
このステップでは、ただ1つの候補がリストに加えられる。特に、この時間マージ候補の導出において、スケーリングされた動きベクトルは、所与の参照ピクチャリスト内で現在のピクチャとのPOC差が最小であるピクチャに属する同一位置(co-located)PUに基づいて導出される。同一位置PUの導出のために使用される参照ピクチャリストは、スライスヘッダで明示的にシグナリングされる。時間マージ候補のスケーリングされた動きベクトルは、図5で破線によって表されるように取得され、POC距離tb及びtdを用いて同一位置PUの動きベクトルからスケーリングされている。tbは、現在のピクチャの参照ピクチャと現在のピクチャとの間のPOC距離であるよう定義され、tdは、同一位置ピクチャの参照ピクチャと同一位置ピクチャとの間のPOC差であるよう定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しくセットされる。スケーリングプロセスの実際の実現は、HEVC規格で記載されている。Bスライスについては、2つの動きベクトル(1つは参照ピクチャリスト0用であり、もう1つは参照ピクチャリスト1用である)が取得され、双予測マージ候補を生成するよう結合される。
図5は、時間マージ候補の動きベクトルスケーリングの実例である。
参照フレームに属する同一位置PU(Y)では、時間的候補の位置が、図6に表されているように、候補C及びCの間で選択される。位置CにあるPUが利用可能でないか、イントラコーディングされているか、あるいは、現在のコーディングツリーユニット(Coding Tree Unit,CTU、別名最大コーディングユニット(Largest Coding Unit,LCU)行の外にある場合に、位置Cが使用される。そうでない場合には、位置Cが時間マージ候補の導出において使用される。
図6は、時間マージ候補の候補位置C0及びC1の例を示す。
2.1.2.4.追加候補の挿入
空間及び時間マージ候補に加えて、2つの更なるタイプのマージ候補、すなわち、複合双予測マージ候補(combined bi-predictive merge candidate)及びゼロマージ候補(zero merge candidate)が存在する。複合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。複合双予測マージ候補は、Bスライスにのみ使用される。複合双予測マージ候補は、最初の候補の第1参照ピクチャリスト動きパラメータを他の第2参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なった動き仮説(hypotheses)をもたらす場合に、それらは新しい双予測候補を形成することになる。一例として、図7は、mvL0及びrefIdxL0又はmvL1及びrefIdx1を有する原リスト(左側にある)内の2つの候補が、最終的なリスト(右側にある)に加えられる複合双予測マージ候補を生成するために使用される場合を表す。これらの追加マージ候補を生成するために考えられる組み合わせに関して多数の規則がある。
ゼロ動き候補は、マージ候補リスト内の残りのエントリを満たして、MaxNumMergeCand容量に達するよう挿入される。これらの候補は、ゼロ空間変位と、ゼロから始まって、新しいゼロ動き候補がリストに加えられるたびに増える参照ピクチャインデックスとを有している。
より具体的には、次のステップが、マージリストが一杯になるまで順番に実行される:
1.Pスライスについては、リスト0に関連した参照ピクチャの数、又はBスライスについては、2つのリスト内の参照ピクチャの最小数、のどちらか一方に変数numRefをセットする;
2.非反復的なゼロ動き候補を加える;
0・・・numRef-1である変数iについては、(0,0)にセットされたMVと、リスト0(Pスライスの場合)について又は両方のリスト(Bスライスの場合)についてiにセットされた参照ピクチャインデックスとを有するデフォルトの動き候補を加える。
3.(0,0)にセットされたMVと、0にセットされたリスト0(Pスライスの場合)の参照ピクチャインデックスと、0にセットされた両方のリスト(Bスライスの場合)の参照ピクチャインデックスとを有する反復的なゼロ動き候補を加える。
最後に、それらの候補に対して冗長性検査は実行されない。
2.1.3.AMVP
AMVP(Advanced Motion Vector Prediction)は、動きパラメータの明示的な伝送のために使用される隣接PUとの動きベクトルの空間時間相関を利用する。参照ピクチャリストごとに、動きベクトル候補リストは、左及び上にある時間的に隣接したPU位置の利用可能性を最初に確認し、冗長な候補を除いて、候補リストを一定の長さにするようゼロベクトルを加えることによって、構成される。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。同様に、マージインデックスシグナリングにより、最良の動きベクトル候補のインデックスは、トランケーテッドユーナリー(truncated unary)を用いて符号化される。この場合に符号化される最大値は2である(図8を参照)。以下のセクションでは、動きベクトル予測候補の導出プロセスに関する詳細が提供される。
2.1.3.1.AMVP候補の導出
図8は、動きベクトル予測候補の導出プロセスを要約する。
動きベクトル予測では、2つのタイプの動きベクトル候補、すなわち、空間動きベクトル候補及び時間動きベクトル候補、が考えられている。空間動きベクトル候補導出については、2つの動きベクトル候補が、図2に表されるように5つの異なった位置にある各PUの動きベクトルに基づいて最終的に導出される。
時間動きベクトル候補導出については、2つの異なった同一位置の位置に基づいて導出される2つの候補から、1つの動きベクトル候補が選択される。空間時間的候補の第1リストが生成された後、リスト内の重複した動きベクトル候補が除かれる。潜在的な候補の数が2つよりも多い場合には、関連する参照ピクチャリスト内の参照ピクチャインデックスが1よりも大きい動きベクトル候補は、リストから除かれる。空間時間動きベクトル候補の数が2つよりも少ない場合には、追加のゼロ動きベクトル候補がリストに加えられる。
2.1.3.2.空間動きベクトル候補
空間動きベクトル候補の導出において、図2に表されるような位置(これらの位置は、動きマージのそれらと同じである)にあるPUから導出される5つの潜在的な候補から、最大2つの候補が考えられる。現在のPUの左側の導出の順序は、A、A及びスケーリングされたA、スケーリングされたAとして定義される。現在のPUの上側の導出の順序は、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBとして定義される。夫々の側について、従って、動きベクトル候補として使用され得る4つの場合が存在し、2つの場合は、空間スケーリングを使用することが不要であり、他の2つの場合には、空間スケーリングが使用される。4つの異なる場合は、次のように簡単に述べられる。
・空間スケーリングなし
(1)同じ参照ピクチャリスト、かつ同じ参照ピクチャインデックス(同じPOC)
(2)異なる参照ピクチャリスト、しかし同じ参照ピクチャ(同じPOC)
・空間スケーリング
(3)同じ参照ピクチャリスト、しかし異なる参照ピクチャ(異なるPOC)
(4)異なる参照ピクチャリスト、かつ異なる参照ピクチャ(異なるPOC)
空間スケーリングなしの場合が最初に確認され、その後に空間スケーリングが続く。空間スケーリングは、参照ピクチャリストにかかわらず隣接PUの参照ピクチャと現在のPUのそれとの間でPOCが異なる場合に考えられる。左の候補の全てのPUが利用不可能であるか、又はイントラコーディングされている場合に、上の動きベクトルのスケーリングが、左及び上のMV候補の並列導出を助けるよう可能にされる。そうでない場合には、空間スケーリングは、上の動きベクトルに対して認められないい。
図9は、空間動きベクトル候補のための動きベクトルスケーリングの実例である。
空間スケーリングプロセスでは、隣接PUの動きベクトルは、図9に表されるように、時間スケーリングの場合と同じようにしてスケーリングされる。主な違いは、現在のPUの参照ピクチャリスト及びインデックスが入力として与えられる点であり、実際のスケーリングプロセスは時間スケーリングのそれと同じである。
2.1.3.3.時間動きベクトル候補
参照ピクチャインデックス導出は別として、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出(図6を参照)の場合と同じである。参照ピクチャインデックスはデコーダへシグナリングされる。
2.2.JEMにおけるサブCUに基づいた動きベクトル予測方法
四分木プラス二分木(quadtrees plus binary trees,QTBT)によるJEMでは、各CUは、予測方向ごとに多くてもひと組の動きパラメータを有することができる。2つのサブCUレベル動きベクトル予測方法が、大きいCUをサブCUに分割し、大きいCUの全てのサブCUについて動き情報を導出することによって、エンコーダにおいて考えられている。代替時間動きベクトル予測(ATMVP)方法は、各CUが、同一位置の参照ピクチャにある現在のCUよりも小さい複数のブロックから複数の組の動き情報をフェッチすることを可能にする。空間時間動きベクトル予測(STMVP)方法では、サブCUの動きベクトルは、時間動きベクトル予測子及び空間隣接動きベクトルを使用することによって再帰的に導出される。
サブCU動き予測のためのより正確な運動場を保つために、参照フレームのための動き圧縮は目下無効にされている。
図10は、CUに対するATMVP動き予測の例を示す。
2.2.1.代替時間動きベクトル予測
代替時間動きベクトル予測(Alternative Temporal Motion Vector Prediction,ATMVP)法では、動きベクトルの時間動きベクトル予測(Temporal Motion Vector Prediction,TMVP)が、現在のCUよりも小さいブロックから複数の組の動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって改良されている。CUは、正方N×Nブロックである(Nはデフォルトで4にセットされる)。
ATMVPは、2つのステップでCU内のサブCUの動きベクトルを予測する。最初のステップは、いわゆる時間ベクトルにより参照ピクチャ内の対応するブロックを識別することである。参照ピクチャは、モーションソースピクチャ(motion source picture)と呼ばれる。第2のステップは、現在のCUをサブCUに分け、各サブCUに対応するブロックから各サブCUの動きベクトル及び参照インデックスを取得することである。
最初のステップで、参照ピクチャ及び対応するブロックは、現在のCUの空間隣接ブロックの動き情報によって決定される。隣接ブロックの反復的な走査プロセスを回避するために、現在のCUのマージ候補リスト内の最初のマージ候補が使用される。最初の利用可能な動きベクトル及びその関連する参照インデックスが、時間ベクトルと、モーションソースピクチャへのインデックスとであるようセットされる。このようにして、ATMVPでは、対応するブロックは、TMVPと比較して、より正確に識別され得る。ここで、対応するブロック(時々、同一位置ブロックと呼ばれる)は、現在のCUに対して右下又は中心位置に常にある。
第2のステップで、サブCUの対応するブロックは、モーションソースピクチャの時間ベクトルによって、現在のCUの座標にその時間ベクトルを加えることによって識別される。各サブCUについて、その対応するブロック(中心サンプルをカバーする最小モーショングリッド)の動き情報が、当該サブCUの動き情報を導出するために使用される。対応するN×Nブロックの動き情報が識別された後、それは、HEVCのTMVPと同じように、現在のサブCUの動きベクトル及び参照インデックスに変換される。このとき、動きスケーリング及び他のプロシージャが適用される。例えば、デコーダは、低遅延条件(すなわち、現在のピクチャの全ての参照ピクチャのPOCが現在のピクチャのPOCよりも小さい)が満足されるかどうかを確認し、場合により、各サブCUについて動きベクトルMVy(Xは0又は1に等しく、Yは1-Xに等しい)を予測するために動きベクトルMVx(参照ピクチャリストXに対応する動きベクトル)を使用する。
2.2.2.空間時間動きベクトル予測(STMVP)
空間時間動きベクトル予測(spatial-temporal motion vector prediction,STMVP)法では、サブCUの動きベクトルは、ラスタ走査順序に従って、再帰的に導出される。図11は、この概念を表す。4つのサブブロックA、B、C及びDを含む8×8CUを考えるとする。現在のフレームの隣接する4×4ブロックは、a、b、c及びdと表記される。
サブCU Aの動き導出は、その2つの空間近傍を識別することによって開始する。第1近傍は、サブCU Aの上にあるN×Nブロック(ブロックc)である。このブロックcが利用不可能であるか、又はイントラコーディングされている場合に、サブCU Aの上にある他のN×Nブロックが確認される(ブロックcから始まって、左から右へ)。第2近傍は、サブCU Aの左にあるブロック(ブロックb)である。ブロックbが利用不可能であるか、又はイントラコーディングされている場合に、サブCU Aの左にある他のブロックが確認される(ブロックbから始まって、上から下へ)。各リストについて隣接ブロックから取得された動き情報は、所与のリストについての第1参照フレームにスケーリングされる。次に、サブブロックAの時間動きベクトル予測子(TMVP)が、HEVCで定められているTMVP導出の同じプロシージャに従うことによって、導出される。位置Dでの同一位置ブロックの動き情報は、それに応じてフェッチされスケーリングされる。最後に、動き情報を取り出しスケーリングした後、全ての利用可能な動きベクトル(最大3つ)は、参照リストごとに別々に平均化される。平均化された動きベクトルは、現在のサブCUの動きベクトルとして割り当てられる。
2.2.3.サブCU動き予測モードシグナリング
サブCUモードは、追加のマージ候補として使用可能であり、モードをシグナリングするために追加のシンタックス要素は必要とされない。2つの追加マージ候補が、ATMVPモード及びSTMVPモードを表すために各CUのマージ候補に加えられる。ATMVP及びSTMVPが使用可能であることをシーケンスパラメータセットが示す場合には、最大7つのマージ候補が使用される。追加マージ候補の符号化ロジックは、HMにおけるマージ候補の場合と同じである。これは、P又はBスライス内の各CUについて、2つ以上のRDチェックが2つの追加マージ候補のために必要とされる可能性があることを意味する。
JEMでは、マージインデックスの全ビンが、CABAC(Context-based Adaptive Binary Arithmetic Coding))によってコンテキストコーディングされる。一方、HEVCでは、最初のビンのみがコンテキストコーディングされ、残りのビンは、コンテキストバイパスコーディングされる。
2.3.VVCにおけるインター予測方法
MVDをシグナリングするための適応動きベクトル差分分解(Adaptive Motion Vector Difference Resolution,AMVR)、アフィン予測モード、三角予測モード(Triangular Prediction Mode,TPM)、ATMVP、一般化された双予測(Generalized Bi-Prediction,GBI)、双予測オプティカルフロー(Bi-directional Optical Flow,BIO)などの、インター予測の改善のためのいくつかの新しいコーディングツールが存在する。
2.3.1.適応動きベクトル差分分解
HEVCでは、(PUの動きベクトルと予測された動きベクトルとの間の)動きベクトル差分(MVD)は、スライスヘッダにおいてuse_integer_my_flagが0に等しいときに4分の1ルーマサンプルの単位でシグナリングされる。VVCでは、局所適応動きベクトル分解(LAMVR)が紹介されている。VVCでは、MVDは、4分の1ルーマサンプル、整数ルーマサンプル、又は4ルーマサンプルの単位(すなわち、1/4ペル、1ペル、4ペル)でコーディングされ得る。MVD分解は、コーディングユニット(CU)レベルで制御され、MVD分解フラグは、少なくとも1つの非ゼロMVD成分を有している各CUについて条件付きでシグナリングされる。
少なくとも1つの非ゼロMVD成分を有するCUについては、4分の1ルーマサンプルMV精度がCUで使用されるかどうかを示すために、第1フラグがシグナリングされる。第1グラフ(1に等しい)が、4分の1ルーマサンプルMV精度が使用されないことを示す場合に、整数ルーマサンプルMV精度又は4ルーマサンプルMV精度が使用されるかどうかを示すために、他のフラグがシグナリングされる。
CUの第1MVD分解フラグがゼロであるか、あるいは、CUに対してコーディングされない(つまり、CU内の全てのMVDがゼロである)場合に、そのCUに対しては、4分の1ルーマサンプルMV分解が使用される。CUが整数ルーマサンプルMV精度又は4ルーマサンプルMVDがゼロ精度を使用する場合に、そのCUのAMVP候補リスト内のMVPは、対応する精度に丸められる。
エンコーダでは、そのMVD分解能がCUに対して使用されるべきであるかを決定するために、CUレベルのRDチェックが使用される。すなわち、CUレベルのRDチェックは、MVD分解能ごとに3回実行される。エンコーダ速度を加速させるために、次の符号化スキームがJEMでは適用される。
・通常の4分の1ルーマサンプルMVD分解能によるCUのRDチェックの間、現在のCUの動き情報(整数ルーマサンプル精度)が保存される。保存された動き情報(丸め後)は、整数ルーマサンプル及び4ルーマサンプルMVD分解能による同じCUに対するRDチェックの間に更なる小範囲動きベクトル精緻化のために開始点として使用される。それにより、時間のかかる動き推定プロセスは3回繰り返されない。
・4ルーマサンプルMVD分解能によるCUのRDチェックは、条件付きで呼び出される。あるCUについて、RDコスト整数ルーマサンプルMVD分解能が4分の1ルーマサンプルMVD分解能のそれよりもずっと大きい場合に、そのCUに対する4ルーマサンプルMVD分解能のRDチェックはスキップされる。
符号化プロセスは図12に示される。最初に、1/4ペルMVがテストされ、RDコストが計算されてRDCost0と表され、次いで、整数MVがテストされ、RDコストはRDCost1と表される。RDCost1<th×RDCost0である場合に(thは正の値である)、4ペルMVはテストされ、そうでない場合には、4ペルMVはスキップされる。基本的に、動き情報及びRDコストなどは、整数又は4ペルMVをチェックするときに4/1ペルMVについて既に知られており、これらは、整数又は4ペルMVの符号化プロセスを加速させるために再利用され得る。
VVCで、AMVRはアフィン予測モードにも適用可能であり、分解能は1/16ペル、1/4ペル及び1ペルから選択され得る。
図12は、異なるMV精度による符号化のフローチャートである。
2.3.2.三角予測モード
三角予測モード(TPM)の概念は、動き補償された予測のための新しい三角パーティションを導入することである。図13に示されるように、それはCUを対角又は逆対角方向のどちらか一方で2つの三角予測ユニットに分割する。CU内の各三角予測ユニットは、単一の片予測候補リストから導出されるそれ自体の片予測動きベクトル及び参照フレームインデックスを用いてインター予測される。適応重み付けプロセスは、三角予測ユニットを予測した後に、対角辺に対して実行される。次いで、変換及び量子化プロセスがCU全体に適用される。このモードは、マージモードにのみ適用されることが知られる(注記:スキップモードは特別なマージモードとして扱われる。)。
2.3.2.1.TPMのための片予測候補リスト
TPM動き候補リストと名付けられている片予測候補リストは、5つの片予測動きベクトル候補から成る。それは、図14に示されるように、5つの空間隣接ブロック(1から5)及び2つの時間同一位置ブロック(6から7)を含む7つの隣接ブロックから導出される。7つの隣接ブロックの動きベクトルは集められ、片予測動きベクトルの順序、双予測動きベクトルのL0動きベクトル、双予測動きベクトルのL1動きベクトル、並びに双予測動きベクトルのL0及びL1動きベクトルの平均化された動きベクトルに従って片予測候補リストに置かれる。候補の数が5に満たない場合には、ゼロ動きベクトルがリストに加えられる。このリストに加えられた動き候補は、TPM動き候補と呼ばれ、空間/時間ブロックから導出された動き情報は、正則動き候補(regular motion candidates)と呼ばれる。
より具体的には、次のステップが含まれる。
1)空間隣接ブロックの例から正則動き候補を加える場合に完全プルーニング動作を用いて、B、B、A、B、Col及びCol2(図14のブロック1~7に対応)から動き候補を取得する。
2)変数numCurrMergeCand=0をセットする。
3)A、B、B、A、B、Col及びCol2から導出された正則動き候補ごとに、プルーニングされず、かつ、numCurrMergeCandが5よりも小さい場合に、正則動き候補が片予測(リスト0又はリスト1のどちらか一方から)であるならば、それは、numCurrMergeCandを1増やしてTPM候補としてマージリストに直接に追加される。そのようなTPM候補は、「元々片予測された候補」(originally uni-predicted candidate)と呼ばれる。
完全プルーニング(full pruning)が適用される。
4)A、B、B、A、B、Col及びCol2から導出された動き候補ごとに、プルーニングされず、かつ、numCurrMergeCandが5よりも小さい場合に、正則動き候補が双予測であるならば、リスト0からの動き情報が新しいTPM候補としてTPMマージリストに追加され(すなわち、リスト0からの片予測であるよう変更され)、numCurrMergeCandは1だけ増やされる。そのようなTMP候補は、「切り捨てられたリスト0予測候補」(Truncated List0-predicted candidate)と呼ばれる。
完全プルーニングが適用される。
5)A、B、B、A、B、Col及びCol2から導出された動き候補ごとに、プルーニングされず、かつ、numCurrMergeCandが5よりも小さい場合に、正則動き候補が双予測であるならば、リスト1からの動き情報がTPMマージリストに追加され(すなわち、リスト1からの片予測であるよう変更され)、numCurrMergeCandは1だけ増やされる。そのようなTPM候補は、「切り捨てられたリスト1予測候補」(Truncated List1-predicted candidate)と呼ばれる。
完全プルーニングが適用される。
6)A、B、B、A、B、Col及びCol2から導出された動き候補ごとに、プルーニングされず、かつ、numCurrMergeCandが5よりも小さい場合に、正則動き候補が双予測であるならば、
- リスト0参照ピクチャのスライス量子化パラメータ(QP)がリスト1参照ピクチャのスライスQPよりも小さい場合には、リスト1の動き情報が最初にリスト0参照ピクチャにスケーリングされ、2つのMV(一方は元のリスト0からであり、他方はリスト1からのスケーリングされたMVである。)の平均がTPMマージリストに追加される。このような候補は、リスト0動き候補からの平均された片予測と呼ばれ、numCurrMergeCandは1だけ増やされる。
- そうでない場合には、リスト0の動き情報が最初にリスト1参照ピクチャにスケーリングされ、2つのMV(一方は元のリスト1からであり、他方はリスト0からのスケーリングされたMVである。)の平均がTPMマージリストに加えられる。このようなTPM候補は、リスト1動き候補からの平均された片予測と呼ばれ、numCurrMergeCandは1だけ増やされる。
完全プルーニングが適用される。
7)numCurrMergeCandが5よりも小さい場合に、ゼロ動きベクトル候補が加えられる。
図14は、隣接ブロックの位置の例を示す。
候補をリストに挿入するときに、以前に加えられた候補のうちの1つとそれが同じであるかどうかを確かめるために、挿入される候補が、以前に加えられた候補の全てと比較される必要がある場合に、そのようなプロセスは完全プルーニングと呼ばれる。
2.3.2.2.適応重み付けプロセス
各三角予測ユニットを予測した後、CU全体の最終的な予測を導出するために、2つの三角予測ユニットの間の対角辺に適応重み付けプロセスが適用される。2つの重み付け係数グループが次のように定義される:
・第1重み付け係数グループ:{7/8,6/8,4/8,2/8,1/8}及び{7/8,4/8,1/8}は、夫々、ルミナンスサンプル及びクロミナンスサンプルのために使用される。
・第2重み付け係数グループ:{7/8,6/8,5/8,4/8,3/8,2/8,1/8}及び{6/8,4/8,2/8}は、夫々、ルミナンスサンプル及びクロミナンスサンプルのために使用される。
重み係数グループは、2つの三角予測ユニットの動きベクトルの比較に基づき選択される。第2重み係数グループは、2つの三角予測ユニットの参照ピクチャが互いに異なるか、あるいは、それらの動きベクトル差分が16ピクセルよりも大きい場合に、使用される。そうではない場合に、第1重み付け係数グループは使用される。例は図15に示される。
2.3.2.3.三角予測モード(TPM)のシグナリング
TPMが使用されるかどうかを示す1ビットフラグが、最初にシグナリングされてよい。その後に、2つの分割パターン(図13に図示)の指示と、2つのパーティションの夫々についての選択されたマージインデックスとが、更にシグナリングされる。
2.3.2.3.1.TPMフラグのシグナリング
1つのルーマブロックの幅及び高さを夫々、W及びHによって表すとする。W×H<64である場合に、三角予測モードは無効にされる。
1つのブロックがアフィンモードでコーディングされる場合に、三角予測モードはやはり無効にされる。
1つのブロックがマージモードでコーディングされる場合に、三角予測モードがそのブロックについて有効又は無効にされるかどうかを示すために、1ビットフラグがシグナリングされ得る。
フラグは、次の式に基づき、3つのコンテキストでコーディングされる:
Figure 2022532629000002
図15は、TPMフラグコーディングでコンテキスト選択のために使用される隣接ブロック(A及びL)を示す。
2.3.2.3.2.2つの分割パターン(図13に図示)の指示及び2つのパーティションの夫々についての選択されたマージインデックスのシグナリング
分割パターン及び2つのパーティションのマージインデックスは一緒にコーディングされることが知られている。いくつかの実施で、2つのパーティションは同じ参照インデックスを使用することができない、と制限される。そのため、2(分割パターン)×N(マージ候補の最大数)×(N-1)通りの可能性がある。ここで、Nは5にセットされる。1つの指示がコーディングされ、分割パターン間のマッピング、2つのマージインデックス、及びコーディングされた指示は、以下で定義されているアレイから導出される:
Figure 2022532629000003
2つの動き候補A及びBが導出されると、2つのパーティション(PU1及びPU2)の動き情報はA又はBのどちらか一方からセットされ得る。PU1がマージ候補A又はBのどちらの動き情報を使用するかは、2つの動き候補の予測方向に依存する。表1は、2つのパーティションについて、2つの導出された動き候補A及びBの間の関係を示す。
Figure 2022532629000004
2.3.2.3.3.指示(merge_triangle_idxと表される)のエントロピコーディング
merge_triangle_idxは、0以上39以下の範囲([0,39])内にある。K次の指数ゴロム(Exponential Golomb,EG)コードは、merge_triangle_idxの二値化のために使用される。ここで、Kは1にセットされる。
K次のEG
(より小さい数をエンコードするためにより多くの数を使用することを犠牲にして)より少ないビットでより大きい数をエンコードするために、これは、非負整数パラメータkを用いて一般化され得る。非負整数xを次数kの指数ゴロムコードでエンコードするために:
1.上記の次数0の指数ゴロムコードを用いて
Figure 2022532629000005
をエンコードし、次いで、
2.二進法でxmod2をエンコードする。
Figure 2022532629000006
2.3.3.アフィン動き補償予測
HEVCでは、並進運動モデル(translation motion model)しか動き補償予測(Motion Compensation Prediction,MCP)のために適用されない。現実世界では、多くの種類の動き、例えば、ズームイン/アウト、回転、射影運動、及び他の不規則な動きを有する可能性がある。VVCでは、簡単化されたアフィン変換動き補償予測が4パラメータアフィンモデル及び6パラメータアフィンモデルにより適用される。図16に示されるように、ブロックのアフィン運動場は、4パラメータアフィンモデルについては2つの制御点動きベクトル(Control Point Motion Vectors,CPMV)、及び6パラメータアフィンモデルについては3つのCPMVによって記述される。
図16は、簡単化されたアフィン運動モデルの例を示す。
ブロックの動きベクトル場(Motion Vector Field,MVF)は、式(1)の4パラメータアフィンモデル(ここで、4パラメータは、変数a、b、e及びfとして定義されている。)及び式(2)の6パラメータアフィンモデル(ここで、6パラメータは、a、b、c、d、e及びfとして定義されている。)により夫々、次の式によって記述される:
Figure 2022532629000007
ここで、(mv ,mv )は、左上隅の制御点の動きベクトルであり、(mv ,mv )は、右上隅の制御点の動きベクトルであり、(mv ,mv )は、左下隅の制御点の動きベクトルであり、これら3つの動きベクトルは全て、制御点動きベクトル(CPMV)と呼ばれ、(x,y)は、現在のブロック内の左上サンプルに対する代表点の座標を表し、(mv(x,y),mv(x,y))は、(x,y)に位置しているサンプルについて導出された動きベクトルである。CP動きベクトルは、シグナリング(アフィンAMVPモードと同様)されるか、あるいは、オン・ザ・フライで導出(アフィンモードと同様)されてよい。w及びhは、現在のブロックの幅及び高さである。実際に、分割は、丸め演算付き右シフトによって実施される。VTMでは、代表点は、サブブロックの中心位置であるよう定義され、例えば、現在のブロック内の左上サンプルに対するサブブロックの左上隅の座標が(xs,ys)である場合に、代表点の座標は、(xs+2,ys+2)であるよう定義される。各サブブロック(すなわち、VTMでは4×4)について、代表点は、そのサブブロック全体の動きベクトルを導出するために利用される。
動き補償予測を更に簡単にするために、サブブロックベースのアフィン変換予測が適用される。各M×Nサブブロック(M及びNは両方とも、現在のVVCでは、4にセットされる。)の動きベクトルを導出するために、図17に示される各サブブロックの中心サンプルの動きベクトルは、式(1)及び(2)に従って計算され、1/16分数精度に丸められ得る。次いで、1/16ペルのための動き補償補間フィルタが、導出された動きベクトルにより各サブブロックの予測を生成するために適用される。1/16ペルのための補間フィルタがアフィンモードによって導入される。
MCPの後、各サブブロックの高精度動きベクトルは丸められ、通常の動きベクトルと同じ精度としてセーブされる。
2.3.3.1.アフィン予測のシグナリング
並進運動モデルと同様に、アフィンモデルによるサイド情報をシグナリングするための2つのモードもある。それらは、AFFINE_INTERモード及びAFFINE_MERGEモードである。
2.3.3.2.AF_INTERモード
幅及び高さの両方が8よりも大きいCUについては、AF_INTERモードが適用され得る。CUレベルでのアフィンフラグは、AF_INTERモードが使用されるかどうかを示すためにビットストリームでシグナリングされる。
このモードで、各参照ピクチャリスト(List0又はList1)について、アフィンAMVP候補リストは、次の順序で3つのタイプのアフィン動き予測子により構成され、各候補は、現在のブロックの推定されたCPMVを含む。エンコーダ側で見つけられた最良のCPMV(例えば、図20のmv、mv、mv)と推定されたCPMVとの差がシグナリングされる。更には、推定されたCPMVが導出されるアフィンAMVP候補のインデックスが更にシグナリングされる。
1)遺伝的(つまり、引き継がれた(inherited))アフィン動き予測子
検査順序は、HEVC AMVPリスト構成における空間MVPのそれと同様である。最初に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{A1,A0}内の最初のブロックから、左側の遺伝的アフィン動き予測子が導出される。第2に、現在のブロックと同じ参照ピクチャを有し、アフィンコーディングされている{B1,B0,B2}内の最初のブロックから、上側の遺伝的アフィン動き予測子が導出される。5つのブロックA1、A0、B1、B0、B2は、図19に表されている。
隣接するブロックがアフィンモードでコーディングされていると分かると、隣接するブロックをカバーするコーディングユニットのCPMVは、現在のブロックのCPMVの予測子を導出するために使用される。例えば、A1が非アフィンモードでコーディングされ、A0が4パラメータアフィンモードでコーディングされる場合に、左側の遺伝的アフィンMV予測子はA0から導出されることになる。この場合に、図21Bで左上CPMVについてはMV 及び右上CPMVについてはMV によって表されている、A0をカバーするCUのCPMVは、現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についてMV 、MV 、MV によって表される現在のブロックの推定されたCPMVを導出するために利用される。
2)構成されたアフィン動き予測子
構成されたアフィン動き予測子は、同じ参照ピクチャを有している、図20に示されるような隣接するインターコーディングされたブロックから導出される制御点動きベクトル(CPMV)から成る。現在のアフィン運動モデルが4パラメータアフィンである場合に、CPMVの数は2であり、そうではなく、現在のアフィン運動モデルが6パラメータアフィンである場合に、CPMVの数は3である。左上CPMV
(外1)
Figure 2022532629000008
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{A,B,C}内の最初のブロックでのMVによって、導出される。右上CPMV
(外2)
Figure 2022532629000009
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{D,E}内の最初のブロックでのMVによって、導出される。左下CPMV
(外3)
Figure 2022532629000010
(以降、バーmv)は、現在のブロックと同じ参照ピクチャを有している、インターコーディングされているグループ{F,G}内の最初のブロックでのMVによって、導出される。
- 現在のアフィン運動モデルが4パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv及びバーmvの両方が求められる、つまり、バーmv及びバーmvが現在のブロックの左上位置(座標(x0,y0)を有する)及び右上位置(座標(x1,y1)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
- 現在のアフィン運動モデルが6パラメータアフィンである場合に、構成されたアフィン動き予測子は、バーmv、バーmv、及びバーmvが全て求められる、つまり、バーmv、バーmv、及びバーmvが現在のブロックの左上位置(座標(x0,y0)を有する)、右上位置(座標(x1,y1)を有する)及び右下位置(座標(x2,y2)を有する)についての推定されたCPMVとして使用される場合にのみ、候補リストに挿入される。
構成されたアフィン動き予測子を候補リストに挿入する場合に、プルーニングプロセスは適用されない。
3)通常のAMVP動き予測子
以下は、アフィン動き予測の数が最大値に達するまで適用される。
1)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
2)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
3)利用可能である場合に全てのCPMVをバーmvに等しくセットすることによってアフィン動き予測子を導出する。
4)利用可能である場合に全てのCPMVをHEVC TMVPに等しくセットすることによってアフィン動き予測子を導出する。
5)全てのCPMVをゼロMVにセットすることによってアフィン動き予測子を導出する。
留意されるべきは、
(外4)
Figure 2022532629000011
(以降、バーmv)は、構成されたアフィン運動では既に導出されている点である。
AF_INTERモードでは、4又は6パラメータアフィンモードが使用される場合に、2又は3つの制御点が必要とされるので、2つ又は3つのMVDが、図18に示されるように、それらの制御点に対してコーディングされる必要がある。JVET-K0337では、MVを次のように導出することが提案されており、すなわち、mvdからmvd及びmvdが予測される。
Figure 2022532629000012
ここで、バーmv、mvd及びmvは、図18(b)に示されるように、夫々、左上ピクセル(i=0)、右上ピクセル(i=1)、又は左下ピクセル(i=2)の予測された動きベクトル、動きベクトル差分及び動きベクトルである。2つの動きベクトル(例えば、mvA(xA,yA)及びmvB(xB,yB))の追加は、別々に2つの成分の和に等しいことに留意されたい。すなわち、newMV=mvA+mvBであり、newMVの2つの成分は夫々、(xA+xB)及び(yA+yB)にセットされる。
2.3.3.3.AF_MERGEモード
CUがAF_MERGEモードで適用される場合に、それは、有効な隣接する再構成されたブロックからアフィンモードによりコーディングされた最初のブロックを得る。そして、候補ブロックの選択順序は、図21(a)に示されるように、左から、上、右上、左下、左上へである(順にA、B、C、D、Eによって表される)。例えば、隣接する左下ブロックが、図21(b)でA0によって表されるように、アフィンモードでコーディングされる場合に、ブロックAを含む隣接するCU/PUの左上隅、右上隅、及び左下隅の制御点(CP)動きベクトルmv 、mv 及びmv がフェッチされる。そして、現在のCU/PU上の左上隅/右上/左下の動きベクトルmv 、mv 及びmv (6パラメータアフィンモデルのためにのみ使用される)は、mv 、mv 及びmv に基づいて計算される。留意されるべきは、VTM-2.0では、現在のブロックがアフィンコーディングされている場合に、左上隅に位置するサブブロック(例えば、VTMでは、4×4ブロック)は、mv0を保存し、右上隅にあるサブブロックは、mv1を保存する。現在のブロックが6パラメータアフィンモデルでコーディングされる場合には、左下隅にあるサブブロックは、mv2を保存し、そうでない(4パラメータアフィンモデルによる)場合には、LBはmv2’を保存する。他のサブブロックは、MCのために使用されるMVを保存する。
現在のCUのCPMVであるmv 、Mv 及びmv が、簡単化されたアフィン運動モデル、つまり、式(1)及び(2)に従って導出された後、現在のCUのMVFが生成される。現在のCUがAF_MERGEモードでコーディングされているかどうかを識別するために、アフィンモードでコーディングされている少なくとも1つの隣接ブロックがある場合に、アフィンフラグがビットストリームでシグナリングされる。
JVET-L0142及びJVET-L0632では、アフィンマージ候補リストは、次のステップで構成される。
1)遺伝的アフィン候補の挿入
遺伝によるアフィン候補(inherited affine candidate)とは、候補が、その有効な隣接するアフィンコーディングされたブロックのアフィン運動モデルから導出されることを意味する。最大2つの遺伝的アフィン候補が、隣接ブロックのアフィン運動モデルから導出され、候補リストに挿入される。左側予測子については、走査順序は{A0,A1}であり、上側予測子については、走査順序は{B0,B1,B2}である。
2)構成されたアフィン候補の挿入
アフィンマージ候補リスト内の候補の数がMaxNumAffineCand(例えば、5つ)に満たない場合には、構成されたアフィン候補(constructed affine candidates)が候補リストに挿入される。構成されたアフィン候補とは、候補が、各制御点の隣接動き情報を結合することによって構成されることを意味する。
a)制御点の動き情報は、最初に、図22に示されている指定された空間近傍及び時間近傍から導出される。CPk(k=1,2,3,4)は、k番目の制御点を表す。A0、A1、A2、B0、B1、B2及びB3は、CPk(k=1,2,3)を予測するための空間的位置である。Tは、CP4を予測するための時間的位置である。
CP1、CP2、CP3及びCP4の座標は、夫々、(0,0)、(W,0)、(H,0)及び(W,H)であり、ここで、W及びHは、現在のブロックの幅及び高さである。
各制御点の動き情報は、次の優先順序に従って取得される:
- CP1については、チェック優先度はB2→B3→A2である。B2は、それが利用可能である場合に使用される。そうではない場合に、B3が利用可能であるならば、B3が使用される。B2及びB3の両方が利用不可能である場合には、A2が使用される。3つ全ての候補が利用不可能である場合には、CP1の動き情報は取得不可能である。
- CP2については、チェック優先度はB1→B0である。
- CP3については、チェック優先度はA1→A0である。
- CP4については、Tが使用される。
b)第2に、制御点の組み合わせが、アフィンマージ候補を構成するために使用される。
I.3つの制御点の動き情報が、6パラメータアフィン候補を構成するために必要とされる。3つの制御点は、次の4つの組み合わせ({CP1,CP2,CP4},{CP1,CP2,CP3},{CP2,CP3,CP4},{CP1,CP3,CP4})のうちの1つから選択され得る。組み合わせ{CP1,CP2,CP3}、{CP2,CP3,CP4}、{CP1,CP3,CP4}は、左上、右上、及び左下制御点によって表される6パラメータ運動モデルへ変換されることになる。
II.2つの制御点の動きベクトルが、4パラメータアフィン候補を構成するために必要とされる。2つの制御点は、次の2つの組み合わせ({CP1,CP2},{CP1,CP3})のうちの1つから選択され得る。2つの組み合わせは、左上及び右上制御点によって表される4パラメータ運動モデルへ変換されることになる。
III.構成されたアフィン候補の組み合わせは、次の順序:{CP1,CP2,CP3},{CP1,CP2,CP4},{CP1,CP3,CP4},{CP2,CP3,CP4},{CP1,CP2},{CP1,CP3}として候補リストに挿入される。
i.組み合わせごとに、各CPのためのリストXの参照インデックスはチェックされ、それらが全て同じである場合に、この組み合わせはリストXの有効なCPMVを有している。組み合わせがリスト0及びリスト1の両方の有効なCPMVを有してない場合には、この組み合わせは無効とマークされる。そうでない場合には、それは有効であり、CPMVはサブブロックマージリストに置かれる。
3)ゼロアフィン動きベクトル候補によるパディング
アフィンマージ候補リスト内の候補の数が5よりも少ない場合に、サブブロックマージ候補リストについて、4パラメータマージ候補は、MVが(0,0)にセットされ、予測方向がリスト0からの片予測(Pスライスの場合)及び双予測(Bスライスの場合)にセットされる。
2.3.4.VVCにおけるマージリスト設計
VVCでサポートされている3つの異なったマージリスト構成プロセスがある。
1)サブブロックマージ候補リスト:それはATMVP及びアフィンマージ候補を含む。1つのマージリスト構成プロセスが、アフィンモード及びATMVPモードの両方について共有される。ここで、ATMVP及びアフィンマージ候補は順番に加えられ得る。サブブロックマージリストのサイズはスライスヘッダでシグナリングされ、最大値は5である。
2)片予測TPMマージリスト:三角予測モードについては、2つのパーティションがそれら自身のマージ候補インデックスを選択することができたとしても、2つのパーティションのための1つのマージリスト構成プロセスが共有される。このマージリストを構成するときに、ブロックの空間隣接ブロック及び2つの時間ブロックがチェックされる。空間近傍及び時間ブロックから導出された動き情報は、我々のIDFでは正則動き候補と呼ばれる。これらの正則動き候補は、複数のTPM航法を導出するために更に利用される。2つのパーティションがそれら自身の予測ブロックを生成するために異なる動きベクトルを使用し得るとしても、ブロック全体のレベルで変換が実行されることに留意されたい。
片予測TPMマージリストサイズは、5であるよう固定される。
3)正則マージリスト:残りのコーディングブロックについては、1つのマージリスト構成プロセスが共有される。ここで、空間/時間/HMVP、ペアワイズの組み合わされた双予測マージ候補、及びゼロ動き候補は、順番に挿入され得る。正則マージリストのサイズはスライスヘッダでシグナリングされ、最大値は6である。
2.3.4.1.サブブロックマージ候補リスト
全てのサブブロックに関連した動き候補は、非サブブロックマージ候補のための正則マージリストに加えて別個のマージリストに置かれる。
サブブロックに関連した動き候補は、「サブブロックマージ候補リスト」と名付けられている別個のマージリストに置かれる。
一例で、サブブロックマージ候補リストは、アフィンマージ候補、及びATMVP候補、及び/又はサブブロックベースのSTMVP候補を含む。
2.3.4.1.1.JVET-L0278
この寄稿では、通常のマージリスト内のATMVPマージ候補は、アフィンマージリストの第1の位置に動かされる。それにより、新しいリスト(すなわち、サブブロックベースのマージ候補リスト)内の全てのマージ候補は、サブブロックコーディングツールに基づく。
2.3.4.1.2.JVET-N1001におけるATMVP
ATMVPは、サブブロックベースの時間動きベクトル予測(SbTMVP)としても知られている。
JVET-N1001では、サブブロックマージ候補リスト(別名、アフィンマージ候補リスト)として知られている特別なマージ候補リストが、正則マージ候補リストに加えて追加されている。サブブロックマージ候補リストは、次の順序で候補を充てんされる:
a.ATMVP候補(利用可能あっても利用不可能であってもよい);
b.遺伝的アフィン候補;
c.同一位置参照ピクチャでのMVを使用するTMVPに基づいた構成されたアフィン候補を含む構成されたアフィン候補;
d.ゼロMVとして4パラメータアフィンモデルをパディングする。
VTMは、サブブロックベースの時間動きベクトル予測(sbTMVP)方法をサポートする。HEVCでの時間動きベクトル予測(TMVP)と同様に、SbTMVPは、現在のピクチャにおけるCUのための動きベクトル予測及びマージモードを改善するよう同一位置ピクチャにおける動き場を使用する。TMVPによって使用される同じ同一位置ピクチャはSbTMVPのために使用される。sbTMVPは、次の2つの側面でTMVPとは異なっている:
1.TMVPは、CUレベルで動きを予測するが、sbTMVPは、サブCUレベルで動きを予測する。
2.TMVPは、同一位置ピクチャ内の同一位置ブロック(同一位置ブロックは、現在のCuに対する右下又は中心ブロックである)から時間動きベクトルをフェッチするが、一方で、sbTMVPは、同一位置ピクチャから時間動き情報をフェッチする前に、動きシフトを適用し、動きシフトは、現在のCUの空間隣接ブロックの1つからの動きベクトルから取得される。
SbTVMPプロセスは、図23及び図24に表されている。sbTMVPは、2つのステップで現在のCU内のサブCUの動きベクトルを予測する。第1のステップで、図23の空間近傍A1が試験される。A1が、その参照ピクチャとして同一位置ピクチャを使用する動きベクトルを有する場合に、動きベクトルは、適用されるべき動きシフトであるよう選択される。そのような動きが識別されない場合には、動きシフトは(0,0)にセットされる。
第2のステップで、ステップ1で識別された動きシフトは、図24に示されるように同一位置ピクチャからサブCUレベルの動き情報(動きベクトル及び参照インデックス)を取得するために適用される(すなわち、現在のブロックの座標に加えられる)。図24の例は、動きシフトがブロックA1の動きにセットされる、と仮定する。それから、サブCUごとに、同一位置ピクチャ内のその対応するブロック(中心サンプルをカバーする最小の動きグリッド)の動き情報は、そのサブCUの動き情報を導出するために使用される。同一位置サブCUの動き情報が識別された後、それは、HEVCのTMVPプロセスと同様にして、現在のサブCUの動きベクトル及び参照インデックスに変換され、ここで、時間動きスケーリングが、時間動きベクトルの参照ピクチャを現在CUのそれらにアライメントするよう適用される。
VTMでは、sbTMVP候補及びアフィンマージ候補の両方を含む、サブブロックベースの複合的なマージリストが、サブブロックベースのマージモードのシグナリングのために使用される。sbTMVPモードは、シーケンスパラメータセット(SPS)フラグによって有効/無効にされる。sbTMVPモードが有効にされる場合に、sbTMVP予測子が、サブブロックベースのマージ候補のリストの最初のエントリとして加えられ、それにアフィンマージ候補が続く。サブブロックベースのマージリストのサイズはSPSでシグナリングされ、サブブロックベースのマージリストの最大許容サイズはVTM4では5である。
sbTMVPで使用されるサブCUサイズは、8×8である用固定され、アフィンマージモードに対して行われるように、sbTMVPモードは、幅及び高さの両方が8以上であるCUにのみ適用可能である。
追加のsbTMVPマージ候補の符号化ロジックは、他のマージ候補についてと同じであり、つまり、P又はBスライスにおける各CUについて、追加のRDチェックが、sbTMVP候補を使用すべきかどうかを決定するために実行される。
図23~24は、VVCにおけるsbTMVPプロセスの例を示す。
サブブロックマージ候補リスト内の候補の最大数は、MaxNumSubblockMergeCandと表される。
2.3.4.1.3.サブブロックマージリストに関連したシンタックス/セマンティクス
Figure 2022532629000013
Figure 2022532629000014
Figure 2022532629000015
Figure 2022532629000016
Figure 2022532629000017
Figure 2022532629000018
Figure 2022532629000019
Figure 2022532629000020
Figure 2022532629000021
Figure 2022532629000022
Figure 2022532629000023
Figure 2022532629000024
Figure 2022532629000025
Figure 2022532629000026
Figure 2022532629000027
Figure 2022532629000028
Figure 2022532629000029
Figure 2022532629000030
Figure 2022532629000031
Figure 2022532629000032
Figure 2022532629000033
Figure 2022532629000034
Figure 2022532629000035
Figure 2022532629000036
Figure 2022532629000037
2.3.4.2.正則マージリスト
マージリスト設計とは異なり、VVCでは、履歴に基づいた動きベクトル予測(History-based Motion Vector Prediction)が用いられる。
HMVPでは、前にコーディングされた動き情報が保存される、前にコーディングされたブロックの動き情報は、HMVP候補として定義される。複数のHMVP候補が、HMVPテーブルと名付けられたテーブルに保存され、このテーブルは、オン・ザ・フライで符号化/復号化プロセス中に保持される。HMVPテーブルは、新しいスライスの符号化/復号化を開始するときに空にされる。インターコーディングされたブロックが存在するときには、関連する動き情報が、新しいHMVP候補としてテーブルの最後のエントリに加えられる。全体のコーディングフローは図25に表される。
HMVPは、AMVP及びマージ候補リスト構成プロセスの両方で使用され得る。図26は、変更されたマージ候補リスト構成プロセスを表す。TMVP候補挿入の後にマージ候補リストがいっぱいでないとき、HMVPテーブルに保存されているHMVP候補が、マージ候補リストに充てんするために利用される。1つのブロックが、通常は、動き情報に関して最も近い隣接ブロックとより高い相関を有していることを考えると、テーブル内のHMVP候補は、インデックスの降順で挿入される。テーブル内の最後のエントリが最初にリストに加えられ、一方、最初のエントリは最後に加えられる。同様に、冗長性除去がHMVP候補に対して適用される。利用可能なマージ候補の総数が、シグナリングされることを許されたマージ候補の最大数に達すると、マージ候補リスト構成プロセスは終了する。
図25は、アフィンマージモードのための候補位置を示す。
図26は、変更されたマージリスト構成プロセスを示す。
2.3.5.JVET-N0236
この寄稿は、オプティカルフローによりサブブロックベースアフィン動き補償された予測を精緻化する方法を提案している。サブブロックベースのアフィン動き補償が実行された後、予測サンプルは、オプティカルフロー式によって導出された差を加えることによって精緻化される。これは、オプティカルフローによる予測精緻化(PROF)と呼ばれる。提案されている方法は、メモリアクセスバンド幅を増大させずにピクセルレベル粒度でのインター予測を達成することができる。
より細かい粒度の動き補償を達成するために、この寄稿は、オプティカルフローによりサブブロックベースのアフィン動き補償された予測を精緻化する方法を提案する。サブブロックベースのアフィン動き補償が実行された後に、ルーマ予測サンプルは、オプティカルフロー式によって導出された差を加えることによって精緻化される。この提案されているPROF(Prediction Refinement with Optical Flow)は、次の4つのステップとして記載される。
ステップ1)サブブロックベースのアフィン動き補償が、サブブロック予測I(i,j)を生成するために実行される。
ステップ2)サブブロック予測の空間勾配g(i,j)及びg(i,j)が、3タップフィルタ[-1,0,1]を用いて各サンプル位置で計算される。

(i,j)=I(i+1,j)-I(i-1,j)
(i,j)=I(i,j+1)-I(i,j-1)
サブブロック精度は、勾配計算のために各辺で1ピクセルずつ広げられる。メモリバンド幅及び複雑性を低減するよう、広げられた境界上のピクセルは、参照ピクチャ内の最も近い整数ピクセル位置からコピーされる。従って、領域パディングのための追加の補間は回避される。
ステップ3)ルーマ予測精緻化が、オプティカルフロー式によって計算される。

ΔI(i,j)=g(i,j)×Δv(i,j)+g(i,j)×Δv(i,j)

ここで、Δv(i,j)は、図27に示されるように、v(i,j)によって表される、サンプル位置(i,j)について計算されたピクセルMVと、ピクセル(i,j)が属するサブブロックのサブブロックMVとの間の差である。
アフィンモデルパラメータ及びサブブロック中心に対するピクセル位置は、サブブロックごとに変化しないので、Δv(i,j)は、最初のサブブロックについて計算され、同じCU内の他のサブブロックに対して再利用され得る。x及びyを、ピクセル位置からサブブロックの中心までの水平及び垂直オフセットとすると、Δv(x,y)は、次の式によって導出され得る。
Figure 2022532629000038
4パラメータアフィンモデルについては、
Figure 2022532629000039
であり
6パラメータアフィンモデルについては、
Figure 2022532629000040
であり、ここで、(v0x,v0y)、(v1x,v1y)、(v2x,v2y)は、左上、右上、及び左下制御点動きベクトルであり、w及びhは、CUの幅及び高さである。
ステップ4)最後に、ルーマ予測精緻化がサブブロック予測I(i,j)に加えられる。最終的な予測I’は、次の式として生成される。

I’(i,j)=I(i,j)+ΔI(i,j)
2.3.6.ATMVPの改善に関するPCT/CN2018/124520及びPCT/CN2018/116889
これらの文献で、我々は、ATMVPモードの設計を妥当かつ効率的にするためのいくつかのアプローチを開示した。これらは両方とも、その全文を参照により援用される。
3.実施形態によって解決された課題の例
VVCの現在の設計では、サブブロックベースの予測モードは次の問題を抱えている:
1)SPS内のアフィンAMVRフラグは、正則AMVRがオフされるときにオンされる可能性がある。
2)SPS内のアフィンAMVRフラグは、アフィンモードがオフされるときにオンされる可能性がある。
3)MaxNumSubblockMergeCandは、ATMVPが適用されないときに近似的にセットされない。
4)TMVPがスライスに対して無効にされ、ATMVPがシーケンスに対して有効にされるとき、Bスライスの同一位置ピクチャは識別されなかったが、同一位置ピクチャはATMVPプロセスで必要とされる。
5)TMVP及びATMVPは両方とも、参照ピクチャから動き情報をフェッチする必要があり、現在の設計では、それは同じであると想定されており、これは事前である可能性がある。
6)PROFは、そのオン/オフを制御するフラグを有するべきである。
4.例となる実施形態
以下の詳細な発明は、一般概念を説明するための例と見なされるべきである。これらの発明は、狭い意味で解釈されるべきではない。更に、これらの発明は、如何なる方法でも組み合わせ可能である。いくつかの実施形態は、代替時間動きベクトル予測(ATMVP)技術の例を用いて記載されるが、代替の実施形態では、サブブロックベースの時間動きベクトル予測(sbTMVP)技術が適用可能であってもよい。
以下で記載されている方法は、他の種類の動き候補リスト(例えば、AMVP候補リスト)にも適用可能であり得る。
1.アフィンAMVRのための制御情報がシグナリングされるかどうかは、アフィン予測が適用されるか否かに依存し得る。
a)一例で、アフィンAMVRのための制御情報は、アフィン予測が適用されない場合にはシグナリングされない。
b)一例で、アフィンAMVRは、アフィン予測がコンフォーマンスビットストリーム(conformance bitstream)で適用されない場合には無効にされるべきある(例えば、アフィンAMVRの利用は、偽であるとシグナリングされるべきである)。
c)一例で、アフィンAMVRのためのシグナリングされた制御情報は、アフィン予測が適用されない場合には無視されて、適用されないと推測されてもよい。
2.アフィンAMVRのための制御情報がシグナリングされるかどうかは、正則AMVRが適用されるか否かに依存し得る。
a)一例で、アフィンAMVRのための制御情報は、正則AMVRが適用されない場合にはシグナリングされない。
b)一例で、アフィンAMVRは、正則AMVRがコンフォーマンスビットストリームで適用されない場合には無効にされるべきである(アフィンAMVRフラグの利用は、偽であるとシグナリングされる)。
c)一例で、アフィンAMVRのためのシグナリングされた制御情報は、正則AMVRが適用されない場合には無視されて、適用されないと推測されてもよい。
d)一例で、適応動きベクトル分解の指示(例えば、1つのフラグ)は、正則AMVR(すなわち、並進運動に適用されるAMVR)及びアフィンAMVR(すなわち、アフィン運動に適用されるAMVR)などの複数のコーディング方法のためのAMVRの利用を制御するために、シーケンス/ピクチャ/スライス/タイルグループ/タイル/ブリック/他のビデオユニットでシグナリングされ得る。
i.一例で、そのような指示は、SPS/DPS/VPS/PPS/ピクチャヘッダ/スライスヘッダ/タイルグループヘッダでシグナリングされ得る。
ii.代替的に、更に、正則AMVR及び/又はアフィンAMVRの利用の指示をシグナリングすべきかどうかは、その指示に依存してもよい。
1)一例で、そのような指示が、適応動きベクトル分解が無効にされることを示すとき、正則AMVRの利用の指示のシグナリングはスキップされてもよい。
2)一例で、そのような指示が、適応動きベクトル分解が無効にされることを示すとき、アフィンAMVRの利用の指示のシグナリングはスキップされてもよい。
iii.代替的に、更に、アフィンAMVRの利用の指示をシグナリングすべきかどうかは、アフィン予測モードの利用及び指示に依存してもよい。
1)例えば、そのような指示は、アフィン予測モードが無効にされる場合にスキップされてもよい。
iv.一例で、そのような指示は、現在のスライス/タイルグループ/ピクチャが先行ピクチャからのみ予測可能である場合にはシグナリングされてなくてもよく、偽であると導出され得る。
v.一例で、そのような指示は、現在のスライス/タイルグループ/ピクチャが後続ピクチャからのみ予測可能である場合にはシグナリングされなくてもよく、偽であると導出され得る。
vi.一例で、そのような指示は、現在のスライス/タイルグループ/ピクチャが先行ピクチャ及び後続ピクチャの両方から予測可能であるときにシグナリングされ得る。
3.アフィンAMVRのための制御情報がシグナリングされるべきかどうかは、正則AMVRが適用されるか否かと、アフィン予測が適用されるか否かとに依存してもよい。
a)一例で、アフィンAMVRのための制御情報は、アフィン予測が適用されないか又は正則AMVRが適用されない場合にはシグナリングされない。
i.一例で、アフィンAMVRは、コンフォーマンスビットストリームでアフィン予測が適用されないか又は正則AMVRが適用されない場合には無効にされるべきである(例えば、アフィンAMVRの利用は、偽であるとシグナリングされるべきである)。
ii.一例で、アフィンAMVRのためのシグナリングされた制御情報は、アフィン予測が適用されないか又は正則AMVRが適用されない場合には無視され、適用されないと推測されてもよい。
b)一例で、アフィンAMVRのための制御情報は、アフィン予測が適用されずかつ正則AMVRが適用されない場合にはシグナリングされない。
i.一例で、アフィンAMVRは、コンフォーマンスビットストリームでアフィン予測が適用されずかつ正則AMVRが適用されない場合には無効にされるべきある(例えば、アフィンAMVRの利用は、偽であるとシグナリングされるべきである)。
ii.一例で、アフィンAMVRのためのシグナリングされた制御情報は、アフィン予測が適用されずかつ正則AMVRが適用されない場合には無視されて、適用されないと推測されてもよい。
4.サブブロックマージ候補リスト内の候補の最大数(MaxNumSubblockMergeCandと表される)は、ATMVPが有効にされるか否かに依存してもよい。ATMVPが有効にされるか否かは、SPS内のsps_sbtmvp_enabled_flagによってのみ示されなくてもよい。
a)例えば、ATMVPが有効にされるか否かは、シーケンスレベルでシグナリングされたフラグ(例えば、SPS内のsps_sbtmvp_enabled_flag)にしか依存しなくてもよい。それはまた、VPS、DPS、APS、PPS、スライスヘッダ、タイルグループヘッダ、ピクチャヘッダ、などのようなシーケンス/ピクチャ/スライス/タイルグループ/タイルレベルでの何らかの他のビデオユニットでシグナリングされた1つ又は複数のシンタックス要素にも依存してよい。
i.代替的に、ATMVPが有効にされるかどうかは、シグナリングによらずに暗黙的に導出されてもよい。
ii.例えば、ATMVPは、TMVPがピクチャ又はスライス又はタイルグループに対して有効にされない場合には、ピクチャ又はスライス又はタイルグループに対して有効にされない。
b)例えば、MaxNumSubblockMergeCandに関連したシンタックス要素(例えば、five_minus_max_num_subblock_merge_cand)をシグナリングすべきかどうか及び/又はどのようにシグナリングすべきかは、ATMVPが有効にされるか否かに依存してもよい。
i.例えば、five_minus_max_num_subblock_merge_candは、ATMVPが有効にされない場合にはコンフォーマンスビットストリームにおいて制約され得る。
1)例えば、five_minus_max_num_subblock_merge_candは、ATMVPが有効にされない場合には、固定数に等しいことを許されない。2つの例で、固定数は0又は5であってよい。
2)例えば、five_minus_max_num_subblock_merge_candは、ATMVPが有効にされない場合には、固定数よりも大きいことを許されない。1つの例で、固定数は4であってよい。
3)例えば、five_minus_max_num_subblock_merge_candは、ATMVPが有効にされない場合には、固定数よりも小さいことを許されない。1つの例で、固定数は1であってよい。
ii.例えば、five_minus_max_num_subblock_merge_candは、それが存在しない場合にはfive_minus_max_num_subblock_merge_cand-(ATMVPが有効にされる?0:1)としてセットされてもよく、ATMVPが有効にされるかどうかは、SPS内のフラグ(例えば、sps_sbtmvp_enabled_flag)にしか依存しないわけではない。
c)例えば、MaxNumSubblockMergeCandは、1つ以上のシンタックス要素(例えば、five_minus_max_num_subblock_merge_cand)及びATMVPが有効にされるか否かに応じて導出されてもよい。
i.例えば、MaxNumSubblockMergeCandは、MaxNumSubblockMergeCand=5-five_minus_max_num_subblock_merge_cand-(ATMVPが有効にされる?0:1)として導出され得る。
d)MaxNumSubblockMergeCandは、ATMVPが有効にされるときに1にセットされてもよく、アフィン運動予測は無効にされる。
5.デフォルト候補(並進及び/又はアフィン運動による)がサブブロックマージ候補リストに付け加えられてもよい。デフォルト候補は、サブブロックなどの予測タイプを有してもよく、あるいは、それは、ブロック全体予測によるものであってもよい。
a)一例で、デフォルト候補に対するブロック全体予測は、並進運動モデル(例えば、正則マージ候補に対するブロック全体予測)に続いてもよい。
b)一例で、デフォルト候補に対するサブブロック予測は、並進運動モデル(例えば、ATMP候補に対するサブブロック予測)に続いてもよい。
c)一例で、デフォルト候補に対するサブブロック予測は、アフィン運動モデル(例えば、アフィンマージ候補に対するサブブロック予測)に続いてもよい。
d)一例で、デフォルト候補は、0に等しいアフィンフラグを有してもよい。
i.代替的に、デフォルト候補は、1に等しいアフィンフラグを有してもよい。
e)一例で、ブロックに対する後続の手順は、そのブロックがデフォルト候補でコーディングされるかどうかに依存してもよい。
i.一例で、ブロックは、ブロック全体予測デコーディングされているものとして扱われ(例えば、選択されたデフォルト候補は、ブロック全体予測を使用する)、
1)例えば、PROFは、ブロックに適用されなくてもよい。
2)例えば、DMVR(Decode-side Motion Vector Refinement)は、ブロックに適用されてもよい。
3)例えば、BDOF(Bi-Directional Optical Flow)は、ブロックに適用されてもよい。
4)例えば、デブロッキングフィルタは、ブロック内のサブブロック間の境界に適用されなくてもよい。
ii.一例で、ブロックは、サブブロック予測でコーディングされているものとして扱われ(例えば、選択されたデフォルト候補は、サブブロック予測を使用する)、
1)例えば、PROFは、ブロックに適用されてもよい。
2)例えば、DMVR(Decode-side Motion Vector Refinement)は、ブロックに適用されなくてもよい。
3)例えば、BDOF(Bi-Directional Optical Flow)は、ブロックに適用されなくてもよい。
4)例えば、デブロッキングフィルタは、ブロック内のサブブロック間の境界に適用されてもよい。
iii.一例で、ブロックは並進予測でコーディングされているものとして扱われ、
1)例えば、PROFは、ブロックに適用されなくてもよい。
2)例えば、DMVR(Decode-side Motion Vector Refinement)は、ブロックに適用されてもよい。
3)例えば、BDOF(Bi-Directional Optical Flow)は、ブロックに適用されてもよい。
4)例えば、デブロッキングフィルタは、ブロック内のサブブロック間の境界に適用されなくてもよい。
iv.一例で、ブロックは、アフィン予測でコーディングされているものとして扱われ、
1)例えば、PROFは、ブロックに適用されてもよい。
2)例えば、DMVR(Decode-side Motion Vector Refinement)は、ブロックに適用されなくてもよい。
3)例えば、BDOF(Bi-Directional Optical Flow)は、ブロックに適用されなくてもよい。
4)例えば、デブロッキングフィルタは、ブロック内のサブブロック間の境界に適用されてもよい。
f)一例で、1つ又は複数の種類のデフォルト候補が、サブブロックマージ候補リストに置かれてもよい。
i.例えば、ブロック全体予測による第1の種類のデフォルト候補及びサブブロック予測による第2の種類のデフォルト候補の両方がサブブロックマージ候補リストに置かれてもよい。
ii.例えば、並進予測による第1の種類のデフォルト候補及びアフィン予測による第2の種類のデフォルト候補の両方がサブブロックマージ候補リストに置かれてもよい。
iii.各種類からのデフォルト候補の最大数は、ATMVPが有効にされるかどうか及び/又はアフィン予測が有効にされるかどうかに依存してもよい。
g)一例で、Bスライスについては、デフォルト候補は、全てのサブブロックについてゼロ動きベクトルを有してもよく、双予測が適用され、両方の参照ピクチャは0にセットされる。
h)一例で、Pスライスについては、デフォルト候補は、全てのサブブロックについてゼロ動きベクトルを有してもよく、片予測が適用され、参照ピクチャは0にセットされる。
i)どの種類のデフォルト候補がサブブロックマージ候補リストに置かれるかは、ATMVP及び/又はアフィン予測モードの利用に依存してもよい。
i.一例で、アフィン予測モードが有効にされるとき、アフィンフラグが1であるアフィン運動モデル(例えば、全てのCPMVが0に等しい)によるデフォルト候補が加えられ得る。
ii.一例で、アフィン予測モード及びATMVPの両方が有効にされるとき、アフィンフラグが0である並進運動モデル(例えば、ゼロMV)によるデフォルト候補及び/又はアフィンフラグが1であるアフィン運動モデル(例えば、全てのCPMVが0に等しい)によるデフォルト候補が加えられ得る。
1)一例で、並進運動モデルによるデフォルト候補は、アフィン運動モデルによるデフォルト候補の前に加えられ得る。
iii.一例で、アフィン予測が無効にされ、ATMVPが有効にされるとき、アフィンフラグが0である並進運動モデルによるデフォルト候補が加えられ得、アフィン運動によるデフォルト候補は加えられない。
j)上記の方法は、ATMVP候補及び/又は空間/時間/構成されたアフィンマージ候補をチェックした後でサブブロックマージ候補が満たされていないときに適用され得る。
6.ATMVPがスライス又はタイルグループ又はピクチャに対して有効にされるかどうかなどのATMVPに関する情報は、スライスヘッダ又はタイルグループヘッダ又はスライスヘッダでシグナリングされてもよい。
a)一例で、ATMVPの同一位置ピクチャは、TMVPの同一位置ピクチャとは異なってもよい。
b)一例で、ATMVPに関する情報は、Iスライス又はIタイルグループ又はIピクチャについてシグナリングされなくてもよい。
c)一例で、ATMVPに関する情報は、ATMVPがシーケンスレベルで有効にされるとシグナリングされる(例えば、sps_sbtmvp_enabled_flagが1に等しい)場合にのみシグナリングされ得る。
d)一例で、ATMVPに関する情報は、TMVPがスライス又はタイルグループ又はピクチャに対して無効にされる場合には、そのスライス又はタイルグループ又はピクチャについてシグナリングされなくてもよい。
i.例えば、ATMVPは、この場合に、無効にされると推測され得る。
e)ATMVPは、ATMVPの利用のシグナリングされた情報にかかわらず、TMVPがスライス(又はタイルグループ又はピクチャ)に対して無効にされる場合には、そのスライス(又はタイルグループ又はピクチャ)に対して無効にされると推測され得る。
7.サブブロックベースの時間マージ候補(例えば、時間アフィン動き候補)を加えるべきかどうかは、TMVPの利用に依存してもよい。
a)代替的に、それは、sps_temporal_mvp_enabled_flagの値に依存してもよい。
b)代替的に、それは、slice_temporal_mvp_enabled_flagの値に依存してもよい。
c)sps_temporal_mvp_enabled_flag又はslice_temporal_mvp_enabled_flagが真であるとき、サブブロックベースの時間マージ候補は、サブブロックマージ候補に加えられてもよい。
i.代替的に、sps_temporal_mvp_enabled_flag及びslice_temporal_mvp_enabled_flagが両方とも真であるとき、サブブロックベースの時間マージ候補は、サブブロックマージ候補に加えられてもよい。
ii.代替的に、sps_temporal_mvp_enabled_flag又はslice_temporal_mvp_enabled_flagが偽であるとき、サブブロックベースの時間マージ候補は、サブブロックマージ候補に加えられるべきではない。
d)代替的に、サブブロックベースの時間マージ候補を加えることの指示は、シーケンス/ピクチャ/スライス/タイルグループ/タイル/ブリック/他のビデオユニットでシグナリングされてもよい。
i.代替的に、更に、それは、時間動きベクトル予測の利用(例えば、sps_temporal_mvp_enabled_flag及び/又はslice_temporal_mvp_enabled_flag)に従って条件付きでシグナリングされてもよい。
8.どの参照ピクチャリストから同一位置参照ピクチャが導出されるか(例えば、collocated_from_l0_flag)及び/又は同一位置参照ピクチャの参照インデックスなどの、同一位置参照ピクチャの指示は、時間動き情報にアクセスする必要がある複数のコーディング方法の利用に従って条件付きでシグナリングされてもよい。
a)一例で、条件は、ATMVP又はTMVPのうちの一方が有効にされることである。
b)一例で、条件は、ATMVP又はTMVP又はアフィン動き情報予測のうちの1つが有効にされることである。
9.一例で、サブブロックベースの時間マージ候補は、ATMVP及びTMVPが両方とも現在のピクチャ/スライス/タイルグループに対して有効にされるときにのみサブブロックマージ候補リストに置かれてよい。
a)代替的に、サブブロックベースの時間マージ候補は、ATMVPが現在のピクチャ/スライス/タイルグループに対して有効にされるときにのみサブブロックマージ候補リストに置かれてよい。
10.MaxNumSubblockMergeCandは、サブブロックベースの時間マージ候補が使用され得るかどうかに依存してもよい。
a)代替的に、MaxNumSubblockMergeCandは、TMVPが使用され得るかどうかに依存してもよい。
b)例えば、MaxNumSubblockMergeCandは、サブブロックベースの時間マージ候補(又はTMVP)が使用され得ない場合には、4よりも大きくてはならない。
i.例えば、MaxNumSubblockMergeCandは、サブブロックベースの時間マージ候補(又はTMVP)が使用され得ず、ATMVPが使用され得る場合には、4よりも大きくてはならない。
ii.例えば、MaxNumSubblockMergeCandは、サブブロックベースの時間マージ候補(又はTMVP)が使用され得ず、ATMVPが使用され得ない場合には、4よりも大きくてはならない。
iii.例えば、MaxNumSubblockMergeCandは、サブブロックベースの時間マージ候補(又はTMVP)が使用され得ず、ATMVPが使用され得ない場合には、3よりも大きくてはならない。
11.PROFを行うべきかどうか及び/又はどのように行うべきかを示す1つ又は複数のシンタックス要素は、VPS、DPS、APS、PPS、スライスヘッダ、タイルグループヘッダ、ピクチャヘッダ、CTU、CU、PU、などのようなシーケンス/ピクチャ/スライス/タイルグループ/タイル/CTU行/CTU。CU/PU/TUレベルでの何らかのビデオユニットでシグナリングされ得る。
a)一例で、1つ又は複数のシンタックス要素(例えば、PROGが有効にされるかどうかを示すフラグ)は、アフィン予測が有効にされるかどうかを示すシンタックス要素などの他のシンタックス要素に応じて条件付きでシグナリングされ得る。
i.例えば、PROFが有効にされるかどうかを示すシンタックス要素は、シグナリングされなくてもよく、PROFは、アフィン予測が無効にされるときには、無効にされると推測される。
b)一例で、PROFが有効にされるかどうかを示すシンタックス要素は、アフィン予測がコンフォーマンスビットストリームで無効にされるときには、PROFが無効にされるとセットされなければならない。
c)一例で、アフィン予測がコンフォーマンスビットストリームで無効にされるときに、PROFが有効にされるかどうかを示すシグナリングされたシンタックス要素は、無視されて、PROFは、無効にされると推測される。
d)一例で、1つのシンタックス要素が、PROFが片予測にのみ適用されるか否かを示すためにシグナリングされてもよい。
5.実施形態
次の全ての実施形態については、シンタックス要素は、SPS/PPS/スライスヘッダ/ピクチャヘッダ/タイルグループヘッダ/タイル又は他のビデオユニットなどの異なるレベルでシグナリングされてもよい。
5.1,実施形態#1:SPS/PPS/スライスヘッダ/タイルグループヘッダでのsps_affine_amvr_enabled_flagに関するシンタックス設計の例
Figure 2022532629000041
代替的に、
Figure 2022532629000042
代替的に、
Figure 2022532629000043
代替的に、
Figure 2022532629000044
5.2.実施形態#2:five_minus_max_num_subblock_merge_candに関するセマンティクスの例
Figure 2022532629000045
5.3.実施形態#3:スライスヘッダ(又はタイルグループヘッダ)でのATMVPのためのシンタックス要素の例
Figure 2022532629000046
代替的に、
Figure 2022532629000047
5.4.実施形態#4:スライスヘッダ(又はタイルグループヘッダ)でのサブブロックベースの時間マージ候補のためのシンタックス要素の例
Figure 2022532629000048
5.5.実施形態#5:SPSでPROFを制御するシンタックス/セマンティクスの例
Figure 2022532629000049
図28は、ビデオ処理装置1400のブロック図である。装置1400は、本明細書で説明されている方法の1つ以上を実装するために使用されてよい。装置1400は、スマートフォン、タブレット、コンピュータ、インターネット・オブ・シングス(Internet of Things,IoT)レシーバ、などで具現されてよい。装置1400は、1つ以上のプロセッサ1402、1つ以上のメモリ1404、及びビデオ処理ハードウェア1406を含んでよい。プロセッサ1402は、本明細書で説明されている1つ以上の方法を実装するよう構成されてよい。メモリ(複数のメモリ)1404は、本明細書で説明されている方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用されてよい。ビデオ処理ハードウェア1406は、ハードウェア回路で、本明細書で説明されているいくつかの技術を実装するために使用されてよい。
図29は、ビデオ処理の例示的な方法2900のフローチャートである。方法2900は、ビデオの現在のビデオブロックとビデオのビットストリーム表現との間の変換を、アフィン適応動きベクトル分解技術を用いて実行するステップ(2902)を含み、それにより、ビットストリーム表現は、規則に基づいて、アフィン適応動きベクトル分解技術に関する制御情報を選択的に含む。
以下の例の列挙は、数ある課題の中でも、本明細書で記載されている技術的課題に対処することができる実施形態を提供する。
1.ビデオ処理の方法であって、ビデオの現在のビデオブロックと前記ビデオのビットストリーム表現との間の変換を、アフィン適応動きベクトル分解技術を用いて実行するステップ(2902)を含み、それにより、前記ビットストリーム表現は、規則に基づいて、前記アフィン適応動きベクトル分解技術に関する制御情報を選択的に含む、方法。
2.例1の方法であって、前記規則は、アフィン予測が前記変換中に使用される場合に前記制御情報を含め、アフィン予測が前記変換中に使用されない場合に前記制御情報を省略することを定める、方法。
3.例1の方法であって、前記規則は、アフィン予測が前記変換に適用されない場合に、前記変換中に適応動きベクトル分解ステップを使用することを除くことを更に定める、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目1で提供される。
4.例1の方法であって、前記規則は、正則な適応動きベクトル分解ステップが前記変換中に使用されるか否かに基づき前記制御情報を包含又は省略することを定める、方法。
5.例4の方法であって、前記規則は、前記正則な適応動きベクトル分解ステップが前記変換中に適用されない場合に、前記制御情報が省略されることを定める、方法。
6.例1の方法であって、前記制御情報は、前記変換中の複数の適応動きベクトル分解技術の仕様を示す同じフィールドを含む、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目2で提供される。
7.例1の方法であって、前記規則は、正則な適応動きベクトル分解及びアフィン予測が前記変換中に使用されるか否かに基づき前記制御情報を包含又は省略することを定める、方法。
8.例7の方法であって、前記規則は、前記正則な適応動きベクトル分解及びアフィン予測が両方とも前記変換中に適用されない場合に、前記制御情報を省略することを定める、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目3で提供される。
9.ビデオ処理の方法であって、現在のビデオブロックとビットストリーム表現との間の変換中に、該変換のためのサブブロックマージ候補リストを決定するステップであり、前記サブブロックマージ候補リスト内の候補の最大数は、代替時間動きベクトル予測(ATMVP)が前記変換に適用されるか否かに依存する、前記決定するステップと、前記サブブロックマージ候補リストを用いて前記変換を実行するステップとを有する方法。
10.例9の方法であって、前記ビットストリーム表現内のフィールドは、代替時間動きベクトル予測が前記変換に適用されるか否かを示す、方法。
11.例10の方法であって、前記フィールドは、シーケンスレベル又はビデオパラメータセットレベル又はピクチャパラメータセットレベル又はスライスレベル又はタイルグループレベル又はピクチャヘッダレベルにある、方法。
12.例9の方法であって、ATMVPが前記変換に適用され、アフィン予測が前記変換のために無効にされる場合に、前記候補の最大数は1にセットされる、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目4で提供される。
13.ビデオ処理の方法であって、現在のビデオブロックとビットストリーム表現との間の変換中に、該変換のためのサブブロックマージ候補リストに1つ以上のデフォルトのマージ候補を付け足すステップと、1つ以上のデフォルトのマージ候補が付け足された前記サブブロックマージ候補リストを用いて前記変換を実行するステップとを有する方法。
14.例13の方法であって、デフォルト候補は、サブブロック予測タイプと関連付けられる、方法。
15.例14の方法であって、前記サブブロック予測タイプは、並進運動モデル又はアフィン運動モデルに基づく予測を含む、方法。
16.例13の方法であって、デフォルト候補は、ブロック全体予測タイプと関連付けられる、方法。
17.例14の方法であって、前記ブロック全体予測タイプは、並進運動モデル又はアフィン運動モデルに基づく予測を含む、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目5で提供される。
18.ビデオ処理の方法であって、ビデオの現在のビデオブロックとビットストリーム表現との間の変換中に、該変換への代替時間動きベクトル予測(ATMVP)の適用可能性を決定するステップであり、前記ビットストリーム表現内の1つ以上のビットは前記決定に対応する、前記決定するステップと、前記決定に基づき前記変換を実行するステップとを有する方法。
19.例18の方法であって、前記1つ以上のビットは、ピクチャヘッダ又はスライスヘッダ又はタイルグループヘッダに含まれる、方法。
20.例18~19の方法であって、前記変換は、時間動きベクトル予測(TMVP)を使用した前記ビデオの前記変換のために使用される他の同一位置ピクチャとは異なる同一位置ピクチャをATMVPのために使用する、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目6で提供される。
21.ビデオ処理の方法であって、時間動きベクトル予測(TMVP)ステップ又は代替時間動きベクトル予測(ATMVP)に関連した条件に基づき選択的にサブブロックマージ候補リストを構成するステップと、該サブブロックマージ候補リストに基づき現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップとを有する方法。
22.例21の方法であって、前記条件は、シーケンスパラメータセットレベル又はスライスレベル又はタイルレベル又はブリックレベルでの前記ビットストリーム表現内のフラグの存在に対応する、方法。
23.例21の方法であって、前記サブブロックマージ候補リストは、代替動きベクトル予測及びTMVPステップが両方とも、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、方法。
24.例21の方法であって、前記サブブロックマージ候補リストは、ATMVP及びTMVPステップが両方とも、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、方法。
25.例21の方法であって、前記サブブロックマージ候補リストは、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについてATMVPが有効にされTMVPステップが無効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目7及び9で提供される。
26.例21~25の方法であって、前記ビットストリーム表現内のフラグは、サブブロックベースの時間マージ候補が前記変換中に使用されるか否かに基づき包含又は省略される、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目10で提供される。
27.ビデオ処理の方法であって、ビデオの現在のビデオブロックと前記ビデオのビットストリーム表現との間の変換を、規則に基づいて、オプティカルフローを使用した予測精緻化(PROF)を選択的に用いて実行するステップを有し、前記規則は、(1)前記ビットストリーム表現内のフィールドの包含又は省略、あるいは、(2)アフィン予測が前記変換に適用されるか否か、を有する、方法。
28.例27の方法であって、前記規則は、前記変換に対するアフィン予測の無効化によりPROFを無効にすることを定める、方法。
29.例27の方法であって、アフィン予測が無効にされる場合に、PROFは前記変換に対して無効にされると推測される、方法。
30.例27の方法であって、前記規則は、前記ビットストリーム表現内の対応するフラグに基づき片予測のためにのみPROFを使用することを更に定める、方法。
上記の例に関連した更なる例及び実施形態は、セクション4、項目11で提供される。
31.例1乃至30のうちの1つ以上を実装するよう構成されたプロセッサを有するビデオ処理装置。
32.プロセッサによって実行される場合に、該プロセッサに、例1乃至30のうちのいずれか1つ以上に記載の方法を実装させるコードを記憶しているコンピュータ可読媒体。
本明細書における例の列挙において、変換との用語は、現在のビデオブロックのビットストリーム表現の生成又は現在のビデオブロックをビットストリーム表現から生成することを指し得る。ビットストリーム表現は、必ずしも、連続したビットのグループを表すわけではなく、コーディングされたピクセル値情報を表すコードワードで又はヘッダフィールドで含まれるビットに分けられてもよい。
上記の例では、規則は予め定義され、エンコーダ及びデコーダに知られていることがある。
図30は、本明細書で開示されている様々な技術が実装され得る、例となるビデオ処理システム3000を示すブロック図である。様々な実施は、システム3000のコンポーネントのいくつか又は全てを含んでよい。システム3000は、ビデオコンテンツを受け取る入力部3002を含んでよい。ビデオコンテンツは、生の又は圧縮されていないフォーマット、例えば、8又は10ビットマルチコンポーネントピクセル値で、受け取られてよく、あるいは、圧縮又はエンコードされたフォーマットであってもよい。入力部3002は、ネットワーク・インターフェース、ペリフェラル・バス・インターフェース、又はストレージ・インターフェースに相当してよい。ネットワーク・インターフェースの例には、Ethernet(登録商標)、受動光学ネットワーク(Passive Optical Network,PON)、などのような有線インターフェース、及びWi-Fi又はセルラーインターフェースのような無線インターフェースがある。
システム3000は、本明細書で説明されている様々なコーディング又は符号化方法を実装し得るコーディングコンポーネント3004を含んでよい。コーディングコンポーネント3004は、ビデオのコーディングされた表現を生成するよう入力部3002からコーディングコンポーネント3004の出力部までのビデオの平均ビットレートを低減してよい。コーディング技術は、従って、時々、ビデオ圧縮又はビデオトランスコーディング技術と呼ばれる。コーディングコンポーネント3004の出力は、コンポーネント3006によって表されているように、記憶されるか、あるいは、通信接続を介して伝送されるかのどちらかであってよい。入力部3002で受け取られたビデオの記憶又は通信されたビットストリーム(又はコーディングされた)表現は、表示インターフェース3010へ送られるピクセル値又は表示可能なビデオを生成するためにコンポーネント3008によって使用されてよい。ビットストリーム表現から、ユーザが見ることができるビデオを生成するプロセスは、時々、ビデオ圧縮解除と呼ばれる。更に、特定のビデオ処理動作は「コーディング」動作又はツールと呼ばれるが、コーディングツール又は動作はエンコーダで使用され、コーディングの結果を判定させる対応する復号化ツール又は動作は、デコーダで実行されることになる。
ペリフェラル・バス・インターフェース又は表示インターフェースの例には、ユニバーサル・シリアル・バス(Universal Serial Bus,USB)又は高精細マルチメディアインターフェース(High Definition Multimedia Interface,HDMI(登録商標))などが含まれ得る。ストレージ・インターフェースの例には、SATA(Serial Advanced Technology Attachment)、PCI、IDEインターフェース、などがある。本明細書で説明されている技術は、携帯電話機、ラップトップ、スマートフォン、あるいは、デジタルデータ処理及び/又はビデオ表示を実行することが可能な他のデバイスのような様々な電子機器で具現されてよい。
図31は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態1に関連して説明されている。ステップ3102で、プロセスは、視覚メディアデータのビットストリーム表現におけるアフィン適応動きベクトル分解(AMVR)技術に関する制御情報に応じて、前記視覚メディアデータに対して前記アフィンAMVR技術を使用すべきかどうかを決定し、前記制御情報は、規則に基づき前記ビットストリーム表現において包含又は削除される。ステップ3104で、プロセスは、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の変換を実行する。
図32は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態4に関連して説明されている。ステップ3202で、プロセスは、サブブロックベースの時間的動きベクトル予測(sbTMVP)技術が視覚メディアデータに適用されるか否かの決定を行う。ステップ3204で、前記決定に応答して、プロセスは、前記視覚メディアデータに含まれる現在のビデオブロックについてサブブロックマージ候補リストを生成する。ステップ3206で、プロセスは、前記サブブロックマージ候補リストを用いて、前記現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行する。
図33は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態5に関連して説明されている。ステップ3302で、プロセスは、現在のビデオブロックとビットストリーム表現との間の変換中に、該変換のためのサブブロックマージ候補リストに1つ以上のデフォルトのマージ候補を付け足す。ステップ3304で、プロセスは、1つ以上のデフォルトのマージ候補を付け足された前記サブブロックマージ候補リストを用いて、前記変換を実行する。
図34は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態6に関連して説明されている。ステップ3402で、プロセスは、ビデオの現在のビデオブロックとビットストリーム表現との間の変換中に、該変換へのサブブロックベースの時間的動きベクトル予測(sbTMVP)の適用可能性を決定する。ここで、ビットストリーム表現中の1つ以上のビットは、前記決定に対応する。ステップ3404で、プロセスは、前記決定に基づき前記変換を実行する。
図35は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態7に関連して説明されている。ステップ3502で、プロセスは、時間的動きベクトル予測(TMVP)ステップ又はサブブロックベースの時間的動きベクトル予測(sbTMVP)ステップに関連した条件に基づき選択的にサブブロックマージ候補リストを構成する。ステップ3504で。プロセスは、前記サブブロックマージ候補リストに基づき現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行する。
図36は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態8に関連して説明されている。ステップ3602で、プロセスは、視覚メディアデータと該視覚メディアデータのビットストリーム表現との間の変換中に、前記視覚メディアデータに関連した同一位置(collocated)参照ピクチャに関する情報を決定する。ここで、情報は、時間動き情報にアクセスするコーディングモードが有効にされるかどうかに基づき前記ビットストリーム表現において包含又は削除される。ステップ3604で、プロセスは、前記情報に従って前記同一位置参照ピクチャを決定する。ステップ3606で、プロセスは、前記同一位置参照ピクチャに基づき、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の前記変換を実行する。
図37は、視覚メディア処理の方法の例のフローチャートである。このフローチャートのステップは、本明細書のセクション4で例示的な実施形態11に関連して説明されている。ステップ3702で、プロセスは、視覚メディアデータのビデオブロックと前記視覚メディアデータのビットストリーム表現との間の変換を実行する。ステップ3704で、プロセスは、前記変換中に、規則に基づき前記ビットストリーム表現において包含又は削除される制御情報に応じて、オプティカルフローを使用した予測精緻化(PROF)を適用すべきかどうか決定する。
これより、本明細書のいくつかの実施形態が、箇条書き形式で与えられている。
A1.視覚メディア処理の方法であって、
視覚メディアデータのビットストリーム表現におけるアフィン適応動きベクトル分解(AMVR)技術に関する制御情報に応じて、前記視覚メディアデータに対して前記アフィンAMVR技術を使用すべきかどうかを決定するステップであり、前記制御情報は、規則に基づき前記ビットストリーム表現において包含又は削除される、前記決定するステップと、
前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の変換を実行するステップと
を有する方法。
A2.箇条A1に記載の方法であって、
前記規則は、
(1)アフィン予測が前記変換中に使用されるかどうか、
(2)正則AMVR技術が前記変換中に使用されるかどうか、
(3)適応動きベクトル分解に関する情報により、前記アフィンAMVR技術が有効又は無効にされることが示されるかどうか
のうちの少なくとも1つに基づき、前記制御情報が前記ビットストリーム表現において包含又は削除されることを定める、
方法。
A3.箇条A1に記載の方法であって、
前記規則は、アフィン予測が前記変換中に使用されない場合に前記制御情報を除くことを定める、
方法。
A4.箇条A1に記載の方法であって、
前記規則は、アフィン予測が前記変換中に使用される場合に前記制御情報を含めることを定める、
方法。
A5.箇条A1に記載の方法であって、
前記アフィンAMVR技術の利用は、アフィン予測が使用されない場合に前記変換中に無効にされる、
方法。
A6.箇条A2に記載の方法であって、
前記適応動きベクトル分解に関する情報は、複数のコーディング技術のための前記アフィンAMVR技術の利用を制御するために使用され、
前記複数のコーディング技術は、正則AMVR技術及びアフィンAMVR技術を有する、
方法。
A7.箇条A2又はA6のうちいずれか1つ以上に記載の方法であって、
前記規則は、前記適応動きベクトル分解に関する情報により前記アフィンAMVR技術が無効にされることが示される場合に、前記アフィンAMVR技術に関する前記制御情報を除くことを定める、
方法。
A8.箇条A2又はA6のうちいずれか1つ以上に記載の方法であって、
前記規則は、前記適応動きベクトル分解に関する情報により前記アフィンAMVR技術が有効にされることが示される場合に、前記アフィンAMVR技術に関する前記制御情報を含めることを定める、
方法。
A9.箇条2又はA6~A8のうちいずれか1つ以上に記載の方法であって、
前記適応動きベクトル分解に関する情報は、シーケンスレベルで前記ビットストリーム表現においてシグナリングされる、
方法。
A10.箇条A1~A9のうちいずれか1つ以上に記載の方法であって、
前記規則は、正則AMVR技術が前記変換中に使用される場合に、前記アフィンAMVR技術に関する前記制御情報を含めることを更に定める、
方法。
A11.箇条A1~A9のうちいずれか1つ以上に記載の方法であって、
前記規則は、正則AMVR技術が前記変換中に適用されない場合に、前記アフィンAMVR技術に関する前記制御情報を除くことを更に定める、
方法。
A12.箇条A5に記載の方法であって、
前記アフィンAMVR技術は、前記正則AMVR技術が前記変換中に適用されない場合に無効にされる、
方法。
A13.箇条A1~A4のうちいずれか1つ以上に記載の方法であって、
前記制御情報は、前記変換中の複数の適応動きベクトル分解技術の使用を示す同じフィールドを含む、
方法。
A14.箇条A1~A13のうちいずれか1つ以上に記載の方法であって、
アフィン予測が前記変換中に使用されない場合に、前記アフィンAMVR技術に関する前記制御情報を無視するステップを更に有する、
方法。
A15.箇条A1~A14のうちいずれか1つ以上に記載の方法であって、
前記規則は、正則適応動きベクトル分解及びアフィン予測が前記変換中に使用されるか否かに基づき、前記制御情報を包含又は削除することを定める、
方法。
A16.箇条A15に記載の方法であって、
前記規則は、前記正則適応動きベクトル分解及び前記アフィン予測のうちの少なくとも一方が前記変換中に適用されない場合に、前記制御情報を除くことを定める、
方法。
A17.箇条A1~A16のうちいずれか1つ以上に記載の方法であって、
前記規則は、アフィン予測の利用に関連した1つ以上の基準に基づいて、前記ビットストリーム表現において前記制御情報を包含又は削除することを更に定める、
方法。
A18.箇条A17に記載の方法であって、
前記規則は、アフィン予測の利用が無効にされる場合に、前記ビットストリーム表現において前記制御情報を除くことを定め、更には、前記ビットストリーム表現における前記制御情報の欠如は、アフィンAMVRの利用が無効にされていること推測するために使用される、
方法。
A19.箇条A1~A18のうちいずれか1つ以上に記載の方法であって、
現在のスライス、タイルグループ、又はピクチャが前記視覚メディアデータに関連した1つ以上の先行ピクチャからのみ予測される場合に、前記制御情報は前記ビットストリーム表現において除かれる、
方法。
A20.箇条A1~A18のうちいずれか1つ以上に記載の方法であって、
現在のスライス、タイルグループ、又はピクチャが前記視覚メディアデータに関連した1つ以上の後続ピクチャからのみ予測される場合に、前記制御情報は前記ビットストリーム表現において除かれる、
方法。
A21.箇条A1~A18のうちいずれか1つ以上に記載の方法であって、
現在のスライス、タイルグループ、又はピクチャが前記視覚メディアデータに関連した1つ以上の後続又は先行ピクチャから予測される場合に、前記制御情報は前記ビットストリーム表現において除かれる、
方法。
A22.箇条A1に記載の方法であって、
前記アフィンAMVR技術は、アフィン予測又は正則AMVR技術が前記変換中に使用されない場合に無効にされる、
方法。
A23.箇条A22に記載の方法であって、
前記アフィンAMVR技術に関する前記制御情報は、アフィンAMVRが無効にされる場合には、前記ビットストリーム表現において除かれる、
方法。
A24.箇条A1に記載の方法であって、
前記規則は、アフィン予測又は正則AMVR技術のうちの少なくとも一方が前記変換中に適用されない場合に、前記アフィンAMVR技術に関する前記制御情報を除くことを更に定める、
方法。
A25.箇条A1に記載の方法であって、
前記規則は、アフィン予測も正則AMVR技術も前記変換中に適用されない場合に、前記アフィンAMVR技術に関する前記制御情報を除くことを更に定める、
方法。
A26.箇条A1~A25に記載の方法であって、
前記制御情報は、シーケンス、ピクチャ、スライス、タイルグループ、タイル、現在のビデオブロックに関連したブリック、又は前記視覚メディアデータの他のビデオブロック、のうちの1つに含まれる、
方法。
A27.箇条A26に記載の方法であって、
前記制御情報は、シーケンスパラメータセット(SPS)、復号化パラメータセット(DPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、ピクチャヘッダ、スライスヘッダ、又はタイルグループヘッダ、のうちの1つに含まれる、
方法。
B1.視覚メディア処理の方法であって、
サブブロックベースの時間的動きベクトル予測(sbTMVP)技術が視覚メディアデータに適用されるか否かの決定を行うステップと、
前記決定に応答して、前記視覚メディアデータに含まれる現在のビデオブロックについてサブブロックマージ候補リストを生成するステップと、
前記サブブロックマージ候補リストを用いて、前記現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップと
を有する方法。
B2.箇条B1に記載の方法であって、
前記サブブロックマージ候補リスト内の候補の最大数は、前記sbTMVP技術が前記変換に適用されるか否か、又は時間動きベクトル予測(TMVP)技術が前記変換に適用されるか否か、のうちの少なくとも1つに依存する、
方法。
B3.箇条B1に記載の方法であって、
前記サブブロックマージ候補リスト内の候補の最大数は、サブブロックベースの時間マージ候補が使用されるかどうかに依存する、
方法。
B4.箇条B3に記載の方法であって、
前記サブブロックベースの時間マージ候補は、時間動きベクトル予測(TMVP)技術及び前記sbTMVP技術が前記変換に適用される場合に使用される、
方法。
B5.箇条B1又はB2のうちいずれか1つ以上に記載の方法であって、
前記ビットストリーム表現内のフィールドは、前記sbTMVP技術が前記変換に適用されるか否かを明示的に示す、
方法。
B6.箇条B5に記載の方法であって、
前記フィールドは、シーケンスレベル又はビデオパラメータセットレベル又はピクチャパラメータセットレベル又はスライスレベル又はタイルグループレベル又はピクチャヘッダレベルにある、
方法。
B7.箇条B1に記載の方法であって、
時間動きベクトル予測(TMVP)技術がピクチャ又はスライス又はタイルグループに適用されないことを検出すると、前記sbTMVP技術は前記ピクチャ又は前記スライス又は前記タイルグループに適用されないと決定するステップを更に有する、
方法。
B8.箇条B2に記載の方法であって、
前記サブブロックマージ候補リスト内の候補の最大数に関係がある前記ビットストリーム表現内の1つ以上のシンタックス要素は、前記sbTMVP技術が前記変換に適用されるか否かに依存する、
方法。
B9.箇条B8に記載の方法であって、
前記sbTMVP技術が前記変換に適用されないと決定すると、前記1つ以上のシンタックス要素の値を制約するステップを更に有する、
方法。
B10.箇条B6に記載の方法であって、
前記サブブロックマージ候補リスト内の候補の最大数に関係がある1つ以上のシンタックス要素は、前記ビットストリーム表現において選択的に包含又は削除される、
方法。
B11.箇条B2~B10のうちいずれか1つ以上に記載の方法であって、
前記サブブロックマージ候補リスト内の候補の最大数は、0、1、又は5である、
方法。
C1.視覚メディア処理の方法であって、
現在のビデオブロックとビットストリーム表現との間の変換中に、該変換のためのサブブロックマージ候補リストに1つ以上のデフォルトのマージ候補を付け足すステップと、
付け足された前記1つ以上のデフォルトのマージ候補を含む前記サブブロックマージ候補リストを用いて、前記変換を実行するステップと
を含む方法。
C2.箇条C1に記載の方法であって、
デフォルト候補は、サブブロック予測タイプと関連付けられる、
方法。
C3.箇条C2に記載の方法であって、
前記サブブロック予測タイプは、並進運動モデル又はアフィン運動モデルに基づく予測を含む、
方法。
C4.箇条C1に記載の方法であって、
デフォルト候補は、ブロック全体予測タイプと関連付けられる、
方法。
C5.箇条C4に記載の方法であって、
前記ブロック全体予測タイプは、並進運動モデル又はアフィン運動モデルに基づく予測を含む、
方法。
D1.視覚メディア処理の方法であって、
ビデオの現在のビデオブロックとビットストリーム表現との間の変換中に、該変換へのサブブロックベースの時間的動きベクトル予測(sbTMVP)の適用可能性を決定するステップであり、前記ビットストリーム表現中の1つ以上のビットが前記決定に対応する、前記決定するステップと、
前記決定に基づき前記変換を実行するステップと
を有する方法。
D2.箇条D1に記載の方法であって、
前記1つ以上のビットは、ピクチャヘッダ又はスライスヘッダ又はタイルグループヘッダに含まれる、
方法。
D3.箇条D1~D2のうちいずれか1つ以上に記載の方法であって、
前記変換は、時間動きベクトル予測(TMVP)を使用した前記ビデオの前記変換のために使用される他の同一位置ピクチャとは異なる同一位置ピクチャをATMVPのために使用する、
方法。
D4.箇条D1~D3のうちいずれか1つ以上に記載の方法であって、
前記1つ以上のビットは、Iスライス又はIタイルグループ又はIピクチャに含まれる、
方法。
D5.箇条D1~D3のうちいずれか1つ以上に記載の方法であって、
前記1つ以上のビットは、sbTMVPがシーケンスレベルで適用される場合に、前記シーケンスレベルで前記ビットストリーム表現に含まれる、
方法。
D6.箇条D1~D3のうちいずれか1つ以上に記載の方法であって、
前記1つ以上のビットは、TMVPがスライスレベル
又はタイルグループレベル又はピクチャレベルについて無効にされる場合に、前記スライスレベル又は前記タイルグループレベル又は前記ピクチャレベルで前記ビットストリーム表現において除かれる、
方法。
D7.箇条D6に記載の方法であって、
sbTMVPは、適用不可であると決定される、
方法。
D8.箇条D1に記載の方法であって、
TMVPは、スライス又はタイルグループ又はピクチャについて無効にされ、方法は、
前記ビットストリーム表現内の前記1つ以上のビットにかかわらず、前記スライス又は前記タイルグループ又は前記ピクチャについてsbTMVPが無効にされると推測するステップを更に有する、
方法。
E1.視覚メディア処理の方法であって、
時間的動きベクトル予測(TMVP)ステップ又はサブブロックベースの時間的動きベクトル予測(sbTMVP)ステップに関連した条件に基づき選択的にサブブロックマージ候補リストを構成するステップと、
前記サブブロックマージ候補リストに基づき現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップと
を有する方法。
E2.箇条E1に記載の方法であって、
前記条件は、シーケンスパラメータセットレベル又はスライスレベル又はタイルレベル又はブリックレベルでの前記ビットストリーム表現内のフラグの存在に対応する、
方法。
E3.箇条E1に記載の方法であって、
前記サブブロックマージ候補リストは、sbTMVPステップ及びTMVPステップが両方とも、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、
方法。
E4.箇条E1に記載の方法であって、
前記サブブロックマージ候補リストは、sbTMVPステップが、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、
方法。
E5.箇条E1に記載の方法であって、
前記サブブロックマージ候補リストは、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについてsbTMVPステップが有効にされTMVPステップが無効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、方法。
E6.箇条E1~E5のうちいずれか1つ以上に記載の方法であって、
前記ビットストリーム表現内のフラグは、サブブロックベースの時間マージ候補が前記変換中に使用されるか否かに基づき包含又は削除される、
方法。
E7.箇条E6に記載の方法であって、
前記フラグは、sps_temporal_mvp_enabled_flag又はsps_sbtmvp_enabled_flagの少なくとも1つを有する、
方法。
F1.視覚メディア処理の方法であって、
視覚メディアデータと該視覚メディアデータのビットストリーム表現との間の変換中に、前記視覚メディアデータに関連した同一位置参照ピクチャに関する情報を決定するステップであり、前記情報は、時間動き情報にアクセスするコーディングモードが有効にされるかどうかに基づき前記ビットストリーム表現において包含又は削除される、前記決定するステップと、
前記情報に従って前記同一位置参照ピクチャを決定するステップと、
前記同一位置参照ピクチャに基づき、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の前記変換を実行するステップと
を有する方法。
F2.箇条F1に記載の方法であって、
前記情報は、前記同一位置参照ピクチャ及び/又は前記同一位置参照ピクチャの参照インデックスを導出するために使用される参照ピクチャリストを示す、
方法。
F3.箇条F1に記載の方法であって、
前記コーディングモードは、時間動きベクトル予測(TMVP)コーディング技術を有する、
方法。
G1.視覚メディア処理の方法であって、
視覚メディアデータのビデオブロックと前記視覚メディアデータのビットストリーム表現との間の変換を実行するステップと、
前記変換中に、規則に基づき前記ビットストリーム表現において包含又は削除される制御情報に応じて、オプティカルフローを使用した予測精緻化(PROF)を適用すべきかどうか決定するステップと
を有する方法。
G2.箇条G1に記載の方法であって、
前記規則は、アフィン予測が前記変換に適用されるか否かに基づき、前記ビットストリーム表現において前記制御情報を包含又は削除することを定める、
方法。
G3.箇条G1~G2のうちいずれか1つ以上に記載の方法であって、
PROFの適用は、前記変換に対するアフィン予測の無効化に基づき無効にされる、
方法。
G4.箇条G2に記載の方法であって、
前記規則は、アフィン予測が無効にされる場合に前記制御情報を除くことを更に定める、
方法。
G5.箇条G4に記載の方法であって、
アフィン予測は無効にされ、方法は、
PROFが前記変換に対して無効にされると推測するステップを更に有する、
方法。
G6.箇条G2に記載の方法であって、
PROFの適用は、前記ビットストリーム表現内の対応するフラグに基づき片予測のためにのみ関連付けられる、
方法。
G7.箇条G1~G6に記載の方法であって、
前記制御情報は、シーケンス、ピクチャ、スライス、タイルグループ、タイル、現在のビデオブロックに関連したブリック、又は前記視覚メディアデータの他のビデオブロック、のうちの1つに含まれる、
方法。
G8.箇条G7に記載の方法であって、
前記制御情報は、シーケンスパラメータセット(SPS)、復号化パラメータセット(DPS)、ビデオパラメータセット(VPS)、ピクチャパラメータセット(PPS)、ピクチャヘッダ、スライスヘッダ、又はタイルグループヘッダ、のうちの1つに含まれる、
方法。
H1.箇条A1~G8のうちいずれか1つ以上に記載の方法であって、
前記変換は、前記現在のビデオブロックから前記ビットストリーム表現を生成することを含む、
方法。
H2.箇条A1~G8のうちいずれか1つ以上に記載の方法であって、
前記変換は、前記ビットストリーム表現から前記現在のビデオブロックのピクセル値を生成することを含む、
方法。
H3.箇条A1~G8のうちいずれか1つ以上に記載の方法を実装するよう構成されたプロセッサを有するビデオエンコーダ装置。
H4.箇条A1~G8のうちいずれか1つ以上に記載の方法を実装するよう構成されたプロセッサを有するビデオデコーダ装置。
H5.箇条A1~G8のうちいずれか1つ以上に記載の方法を実装するためのプロセッサ実行可能命令を具現するコードを記憶しているコンピュータ可読媒体。
本明細書中、「ビデオ処理」という用語は、ビデオ符号化、ビデオ復号化、ビデオトランスコーディング、ビデオ圧縮、又はビデオ圧縮解除を指し得る。例えば、ビデオ圧縮アルゴリズムは、ビデオのピクセル表現から対応するビットストリーム表現への変換中に適用されてよく、あるいは、その逆も同様である。現在のビデオブロックのビットストリーム表現は、例えば、シンタックスによって定義されるように、ビットストリーム内の異なった場所に拡散しているか又は同一位置にあるビットに対応してよい。例えば、マクロブロックは、トランスコーディング及びコーディングされた誤差残差値に関して、ビットストリームにおけるヘッダ及び他のフィールド内のビットも用いて、エンコードされてよい。更には、変換中に、デコーダは、上記の解決法で記載されているように、決定に基づいて、いくつかのフィールドが存在又は不存在であることを知った上で、ビットストリームをパースしてよい。同様に、エンコーダは、特定のシンタックスフィールドが含まれるべきか否かを決定し、それに応じて、コーディングされた表現に対してシンタックスフィールドを含めるか又は取り除くことによって、コーディングされた表現(ビットストリーム表現)を生成してよい。開示されている技術は、サブブロックベースの動きベクトル精緻化の使用を含む技術を用いて圧縮効率を改善するためにビデオエンコーダ又はデコーダで具現され得る、ことが理解されるだろう。
本明細書で記載されている開示された及び他の解決法、例、実施形態、方法及び機能的動作は、デジタル電子回路で、又は本明細書で開示されている構造及びそれらの構造的同等物を含むコンピュータソフトウェア、ファームウェア、若しくはハードウェアで、又はそれらの1つ以上の組み合わせで実装可能である。開示された及び他の実施形態は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置による実行のために又はデータ処理装置の動作を制御するためにコンピュータ可読媒体上にエンコードされているコンピュータプログラム命令の1つ以上のモジュール、として実装可能である。コンピュータ可読媒体は、機械により読み出し可能な記憶デバイス、機械により読み出し可能な記憶担体、メモリデバイス、機械により読み出し可能な伝搬信号をもたらす組成物、又はそれらの1つ以上の組み合わせであることができる。「データ処理装置」との用語は、例として、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む、データを処理する全ての装置、デバイス、及び機械を包含する。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコード、を含むことができる。伝搬信号は、人工的に生成された信号、例えば、機械により生成された電気、光、又は電磁気信号であり、適切なレシーバ装置への伝送のために情報をエンコードするよう生成される。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる。)は、コンパイル済み又は解釈済みの言語を含む如何なる形式のプログラミング言語でも記述可能であり、それは、スタンドアロンプログラムとして又はコンピューティング環境における使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとして、を含め、如何なる形式でもデプロイ可能である。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応しない。プログラムは、問題となっているプログラムに専用の単一のファイルで、又は複数の協調したファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を保存するファイル)で、他のプログラム又はデータ(例えば、マークアップ言語文書で保存された1つ以上のスクリプト)を保持するファイルの部分において保存可能である。コンピュータプログラムは、1つのコンピュータで、あるいは、1つの場所に位置しているか、又は複数の場所にわたって分布しており、通信ネットワークによって相互接続されている複数のコンピュータで、実行されるようデプロイ可能である。
本明細書で記載されているプロセス及び論理フローは、入力データに作用して出力を生成することによって機能を実行するよう1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実行可能である。プロセス及び論理フローはまた、専用のロジック回路、例えば、FPGA(Field Programmable Gate Array)又はASIC(Application-Specific Integrated Circuit)によっても実行可能であり、装置は、そのようなものとしても実装可能である。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用のマイクロプロセッサ及び専用のマイクロプロセッサの両方、並びにあらゆる種類のデジタルコンピュータのいずれか1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリー・メモリ若しくはランダム・アクセス・メモリ又はその両方から命令及びデータを受け取ることになる。コンピュータの必須の要素は、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリデバイスと、である。一般に、コンピュータはまた、データを保存する1つ以上の大容量記憶デバイス、例えば、磁気、光学磁気ディスク、又は光ディスクを含むか、あるいは、そのような1つ以上の大容量記憶デバイスからのデータの受信若しくはそれへのデータの転送又はその両方のために動作可能に結合されることになる。しかし、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令及びデータを保存するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えば、EPROM、EEPROM、及びフラッシュメモリデバイスを含む全ての形式の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用のロジック回路によって強化されるか、あるいは、それに組み込まれ得る。
本明細書は、多数の詳細を含むが、それらは、あらゆる発明の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の発明の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書に記載されている特定の特徴は、単一の実施形態と組み合わせても実装可能である。逆に、単一の実施形態に関連して記載されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションで実装可能である。更に、特徴は、特定の組み合わせで動作するものとして上述され、そのようなものとして最初に請求されることさえあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が、示されているその特定の順序で、又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書に記載されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本明細書で記載及び例示されているものに基づいて行われ得る。
[関連出願への相互参照]
願は、2019年5月21日付けで出願された国際特許出願第PCT/CN2019/087805号に対する優先権及びその利益を請求して2020年5月21日付けで出願された国際特許出願第PCT/CN2020/091539号の国内移行である。上記の出願の開示全体は、本願の開示の部分として参照により援用される。

Claims (15)

  1. 視覚メディア処理の方法であって、
    時間動きベクトル予測(TMVP)ステップ又はサブブロックベースの時間動きベクトル予測(sbTMVP)ステップに関連した条件に基づき選択的にサブブロックマージ候補リストを構成するステップと、
    前記サブブロックマージ候補リストに基づき現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を実行するステップと
    を有する方法。
  2. 前記条件は、シーケンスパラメータセットレベル又はスライスレベル又はタイルレベル又はブリックレベルでの前記ビットストリーム表現内のフラグの存在及び/又は前記フラグの値に対応する、
    請求項1に記載の方法。
  3. 前記サブブロックマージ候補リストは、sbTMVPステップ及びTMVPステップが両方とも、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、
    請求項1に記載の方法。
  4. 前記サブブロックマージ候補リストは、sbTMVPステップが、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについて有効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、
    請求項1に記載の方法。
  5. 前記サブブロックマージ候補リストは、前記現在のビデオブロックが属するピクチャ又はタイル又はタイルグループについてsbTMVPステップが有効にされTMVPステップが無効にされる場合にのみ、サブブロックベースの時間マージ候補を用いて構成される、
    請求項1に記載の方法。
  6. 前記ビットストリーム表現内のフラグは、サブブロックベースの時間マージ候補が前記変換中に使用されるか否かに基づき包含又は削除される、
    請求項1乃至5のうちいずれか一項以上に記載の方法。
  7. 前記フラグは、sps_temporal_mvp_enabled_flag又はsps_sbtmvp_enabled_flagのうちの少なくとも一方を有する、
    請求項2に記載の方法。
  8. 視覚メディア処理の方法であって、
    視覚メディアデータと該視覚メディアデータのビットストリーム表現との間の変換中に、前記視覚メディアデータに関連した同一位置参照ピクチャに関する情報を決定するステップであり、前記情報は、時間動き情報にアクセスするコーディングモードが有効にされるかどうかに基づき前記ビットストリーム表現において包含又は削除される、前記決定するステップと、
    前記情報に従って前記同一位置参照ピクチャを決定するステップと、
    前記同一位置参照ピクチャに基づき、前記視覚メディアデータと該視覚メディアデータの前記ビットストリーム表現との間の前記変換を実行するステップと
    を有する方法。
  9. 前記情報は、前記同一位置参照ピクチャ及び/又は前記同一位置参照ピクチャの参照インデックスを導出するために使用される参照ピクチャリストを示す、
    請求項8に記載の方法。
  10. 前記コーディングモードは、時間動きベクトル予測(TMVP)コーディング技術を有する、
    請求項8に記載の方法。
  11. 前記変換は、前記現在のビデオブロックから前記ビットストリーム表現を生成することを含む、
    請求項1乃至10のうちいずれか一項以上に記載の方法。
  12. 前記変換は、前記ビットストリーム表現から前記現在のビデオブロックのピクセル値を生成することを含む、
    請求項1乃至10のうちいずれか一項以上に記載の方法。
  13. 請求項1乃至10のうちいずれか一項以上に記載の方法を実装するよう構成されたプロセッサを有するビデオエンコーダ装置。
  14. 請求項1乃至10のうちいずれか一項以上に記載の方法を実装するよう構成されたプロセッサを有するビデオデコーダ装置。
  15. 請求項1乃至10のうちいずれか一項以上に記載の方法を実装するためのプロセッサ実行可能命令を具現するコードを記憶しているコンピュータ可読媒体。
JP2021568037A 2019-05-21 2020-05-21 サブブロックマージモードでのシンタックスシグナリング Active JP7377894B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2019087805 2019-05-21
CNPCT/CN2019/087805 2019-05-21
PCT/CN2020/091539 WO2020233661A1 (en) 2019-05-21 2020-05-21 Syntax signaling in sub-block merge mode

Publications (2)

Publication Number Publication Date
JP2022532629A true JP2022532629A (ja) 2022-07-15
JP7377894B2 JP7377894B2 (ja) 2023-11-10

Family

ID=73458359

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021568037A Active JP7377894B2 (ja) 2019-05-21 2020-05-21 サブブロックマージモードでのシンタックスシグナリング
JP2021566967A Active JP7323641B2 (ja) 2019-05-21 2020-05-21 アフィンモードのための適応動きベクトル差分分解
JP2023122288A Pending JP2023145610A (ja) 2019-05-21 2023-07-27 アフィンモードのための適応動きベクトル差分分解

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021566967A Active JP7323641B2 (ja) 2019-05-21 2020-05-21 アフィンモードのための適応動きベクトル差分分解
JP2023122288A Pending JP2023145610A (ja) 2019-05-21 2023-07-27 アフィンモードのための適応動きベクトル差分分解

Country Status (6)

Country Link
US (4) US11627313B2 (ja)
EP (2) EP3954119A4 (ja)
JP (3) JP7377894B2 (ja)
KR (2) KR20220009952A (ja)
CN (5) CN117714682A (ja)
WO (4) WO2020233659A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117714682A (zh) 2019-05-21 2024-03-15 北京字节跳动网络技术有限公司 子块Merge模式中的语法信令
CN114128285A (zh) * 2019-06-14 2022-03-01 现代自动车株式会社 用于利用帧间预测来编码和解码视频的方法和装置
KR102627936B1 (ko) * 2019-06-14 2024-01-23 엘지전자 주식회사 쌍 예측이 적용되는 경우 가중 평균을 위한 가중치 인덱스 정보를 도출하는 영상 디코딩 방법 및 그 장치
US20220191472A1 (en) * 2019-07-05 2022-06-16 Lg Electronics Inc. Image encoding/decoding method and device for deriving weight index of bidirectional prediction, and method for transmitting bitstream
MX2022000237A (es) * 2019-07-05 2022-03-17 Lg Electronics Inc Metodo y aparato de codificacion/decodificacion de imagenes para llevar a cabo prediccion bidireccional, y metodo para transmitir flujos de bits.
CN114342376A (zh) * 2019-07-05 2022-04-12 Lg电子株式会社 用于推导合并候选的双向预测的权重索引的视频编码/解码方法和装置以及发送比特流的方法
CN114175654A (zh) * 2019-08-08 2022-03-11 鸿颖创新有限公司 用于对视频数据编码的设备和方法
CN117676135A (zh) 2019-10-18 2024-03-08 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
CN115398892A (zh) * 2020-03-23 2022-11-25 抖音视界有限公司 仿射merge和仿射运动矢量预测模式的预测细化
CN112911308B (zh) * 2021-02-01 2022-07-01 重庆邮电大学 一种h.266/vvc的快速运动估计方法及存储介质

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101990103B (zh) * 2010-11-10 2013-01-16 香港应用科技研究院有限公司 用于多视点视频编码的方法和装置
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US20130336406A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated Redundancy removal for merge/skip mode motion information candidate list construction
SG11201502627QA (en) 2012-10-05 2015-05-28 Mediatek Singapore Pte Ltd Method and apparatus of motion vector derivation 3d video coding
WO2014103774A1 (ja) * 2012-12-26 2014-07-03 ソニー株式会社 画像処理装置および方法
US9674542B2 (en) * 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
WO2014107853A1 (en) 2013-01-09 2014-07-17 Mediatek Singapore Pte. Ltd. Methods for disparity vector derivation
US10057594B2 (en) 2013-04-02 2018-08-21 Vid Scale, Inc. Enhanced temporal motion vector prediction for scalable video coding
EP3020186B1 (en) * 2013-07-09 2022-12-07 Nokia Technologies Oy Method and apparatus for video coding involving syntax for signalling motion information
WO2015003383A1 (en) 2013-07-12 2015-01-15 Mediatek Singapore Pte. Ltd. Methods for inter-view motion prediction
WO2015006951A1 (en) 2013-07-18 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for fast encoder decision
WO2015142054A1 (ko) * 2014-03-19 2015-09-24 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
WO2016008157A1 (en) * 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Methods for motion compensation using high order motion model
JP2017532885A (ja) 2014-09-26 2017-11-02 ヴィド スケール インコーポレイテッド 時間ブロックベクトル予測を用いたイントラブロックコピー符号化
KR102115715B1 (ko) 2014-09-30 2020-05-27 에이치에프아이 이노베이션 인크. 비디오 코딩을 위한 적응적 모션 벡터 레졸루션 방법
US9918105B2 (en) * 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
CN109005407B (zh) * 2015-05-15 2023-09-01 华为技术有限公司 视频图像编码和解码的方法、编码设备和解码设备
US10375413B2 (en) * 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
CN109274974B (zh) * 2015-09-29 2022-02-11 华为技术有限公司 图像预测的方法及装置
CN108432250A (zh) * 2016-01-07 2018-08-21 联发科技股份有限公司 用于视频编解码的仿射帧间预测的方法及装置
US11109061B2 (en) * 2016-02-05 2021-08-31 Mediatek Inc. Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
US10349067B2 (en) * 2016-02-17 2019-07-09 Qualcomm Incorporated Handling of end of bitstream NAL units in L-HEVC file format and improvements to HEVC and L-HEVC tile tracks
WO2017147765A1 (en) 2016-03-01 2017-09-08 Mediatek Inc. Methods for affine motion compensation
RU2696551C1 (ru) * 2016-03-15 2019-08-02 МедиаТек Инк. Способ и устройство для кодирования видео с компенсацией аффинного движения
WO2017171107A1 (ko) * 2016-03-28 2017-10-05 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10834419B2 (en) * 2016-04-13 2020-11-10 Qualcomm Incorporated Conformance constraint for collocated reference index in video coding
US10560718B2 (en) * 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10560712B2 (en) * 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
WO2017206803A1 (en) * 2016-05-28 2017-12-07 Mediatek Inc. Method and apparatus of current picture referencing for video coding
US10462462B2 (en) * 2016-09-29 2019-10-29 Qualcomm Incorporated Motion vector difference coding technique for video coding
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
CN109983773A (zh) * 2016-11-29 2019-07-05 联发科技股份有限公司 用于合并模式推导的视频编解码方法和装置
US10911761B2 (en) * 2016-12-27 2021-02-02 Mediatek Inc. Method and apparatus of bilateral template MV refinement for video coding
US10277895B2 (en) * 2016-12-28 2019-04-30 Arris Enterprises Llc Adaptive unequal weight planar prediction
US10931969B2 (en) 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US10523964B2 (en) 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US10701390B2 (en) * 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
US20180310017A1 (en) * 2017-04-21 2018-10-25 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding
CN107277316B (zh) 2017-06-12 2020-05-12 京东方科技集团股份有限公司 显示装置及其制造方法
US10904565B2 (en) 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
JP7168593B2 (ja) 2017-07-03 2022-11-09 ヴィド スケール インコーポレイテッド 双方向オプティカルフローに基づいた動き補償予測
US10483493B2 (en) 2017-08-01 2019-11-19 Apple Inc. Electronic device having display with thin-film encapsulation
US10856003B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Coding affine prediction motion information for video coding
US11877001B2 (en) * 2017-10-10 2024-01-16 Qualcomm Incorporated Affine prediction in video coding
US20190116376A1 (en) 2017-10-12 2019-04-18 Qualcomm Incorporated Motion vector predictors using affine motion model in video coding
US10776688B2 (en) * 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow
US11889100B2 (en) * 2017-11-14 2024-01-30 Qualcomm Incorporated Affine motion vector prediction in video coding
US11388398B2 (en) 2018-01-11 2022-07-12 Qualcomm Incorporated Video coding using local illumination compensation
US10757417B2 (en) 2018-01-20 2020-08-25 Qualcomm Incorporated Affine motion compensation in video coding
WO2019169339A1 (en) * 2018-03-01 2019-09-06 Arris Enterprises Llc System and method of motion information storage for video coding and signaling
CN116684638A (zh) 2018-04-01 2023-09-01 Lg电子株式会社 图像编码/解码方法、视频数据发送方法和存储介质
US11595664B2 (en) 2018-04-03 2023-02-28 Intellectual Discovery Co., Ltd. Affine model-based image encoding/decoding method and device
CN112166608A (zh) 2018-04-06 2021-01-01 Vid拓展公司 采用简化梯度推导的双向光流方法
US11457233B2 (en) * 2018-04-12 2022-09-27 Arris Enterprises Llc Motion information storage for video coding and signaling
US10873748B2 (en) 2018-05-12 2020-12-22 Qualcomm Incorporated Storage of high precision motion vectors in video coding
CN110636298B (zh) 2018-06-21 2022-09-13 北京字节跳动网络技术有限公司 对于Merge仿射模式和非Merge仿射模式的统一约束
MX2021000129A (es) 2018-06-27 2021-03-25 Vid Scale Inc Métodos y aparato para reducir la latencia de codificación del refinamiento de movimiento lateral de decodificador.
CA3105072A1 (en) 2018-06-29 2020-01-02 Vid Scale, Inc. Adaptive control point selection for affine motion model based video coding
CN110677669B (zh) 2018-07-02 2021-12-07 北京字节跳动网络技术有限公司 具有lic的lut
WO2020017861A1 (ko) * 2018-07-16 2020-01-23 엘지전자 주식회사 서브블록 단위의 시간적 움직임 정보 예측을 위한 인터 예측 방법 및 그 장치
WO2020017892A1 (ko) * 2018-07-17 2020-01-23 엘지전자 주식회사 서브블록 단위의 시간적 움직임 벡터 예측을 위한 방법 및 그 장치
CN115842912A (zh) 2018-08-04 2023-03-24 抖音视界有限公司 不同解码器侧运动矢量推导模式之间的交互
TWI815967B (zh) 2018-09-19 2023-09-21 大陸商北京字節跳動網絡技術有限公司 仿射模式編解碼的模式相關自適應調整運動矢量分辨率
US11589069B2 (en) * 2018-09-20 2023-02-21 Sharp Kabushiki Kaisha Systems and methods for signaling parameters in video coding
WO2020060316A1 (ko) * 2018-09-20 2020-03-26 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
GB2577318B (en) * 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
TWI831837B (zh) 2018-09-23 2024-02-11 大陸商北京字節跳動網絡技術有限公司 仿射模型的多個假設
CN110944182B (zh) 2018-09-23 2023-06-09 北京字节跳动网络技术有限公司 仿射模式中的子块的运动矢量推导
KR102613889B1 (ko) 2018-09-23 2023-12-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 적응적 움직임 벡터 해상도를 갖는 움직임 벡터 수정
TW202029755A (zh) 2018-09-26 2020-08-01 美商Vid衡器股份有限公司 視訊編碼雙預測
KR102637604B1 (ko) * 2018-10-08 2024-02-16 엘지전자 주식회사 신택스 디자인 방법 및 신택스를 이용하여 코딩을 수행하는 장치
WO2020084472A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Affine mode parameter inheritance or prediction
CN117880513A (zh) 2018-10-22 2024-04-12 北京字节跳动网络技术有限公司 基于编解码信息的解码器侧运动矢量推导的限制
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
JP7231727B2 (ja) 2018-11-05 2023-03-01 北京字節跳動網絡技術有限公司 精緻化を伴うインター予測のための補間
CN112997487A (zh) 2018-11-15 2021-06-18 北京字节跳动网络技术有限公司 仿射模式与其他帧间编解码工具之间的协调
CN113039802B (zh) 2018-11-16 2024-05-14 北京字节跳动网络技术有限公司 基于历史的仿射参数的使用
CN113039790B (zh) 2018-11-17 2023-04-14 北京字节跳动网络技术有限公司 视频处理的方法、装置和非暂时性计算机可读介质
WO2020103870A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
WO2020108650A1 (en) 2018-11-29 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Flag indication method in intra block copy mode
CN111316646B (zh) 2019-01-02 2023-06-23 北京大学 候选mv列表构建方法和装置
WO2020156576A1 (en) 2019-02-02 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Multi-hmvp for affine
US20200296405A1 (en) 2019-03-14 2020-09-17 Qualcomm Incorporated Affine motion compensation refinement using optical flow
JP2022525876A (ja) 2019-03-17 2022-05-20 北京字節跳動網絡技術有限公司 オプティカルフローベースの予測精緻化の計算
KR20230165888A (ko) 2019-04-02 2023-12-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 양방향 광학 흐름 기반 비디오 코딩 및 디코딩
EP3922014A4 (en) 2019-04-02 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. DECODER SIDE MOTION VECTOR BYPASS
WO2020211866A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Applicability of prediction refinement with optical flow process
WO2020211864A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Region based gradient calculation in different motion vector refinements
WO2020211867A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Delta motion vector in prediction refinement with optical flow process
EP3965420A4 (en) 2019-04-30 2022-07-06 Wilus Institute of Standards and Technology Inc. VIDEO SIGNAL PROCESSING METHOD AND APPARATUS USING ADAPTIVE MOTION VECTOR RESOLUTION
EP4221225B1 (en) 2019-05-15 2024-05-29 Huawei Technologies Co., Ltd. Handling of bi-directional optical flow (bio) coding tool for reference picture resampling in video coding
CN117714682A (zh) 2019-05-21 2024-03-15 北京字节跳动网络技术有限公司 子块Merge模式中的语法信令

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS, JIANLE CHEN, AND SHAN LIU: "Versatile Video Coding (Draft 5)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N1001 (version 5), JPN6022049601, 14 May 2019 (2019-05-14), ISSN: 0005029760 *
HAHYUN LEE, ET AL.: "CE2-related: Simplification of subblock-based temporal merging candidates", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0240, JPN6022049603, January 2019 (2019-01-01), pages 1 - 6, XP030197867, ISSN: 0005029758 *
LI ZHANG, ET AL.: "CE2-related: Early awareness of accessing temporal blocks in sub-block merge list construction", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0273, JPN6022049604, January 2019 (2019-01-01), pages 1 - 4, XP030198084, ISSN: 0005029759 *

Also Published As

Publication number Publication date
CN113906738B (zh) 2024-01-12
WO2020233662A1 (en) 2020-11-26
JP2022533056A (ja) 2022-07-21
CN113853793B (zh) 2023-12-19
US20220060696A1 (en) 2022-02-24
EP3954120A1 (en) 2022-02-16
KR20220009952A (ko) 2022-01-25
US20230217018A1 (en) 2023-07-06
WO2020233660A1 (en) 2020-11-26
CN113906738A (zh) 2022-01-07
US11627313B2 (en) 2023-04-11
CN113924771B (zh) 2024-01-12
CN113924771A (zh) 2022-01-11
US11496733B2 (en) 2022-11-08
JP7377894B2 (ja) 2023-11-10
WO2020233661A1 (en) 2020-11-26
EP3954120A4 (en) 2022-06-22
CN113906759A (zh) 2022-01-07
KR20220009951A (ko) 2022-01-25
EP3954119A1 (en) 2022-02-16
KR102662616B1 (ko) 2024-04-30
JP2023145610A (ja) 2023-10-11
WO2020233659A1 (en) 2020-11-26
US20220060695A1 (en) 2022-02-24
EP3954119A4 (en) 2022-06-22
US11470309B2 (en) 2022-10-11
CN113853793A (zh) 2021-12-28
US20220060718A1 (en) 2022-02-24
JP7323641B2 (ja) 2023-08-08
CN117714682A (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
US11924421B2 (en) Blending method for inter prediction with geometry partition
JP7377894B2 (ja) サブブロックマージモードでのシンタックスシグナリング
US11671586B2 (en) Modified history based motion prediction
JP7231729B2 (ja) イントラブロックコピーのための履歴ベース動き候補リスト構築
JP2022508177A (ja) イントラブロックコピーモードとインター予測ツールとの間の相互作用
JP2022519883A (ja) デコーダ側精緻化ツールのサイズ選択アプリケーション
JP2022511914A (ja) 動きベクトル差分によるマージ(mmvd)モードにおける動きベクトル予測
WO2021110017A1 (en) Merge with motion vector differencing in affine mode

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7377894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150