JP2022507281A - 部分的な位置に基づく差分計算 - Google Patents

部分的な位置に基づく差分計算 Download PDF

Info

Publication number
JP2022507281A
JP2022507281A JP2021525770A JP2021525770A JP2022507281A JP 2022507281 A JP2022507281 A JP 2022507281A JP 2021525770 A JP2021525770 A JP 2021525770A JP 2021525770 A JP2021525770 A JP 2021525770A JP 2022507281 A JP2022507281 A JP 2022507281A
Authority
JP
Japan
Prior art keywords
block
motion vector
difference
current block
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021525770A
Other languages
English (en)
Other versions
JP7241870B2 (ja
Inventor
リュウ,ホンビン
ザン,リー
ザン,カイ
シュイ,ジィジォン
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022507281A publication Critical patent/JP2022507281A/ja
Application granted granted Critical
Publication of JP7241870B2 publication Critical patent/JP7241870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

部分的な位置に基づく差分計算が記載される。代表的な態様では、ビデオ処理の方法は、ビデオの現在のブロックと現在のブロックのビットストリームとの間の変換中に、現在のブロックと関連付けられた2つの参照ブロック間の差、又は前記現在のブロック内のサブブロックと関連付けられた2つの参照サブブロック間の差を、参照ブロックの代表位置又は参照サブブロックの代表位置に基づいて計算するステップと、差に基づいて変換を実行するステップとを有する。

Description

適用可能な特許法、及び/又はパリ条約に従う規則の下で、本願は、2018年11月20日付けで出願された国際特許出願第PCT/CN2018/116371号、2019年1月2日付けで出願された国際特許出願第PCT/CN2019/070062号、及び2019年1月16日付けで出願された国際特許出願第PCT/CN2019/072060に対する優先権及びその利益を適時請求するようなされる。上記の国際特許出願の全体の開示は、本願の開示の部分として参照により援用される。
本特許文献は、ビデオコーディング技術、デバイス及びシステムに関する。
動き補償(Motion Compensation,MC)は、カメラ及び/又はビデオ内の対象物の動きを捕らえることによって、前の及び/又は将来のフレームを考慮して、ビデオ内のフレームを予測するビデオ処理の技術である。動き補償は、ビデオ補償のためのビデオデータのエンコーディング/デコーディングにおいて使用され得る。
本明細書は、ビデオコーディング及びデコーディングにおける動き補償の使用に関する方法、システム、及びデバイスを開示する。
一例となる態様では、ビデオ処理の方法が開示される。方法は、ビデオの現在のブロックと現在のブロックのビットストリーム表現との間の変換中に、現在のブロックと関連付けられた2つの参照ブロック間の差、又は現在のブロック内のサブブロックと関連付けられた2つの参照サブブロック間の差を、参照ブロックの代表位置又は参照サブブロックの代表位置に基づいて計算するステップと、差に基づいて変換を実行するステップとを有する。
異例となる態様では、ビデオ処理の方法が開示される。方法は、ビデオの現在のブロックが特定のコーディングモードを用いてコーディングされているとの決定に基づいて、現在のブロックのためのデコーダ側動きベクトル導出(Decoder side Motion Vector Derivation,DMVD)ツールの選択的有効化に関して判断するステップであり、DMVDツールは、ビデオのビットストリーム表現において伝えられた動き情報の精緻化を導出する、ステップと、判断に基づいて現在のブロックとビットストリーム表現との間の変換を実行するステップとを有する。
一例となる態様では、ビデオ処理方法が開示される。方法は、多段階精緻化プロセスを用いて、現在のビデオブロックのビットストリーム表現からデコーディングされた動き情報に基づいて動きベクトル情報の複数の精緻化値を生成するステップと、複数の精緻化値に基づいて現在のビデオブロックを再構成するか又は他のビデオブロックをデコーディングするステップとを含む。
他の例となる態様では、他のビデオ処理方法が開示される。方法は、現在のブロックと現在のブロックのビットストリーム表現との間の変換のために、現在のブロックのサブブロックのための多段階精緻化プロセスと、サブブロックの2つの予測ブロック間の時間勾配変更プロセスとを実行するステップであり、多段階精緻化プロセスを用いて、現在のビデオブロックのビットストリーム表現からデコーディングされた動き情報に基づいて動きベクトル情報の複数の精緻化値が生成される、ステップと、精緻化値に基づいて現在のブロックとビットストリーム表現との間の変換を実行するステップとを含む。
更なる他の例となる態様では、他のビデオ処理方法が開示される。方法は、現在のブロックに対して多段階デコーダ側動きベクトル精緻化プロセスを用いて、最終的な動きベクトル決定するステップと、その最終的な動きベクトルを用いて現在のブロックとビットストリーム表現との間の変換を実行するステップとを含む。
更なる他の態様では、ビデオ処理の他の方法が開示される。方法は、現在のビデオブロックと現在のビデオブロックのビットストリーム表現との間の変換中に、現在のビデオブロックの異なるサブブロックに複数の異なる動きベクトル精緻化プロセスを適用するステップと、複数の異なる動きベクトル精緻化プロセスから生成された現在のビデオブロックの最終的な動きベクトルを用いて、現在のビデオブロックとビットストリーム表現との間の変換を実行するステップとを含む。
更なる他の態様では、ビデオ処理の他の方法が開示される。方法は、現在のビデオブロックと現在のビデオブロックのビットストリーム表現との間の変換を、現在のビデオブロックがサブブロックベースのコーディングツールによりコーディングされる場合にコーディングユニット又は予測ユニットが使用するサブブロックの最大数を制限する規則を用いて実行するステップを含み、サブブロックベースのコーディングツールは、アフィンコーディング、ATMVP(Advanced Temporal Motion Vector Predictor)、双方向オプティカルフロー又はデコーダ側動きベクトル精緻化コーディングツールの1つ以上を含む。
更なる他の例となる態様では、ビデオ処理の他の方法が開示される。方法は、現在のビデオブロックと現在のビデオブロックのビットストリーム表現との間の変換を、現在のビデオブロックがサブブロックベースのコーディングツールによりコーディングされる場合に現在のビデオブロックのクロマ成分のために現在のビデオブロックのルーマ成分とは異なったパーティショニングを使用することを定める規則を用いて実行するステップを含み、サブブロックベースのコーディングツールは、アフィンコーディング、ATMVP、双方向オプティカルフロー、又はデコーダ側動きベクトル精緻化コーディングツールの1つ以上を含む。
更なる他の例となる態様では、ビデオ処理の他の方法が開示される。方法は、双方向オプティカルフロー(BI-directional Optical flow,BIO)技術又はデコーダ側動きベクトル精緻化(Decoder-side Motion Vector Refinement,DMVR)技術の早期終了段階で、現在のビデオブロックと関連付けられた参照ビデオブロック間の差を決定するステップと、その差に基づいて現在のビデオブロックの更なる処理を実行するステップとを含む。
更なる他の代表的な態様では、本明細書で記載される様々な技術は、非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品として具現されてよい。コンピュータプログラム製品は、本明細書で記載される方法を実行するためのプログラムコードを含む。
更なる他の代表的な態様では、ビデオデコーダ装置が、ここで記載される方法を実装してよい。
1つ以上の実施の詳細は、添付の書類、図面及び以下の説明で明らかにされる。他の特徴は、本明細書及び図面から、並びに特許請求の範囲から、明らかである。
マージ候補リスト構成のための導出プロセスの例を示す。 空間マージ候補の位置の例を示す。 空間マージ候補の冗長性検査のために考慮される候補対の例を示す。 N×2N及び2×Nのパーティションの第2PUについての位置の例を示す。 時間マージ候補のための動きベクトルスケーリングの例示である。 時間マージ候補C0及びC1についての候補位置の例を示す。 複合双予測マージ候補の例を示す。 動きベクトル予測候補の導出プロセスの例を示す。 空間動きベクトル候補のための動きベクトルスケーリングの例示である。 コーディングユニット(CU)のATMVPの例を表す。 4つのサブブロック(A~D)を有する1つのCU及びその隣接ブロック(a~d)の例を示す。 OBMCが適用されるサブブロックの例示である。 ICパラメータを導出するために使用される隣接サンプルの例を示す。 簡略化されたアフィン運動モデルの例を示す。 サブブロックごとのアフィンMVFの例を示す。 AF_INTERモードの動きベクトル予測子(MV)の例を示す。 A及びBは、AF_MERGEモードの候補の例を示す。 バイラテラルマッチングのプロセスの例を示す。 テンプレートマッチングのプロセスの例を示す。 フレームレートアップコンバージョン(FRUC)におけるユニラテラル動き推定(ME)の実施を表す。 究極の動きベクトル表現(UMVE)探索プロセスの実施形態を表す。 UMVE探索ポイントの例を示す。 距離インデックス及び距離オフセットマッピングの例を示す。 オプティカルフロー軌跡の例を示す。 A及びBは、ブロック拡張、すなわち、a)ブロックの外のアクセス位置、b)余分のメモリアクセス及び計算を回避するために使用されるパディングなしの双方向オプティカルフロー(BIO)の例を示す。 バイラテラルテンプレートマッチングに基づくデコーダ側動きベクトル精緻化(DMVR)を使用する例を表す。 織り込み予測の例を示す。 BIOのための繰り返し動きベクトル精緻化の例を示す。 本明細書で記載されるビデオコーディング又はデコーディング技術を実装するハードウェアプラットフォームのブロック図である。 本明細書で記載される方法及び技術を実装するハードウェアプラットフォームの例を示す。 ビデオ処理の方法の例のフローチャートである。 ビデオ処理の方法の例のフローチャートである。 ビデオ処理の方法の例のフローチャートである。
本明細書は、デジタルビデオエンコーダ及びデコーダに具現され得るいくつかの技術を提供する。セクション見出しは、理解を明りょうにするために本明細書中で使用されており、各セクションで開示されている技術及び実施形態の範囲をそのセクションにのみ限定するものではない。
[1.概要]
本明細書は、ビデオコーディング技術に関係がある。具体的には、それは、ビデオコーディングにおける動き補償に関係がある。開示されている技術は、HEVCのような既存のビデオコーディング標準規格、又は完成されるべき標準規格(Versatile Video Coding(VVC))に適用されてよい。それはまた、将来のビデオコーディング標準規格又はビデオコーデックに適用可能であり得る。
本明細書中、「ビデオ処理」という用語は、ビデオエンコーディング、ビデオデコーディング、ビデオ圧縮又はビデオ圧縮解除を指し得る。例えば、ビデオ圧縮アルゴリズムは、ビデオのピクセル表現から対応するビットストリーム表現への変換に適用されてよく、又はその逆も同様である。
[2.導入]
ビデオコーディング標準規格は、主として、よく知られているITU-T及びISO/IEC標準規格の開発を通じて、進化してきた。ITU-Tは、H.261及びH.263を生み出し、ISO/IECは、MPEG-1及びMPEG-4 Visualを作り出し、2つの組織は共同で、H.262/MPEG-2 Video及びH264/MPEG-4 AVC(Advanced Video Coding)並びにH.265/HEVC標準規格を作り出した。H.262以降、ビデオコーディング標準規格は、ハイブリッドビデオコーディング構造に基づいており、時間予測及び変換コーディングが利用される。HEVCを越える将来のビデオコーディング技術を探るために、JVET(Joint Video Exploration Team)が2015年にVCEG及びMPEGによって共同設立された。それ以来、多くの新しい方法がJVETによって導入され、JEM(Joint Exploration Model)と名付けられた参照ソフトウェアに置かれてきた。2018年4月に、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)との間のJVET(Joint Video Expert Team)が、HEVCと比較してビットレート50%減を目指すVVC標準規格に取り組むために作られた。
[2.1 HEVC/H.265でのインター予測]
各インター予測されたPUは、1つ又は2つの参照ピクチャリストのための動きパラメータを有している。動きパラメータは、動きベクトル及び参照ピクチャインデックスを含む。2つの参照ピクチャリストのうちの一方の利用はまた、inter_red_idcを用いて通知されてもよい。動きベクトルは、予測子に対してデルタとして明示的にコーディングされてよい。
CUがスキップモードによりコーディングされている場合に、1つのPUがそのCUと関連付けられ、有意な残差係数も、コーディングされた動きベクトルデルタ又は参照ピクチャインデックスも存在しない。マージモードが指定され、これによって、現在のPUのための動きパラメータは、空間的及び時間的候補を含む隣接PUから取得される。マージモードは、スキップモードの場合だけでなく、如何なるインター予測されたPUにも適用可能である。マージモードに代わるものは、動きパラメータの明示的な伝送であり、このとき、動きベクトル(より厳密には、動きベクトル予測子と比較した動きベクトル差)、参照ピクチャリストごとの対応する参照ピクチャインデックス、及び参照ピクチャリスト利用が、各PUごとに明示的に通知される。かようなモードは、本明細書ではAdvanced Motion Vector Prediction(AMVP)と称される。
2つの参照ピクチャリストのうちの一方が使用されるべきであることをシグナリングが示す場合に、PUはサンプルの1つのブロックから生成される。これは、「片予測」(uni-prediction)と呼ばれる。片予測は、Pスライス及びBスライスの両方に利用可能である。
両方の参照ピクチャリストが使用されるべきであることをシグナリングが示す場合に、PUはサンプルの2つのブロックから生成される。これは、「双予測」(bi-prediction)と呼ばれる。双予測は、Bスライスにのみ利用可能である。
以下の説明は、HEVCで定められているインター予測モードに関する詳細を提供する。説明は、マージモードから始まる。
[2.1.1 マージモード]
[2.1.1.1 マージモードのための候補の導出]
PUがマージモードを用いて予測される場合に、マージ候補リスト内のエントリを指し示すインデックスは、ビットストリームからパースされ、動き情報を取り出すために使用される。このリストの構成は、HEVC標準規格で定められており、次の一連のステップに従って要約され得る:
●ステップ1:最初の候補の導出
○ステップ1.1:空間的候補導出
○ステップ1.2:空間的候補に対する冗長性検査
○ステップ1.3:時間的候補導出
●ステップ2:追加の候補の挿入
○ステップ2.1:双予測候補の生成
○ステップ2.2:ゼロ動き候補の挿入
これらのステップは、図1でも概略的に表されている。空間マージ候補導出については、最大4つのマージ候補が、5つの異なる位置にある候補の中から選択される。時間マージ候補導出については、最大1つのマージ候補が2つの候補の中から選択される。デコーダではPUごとに一定数の候補が前提とされるので、ステップ1から取得された候補の数が、スライスヘッダで通知されるマージ候補の最大数(MaxNumMergeCand)に達しない場合には、追加の候補が生成される。候補の数は一定であるから、最良のマージ候補のインデックスは、トランケーテッド・ユーナリー・バイナライゼーション(Truncated Unary binarization,TU)を用いてエンコーディングされる。CUのサイズが8に等しい場合に、現在のCUの全てのPUは、2N×2N予測ユニットのマージ候補リストと同じである単一のマージ候補リストを共有する。
以下では、上記のステップと関連した操作が詳述される。
[2.1.1.2 空間的候補導出]
空間マージ候補の導出では、図2に表されている位置にある候補の中から、最大4つのマージ候補が選択される。導出の順序は、A、B、B、A、及びBである。位置Bは、位置A、B、B、AのいずれのPUも(例えば、それが他のスライス又はタイルに属するために)利用可能でないか、あるいは、イントラコーディングされている場合にのみ、考慮される。位置Aでの候補が加えられた後、残りの候補の追加は、同じ動き情報を有する候補がリストから除かれることを確かにする冗長性検査に従い、それにより、コーディング効率は改善される。計算複雑性を低減するために、全ての可能な候補対が、上記の冗長性検査で考慮されるわけではない。代わりに、図3で矢印によりリンクされた対のみが考慮され、候補は、冗長性検査に使用される対応する候補が同じ動き情報を有していない場合にのみ加えられる。重複動き情報の他の発生源は、2N×2Nとは異なったパーティションと関連付けられた「第2PU」である。一例として、図4は、N×2N及び2N×Nの夫々の場合の第2PUを表す。現在のPUがN×2Nとして分割される場合に、位置Aでの候補は、リスト構成のために考慮されない。実際に、これを候補に加えることによって、同じ動き情報を有する2つの予測ユニットが生じる。これは、コーディングユニットにおいてただ1つのPUしか有さないためには冗長である。同様に、位置Bは、現在のPUが2N×Nとして分割される場合に考慮されない。
[2.1.1.3 時間的候補導出]
このステップでは、ただ1つの候補がリストに加えられる。特に、この時間マージ候補の導出では、スケーリングされた動きベクトルは、所与の参照ピクチャリスト内の現在のピクチャとのPOC差が最小であるピクチャに属する同一位置(co-located)PUに基づいて導出される。同一位置PUの導出に使用されるべき参照ピクチャリストは、スライスヘッダで明示的に通知される。時間マージ候補のためのスケーリングされた動きベクトルは、図5の破線によって表されるように取得される。これは、POC距離tb及びtdを用いて同一位置PUの動きベクトルからスケーリングされる。ここで、tbは、現在のピクチャの参照ピクチャと現在のピクチャとの間のPOC距離であると定義され、tdは、同一位置ピクチャの参照ピクチャと同一位置ピクチャとの間のPOC差であると定義される。時間マージ候補の参照ピクチャインデックスは、ゼロに等しくセットされる。スケーリングプロセスの実際の実現は、HEVC規格で記載されている。Bスライスについては、2つの動きベクトル(1つは参照ピクチャリスト0用であり、もう1つは参照ピクチャリスト1用である)が取得され、双予測マージ候補を生成するよう結合される。
参照フレームに属する同一位置PU(Y)では、時間的候補の位置が、図6に表されているように、候補C及びCの間で選択される。位置CにあるPUが利用可能でないか、イントラコーディングされているか、あるいは、現在のCTU行の外にある場合に、位置Cが使用される。そうでない場合には、位置Cが時間マージ候補の導出において使用される。
[2.1.1.4 追加候補の挿入]
空間及び時間マージ候補に加えて、2つの更なるタイプのマージ候補、すなわち、複合双予測マージ候補及びゼロマージ候補が存在する。複合双予測マージ候補は、空間及び時間マージ候補を利用することによって生成される。複合双予測マージ候補は、Bスライスにのみ使用される。複合双予測マージ候補は、最初の候補の第1参照ピクチャリスト動きパラメータを他の第2参照ピクチャリスト動きパラメータと組み合わせることによって生成される。これら2つのタプルが異なった動き仮説(hypotheses)をもたらす場合に、それらは新しい双予測候補を形成することになる。一例として、図7は、mvL0及びrefIdxL0又はmvL1及びrefIdx1を有する原リスト(左側)内の2つの候補が、最終的なリスト(右側)に加えられる複合双予測マージ候補を生成するために使用される場合を表す。これらの追加マージ候補を生成するために考えられる組み合わせに関して多数の規則ある。
ゼロ動き候補は、マージ候補リスト内の残りのエントリを満たして、MaxNumMergeCand容量に達するよう挿入される。これらの候補は、ゼロ空間変位と、ゼロから始まって、新しいゼロ動き候補がリストに加えられるたびに増える参照ピクチャインデックスとを有している。これらの候補によって使用される参照フレームの数は、一方向予測及び双方向予測の夫々について1及び2である。最後に、これらに候補に対しては冗長性検査が実行されない。
[2.1.1.5 並列処理のための動き推定領域]
エンコーディングプロセスを加速させるために、動き推定は並行して実行され得る。これによって、所与の領域内の全ての予測ユニットの動きベクトルは同時に導出される。空間近傍からのマージ候補の導出は、1つの予測ユニットが隣接PUから、その関連する動き推定が完了するまで、動きパラメータを導出することができないということで、並列処理を妨害する可能性がある。コーディング効率と処理レイテンシとの間のトレードオフを緩和するために、HEVCは、「log2_parallel_merge_level_minus2」シンタックス要素を用いてピクチャパラメータセットにおいてサイズが通知される動き推定領域(Motion Estimation Region,MER)を定義している。MERが定義される場合に、同じ領域内にあるマージ候補は、利用不可能とマークされるので、リスト構成において考慮されない。
[2.1.2 AMVP]
AMVPは、動きパラメータの明示的な伝送に使用される隣接PUとの動きベクトルの空間時間相関を利用する。各参照ピクチャリストについて、動きベクトル候補リストは、左及び上にある時間的に隣接したPU位置の利用可能性を最初に確認し、冗長な候補を除いて、候補リストを一定の長さにするようゼロベクトルを加えることによって、構成される。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。同様に、マージインデックスシグナリングにより、最良の動きベクトル候補のインデックスは、トランケーテッド・ユーナリーを用いてエンコーディングされる。この場合にエンコーディングされる最大値は2である(図8を参照)。以下のセクションでは、動きベクトル予測候補の導出プロセスに関する詳細が提供される。
図8は、動きベクトル予測候補の導出プロセスを要約する。
[2.1.2.1 AMVP候補の導出]
動きベクトル予測では、2つのタイプの動きベクトル候補、すなわち、空間動きベクトル候補及び時間動きベクトル候補、が考えられている。空間動きベクトル候補導出については、2つの動きベクトル候補が、図2に表されているように5つの異なった位置にある各PUの動きベクトルに基づいて最終的に導出される。
時間動きベクトル候補導出については、2つの異なった同一位置の位置に基づいて導出される2つの候補から、1つの動きベクトル候補が選択される。空間時間候補の第1リストが生成された後、リスト内の重複した動きベクトル候補が除かれる。潜在的な候補の数が2よりも多い場合には、関連する参照ピクチャリスト内の参照ピクチャインデックスが1よりも大きい動きベクトル候補がリストから除かれる。空間時間動きベクトル候補の数が2よりも少ない場合には、追加のゼロ動きベクトル候補がリストに加えられる。
[2.1.2.2 空間動きベクトル候補]
空間動きベクトル候補の導出では、図2で表される位置(これらの位置は、動きマージのそれらと同じである)にあるPUから導出される5つの潜在的な候補から、最大2つの候補が考えられる。現在のPUの左側の導出順序は、A、A及びスケーリングされたA、スケーリングされたAと定義される。現在のPUの上側の導出順序は、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBと定義される。夫々の側について、従って、動きベクトル候補として使用され得る4つの場合が存在し、2つの場合は、空間スケーリングを使用することを必要とされず、他の2つの場合には、空間スケーリングが使用される。4つの異なる場合は、次のように簡単に述べられる。
・空間スケーリングなし
-(1)同じ参照ピクチャリスト、かつ同じ参照ピクチャインデックス(同じPOC)
-(2)異なる参照ピクチャリスト、しかし同じ参照ピクチャ(同じPOC)
・空間スケーリング
-(3)同じ参照ピクチャリスト、しかし異なる参照ピクチャ(異なるPOC)
-(4)異なる参照ピクチャリスト、かつ異なる参照ピクチャ(異なるPOC)
空間スケーリングなしの場合が最初に確認され、その後に空間スケーリングが続く。空間スケーリングは、参照ピクチャリストにかかわらず隣接PUの参照ピクチャと現在のPUのそれとの間でPOCが異なる場合に考えられる。左の候補の全てのPUが利用不可能であるか、又はイントラコーディングされている場合に、上の動きベクトルのスケーリングが、左及び上のMV候補の並列導出を助けるよう可能にされる。そうでない場合には、空間スケーリングは、上の動きベクトルに対して可能にされない。
空間スケーリングプロセスでは、隣接PUの動きベクトルは、図9に表されているように、時間スケーリングの場合と同じようにしてスケーリングされる。主な違いは、現在のPUの参照ピクチャリスト及びインデックスが入力として与えられる点であり、実際のスケーリングプロセスは時間スケーリングのそれと同じである。
[2.1.2.3 時間動きベクトル候補]
参照ピクチャインデックス導出は別として、時間マージ候補の導出のための全てのプロセスは、空間動きベクトル候補の導出(図6を参照)の場合と同じである。参照ピクチャインデックスはデコーダへ通知される。
[2.2 JEMにおける新しいインター予測方法]
[2.2.1 サブCUベースの動きベクトル予測]
QTBTによるJEMでは、各CUは、予測方向ごとに多くてもひと組の動きパラメータを有することができる。2つのサブCUレベル動きベクトル予測方法が、大きいCUをサブCUに分割し、大きいCUの全てのサブCUについて動き情報を導出することによって、エンコーダにおいて考えられている。代替時間動きベクトル予測(Alternative Temporal Motion Vector Prediction,ATMVP)方法は、各CUが、同一位置の参照ピクチャにある現在のCUよりも小さい複数のブロックから複数の組の動き情報をフェッチすることを可能にする。空間時間動きベクトル予測(Spatial-Temporal Motion Vector Prediction,STMVP)方法では、サブCUの動きベクトルは、時間動きベクトル予測子及び空間隣接動きベクトルを使用することによって再帰的に導出される。
サブCU動き予測のためのより正確な運動場を保つために、参照フレームのための動き圧縮は現在使用不可能である。
[2.2.1.1 代替時間動きベクトル予測]
代替時間動きベクトル予測(ATMVP)方法では、動きベクトルの時間動きベクトル予測(Temporal Motion Vector Prediction,TMVP)は、現在のCUよりも小さいブロックから複数の組の動き情報(動きベクトル及び参照インデックスを含む)をフェッチすることによって、変更される。図10に示されるように、サブCUは、正方N×Nブロックである(Nはデフォルトで4にセットされる)。
ATMVPは、2つのステップでCU内のサブCUの動きベクトルを予測する。最初のステップは、いわゆる時間ベクトルにより参照ピクチャ内の対応するブロックを識別することである。参照ピクチャは、モーションソースピクチャ(motion source picture)と呼ばれる。第2のステップは、図10に示されるように、現在のCUをサブCUに分け、各サブCUに対応するブロックから各サブCUの動きベクトル及び参照インデックスを取得することである。
最初のステップで、参照ピクチャ及び対応するブロックは、現在のCUの空間隣接ブロックの動き情報によって決定される。隣接ブロックの反復的な走査プロセスを回避するために、現在のCUのマージ候補リスト内の最初のマージ候補が使用される。最初の利用可能な動きベクトル及びその関連する参照インデックスが、時間ベクトルと、モーションソースピクチャへのインデックスとであるようセットされる。このようにして、ATMVPでは、対応するブロックは、TMVPと比較して、より正確に識別され得る。ここで、対応するブロック(時々、同一位置ブロックと呼ばれる)は、現在のCUに対して右下又は中心位置に常にある。
第2のステップで、サブCUの対応するブロックは、モーションソースピクチャの時間ベクトルによって、現在のCUの座標にその時間ベクトルを加えることによって識別される。各サブCUについて、その対応するブロック(中心サンプルをカバーする最小モーショングリッド)の動き情報が、当該サブCUの動き情報を導出するために使用される。対応するN×Nブロックの動き情報が識別された後、それは、HEVCのTMVPと同じように、現在のサブCUの動きベクトル及び参照インデックスに変換される。このとき、動きスケーリング及び他のプロシージャが適用される。例えば、デコーダは、低遅延条件(すなわち、現在のピクチャの全ての参照ピクチャのPOCが現在のピクチャのPOCよりも小さい)が満足されるかどうかを確認し、場合により、各サブCUについて動きベクトルMVy(Xは0又は1に等しく、Yは1-Xに等しい)を予測するために動きベクトルMVx(参照ピクチャリストXに対応する動きベクトル)を使用する。
[2.2.1.2 空間時間動きベクトル予測]
この方法では、サブCUの動きベクトルは、ラスタ走査順序に従って、再帰的に導出される。図11は、この概念を表す。4つの4×4サブCU A、B、C及びDを含む8×8CUを考えるとする。現在のフレーム内の隣接する4×4ブロックは、a、b、c及びdと表記される。
サブCU Aの動き導出は、その2つの空間近傍を識別することによって開始する。第1近傍は、サブCU Aの上にあるN×Nブロック(ブロックc)である。このブロックcが利用不可能であるか、又はイントラコーディングされている場合に、サブCU Aの上にある他のN×Nブロックが確認される(ブロックcから始まって、左から右へ)。第2近傍は、サブCU Aの左にあるブロック(ブロックb)である。ブロックbが利用不可能であるか、又はイントラコーディングされている場合に、サブCU Aの左にある他のブロックが確認される(ブロックbから始まって、上から下へ)。各リストについて隣接ブロックから取得された動き情報は、所与のリストについての第1参照フレームにスケーリングされる。次に、サブブロックAの時間動きベクトル予測子(TMVP)が、HEVCで定められているTMVP導出の同じプロシージャに従うことによって、導出される。位置Dでの同一位置ブロックの動き情報は、それに応じてフェッチされスケーリングされる。最後に、動き情報を取り出しスケーリングした後、全ての利用可能な動きベクトル(最大3つ)は、参照リストごとに別々に平均化される。平均化された動きベクトルは、現在のサブCUの動きベクトルとして割り当てられる。
図11は、4つのサブブロック(A~D)を有する1つのCU及びその隣接ブロック(a~d)の例を示す。
[2.2.1.3 サブCU動き予測モードシグナリング]
サブCUモードは、追加のマージ候補として使用可能であり、モードを通知するために追加のシンタックス要素は必要とされない。2つの追加マージ候補が、ATMVPモード及びSTMVPモードを表すために各CUのマージ候補に加えられる。ATMVP及びSTMVPが使用可能であることをシーケンスパラメータセットが示す場合には、最大7つのマージ候補が使用される。追加マージ候補のエンコーディングロジックは、HMにおけるマージ候補の場合と同じである。これは、P又はBスライス内の各CUについて、2つ以上のRDチェックが2つの追加マージ候補のために必要とされることを意味する。
JEMでは、マージインデックスの全ビンが、CABACによってコンテキストコーディングされる。一方、HEVCでは、最初のビンのみがコンテキストコーディングされ、残りのビンは、コンテキストバイパスコーディングされる。
[2.2.2 適応動きベクトル差解像度]
HEVCでは、動きベクトル差(Motion Vector Difference(s),MVD)(PUの動きベクトルと予測された動きベクトルの間の差)が、スライスヘッダにおいて、user_integer_mv_flagが0に等しい場合に、4分の1ルーマサンプルの単位で通知される。JEMでは、局所適応動きベクトル解像度(Locally Adaptive Motion Vector Resolution,LAMVR)が導入される。JEMでは、MVDは、4分の1ルーマサンプル、整数ルーマサンプル又は4ルーマサンプルの単位でコーディングされ得る。MVD解像度は、コーディングユニット(CU)レベルで制御され、MVD解像度フラグは、少なくとも1つの非ゼロMVD成分を有している各CUについて条件付きで通知される。
少なくとも1つの非ゼロMVD成分を有しているCUについては、第1フラグが、4分の1ルーマサンプルMV精度がそのCUで使用されるかどうかを示すために通知される。4分の1ルーマサンプルMV精度が使用されないことを第1フラグ(1に等しい)が示す場合に、他のフラグが、整数ルーマサンプルMV精度又は4ルーマサンプルMV精度が使用されるかどうかを示すために通知される。
CUの第1MVD解像度フラグがゼロであるか、あるいは、CUについてコーディングされていない(CU内の全てのMVDがゼロであることを意味する)場合に、4分の1ルーマサンプルMV解像度がそのCUに対して使用される。CUが整数ルーマサンプルMV精度又は4ルーマサンプルMV精度を使用する場合に、CUのAMVP候補内のMVPは、対応する精度に丸められる。
エンコーダでは、どのMVD解像度がCUのために使用されるべきかを決定するために、CUレベルのRDチェックが使用される。すなわち、CUレベルのRDチェックは、各MVD解像度について3回実行される。エンコーダの速度を加速させるために、以下のエンコーディングスキームがJEMでは適用される。
・通常の4分の1ルーマサンプルMV解像度によるCUのRDチェック中に、現在のCUの動き情報(整数ルーマサンプル精度)が格納される。格納された動き情報(丸め後)、整数ルーマサンプル及び4ルーマサンプルMVD解像度による同じCUについてのRDチェック中に更なる小範囲動きベクトル精緻化のための開始点として使用され、それにより、時間がかかる動き推定プロセスは3回繰り返されない。
・4ルーマサンプルMVD解像度によるCUのRDチェックは、条件付きで呼び出される。あるCUについて、整数ルーマサンプルMVD解像度のRDコストが4分の1ルーマサンプルMVD解像度のそれよりもずっと大きい場合に、そのCUについての4ルーマサンプルMVD解像度のRDチェックはスキップされる。
[2.2.3 より高い動きベクトル格納精度]
HEVCでは、動きベクトル精度は、4分の1ペル(4:2:0ビデオの場合に、4分の1ルーマサンプル及び8分の1クロマサンプル)である。JEMでは、内部動きベクトル格納及びマージ候補の精度は、1/16ペルまで高まる。より高い動きベクトル精度(1/16ペル)は、スキップ/マージモードによりコーディングされたCUの動き補償インター予測で使用される。通常のAMVPモードによりコーディングされたCUについては、整数ペル又は4分の1ペルのどちらかの動きが使用される。
HEVC動き補償補間フィルタと同じフィルタ長さ及び正規化係数を有するSHVCアップサンプリング補間フィルタは、更なる分数ペル位置のための動き補償補間フィルタとして使用される。クロマ成分動きベクトル精度は、JEMでは1/32サンプルであり、1/32ペル分数位置の更なる補間フィルタは、2つの隣接する1/16ペル分数位置のフィルタの平均を使用することによって導出される。
[2.2.4 オーバーラップブロック動き補償]
オーバーラップブロック動き補償(Overlapped Block Motion Compensation,OBMC)は、従前、H.263で使用されてきた。JEMでは、H.263とは異なって、OBMCは、CUレベルでのシンタックスを用いてオン及びオフを切り替えられ得る。OBMCがJEMで使用される場合に、OBMCは、CUの右及び下境界を除く全ての動き補償(Motion Compensation,MC)ブロック境界に対して実行される。更に、それは、ルーマ及びクロマの両成分に対して適用される。JEMでは、MCブロックはコーディングブロックに対応する。CUがサブCUモード(サブCUマージ、アフィン及びFRUCモードを含む)によりコーディングされる場合に、CUの各サブブロックはMCブロックである。一様にCU境界を処理するために、OBMCは、全てのMCブロック境界についてサブブロックレベルで実行される。このとき、サブブロックサイズは、図12に表されるように、4×4に等しくセットされる。
OBMCが現在のサブブロックに適用される場合に、現在の動きベクトルに加えて、4つの接続されている隣接サブブロックの動きベクトルも、利用可能であって現在の動きベクトルと同じでない場合に、現在のサブブロックの予測ブロックを導出するために使用される。複数の動きベクトルに基づくこれらの複数の予測ブロックは、現在のサブブロックの最終的な予測信号を生成するよう組み合わされる。
隣接サブブロックの動きベクトルに基づく予測ブロックは、Pと表される。ここで、Nは、隣接する上、下、左及び右サブブロックのためのインデックスを示す。現在のサブブロックの動きベクトルに基づく予測ブロックは、Pと表される。Pが、現在のサブブロックに対して同じ動き情報を含む隣接サブブロックの動き情報に基づく場合に、OBMCはPから実行されない。そうでない場合には、PのあらゆるサンプルがPの同じサンプルに加えられる。すなわち、Pの4つの行/列がPに加えられる。重み係数{1/4,1/8,1/16,1/32}がPに使用され、重み係数{3/4,7/8,15/16,31/32}がPに使用される。例外は、Pの2つの行/列しかPに加えられない小さいMCブロック境界ブロック(すなわち、コーディングブロックの高さ又は幅が4に等しいか、あるいは、CUがサブCUモードによりコーディングされている場合)である。この場合に、重み係数{1/4,1/8}がPに使用され、重み係数{3/4,7/8}がPに使用される。垂直方向で(水平方向で)隣接するサブブロックの動きベクトルに基づいて生成されたPについては、Pのサンプル行(列)内のサンプルが、同じ重み係数でPに加えられる。
JEMでは、256個のルーマサンプル以下のサイズを有するCUについては、OBMCが現在のCUに適用されるかどうかを示すために、CUレベルフラグが通知される。256個のルーマサンプルよりも大きいサイズを有するか、又はAMVPモードによりコーディングされていないCUについては、OBMCがデフォルトで適用される。エンコーダで、OBMCがCUに適用される場合に、その影響は動き推定段階中に考慮される。上隣接ブロック及び左隣接ブロックの動き情報を用いてOBMCによって形成された予測信号は、現在のCUの原信号の上及び左境界を補償するために使用され、それから、通常の動き推定プロセスが適用される。
[2.2.5 局所照射補償]
局所照射補償(Local Illumination Compensation,LIC)は、スケーリング係数a及びオフセットbを用いて、照射変化のための線形モデルに基づく。そして、それは、各インターモードコーディングされたコーディングユニット(CU)について適応的に有効又は無効にされる。
LICがCUに適用される場合に、最小二乗誤差法が、現在のCUの隣接サンプル及びそれらの対応する参照サンプルを使用することによってパラメータa及びbを導出するために用いられる。より具体的には、図13に表されるように、CUのサブサンプリング(2:1サブサンプリング)された隣接サンプル及び参照ピクチャ内の対応するサンプル(現在のCU又はサブCUの動き情報によって識別される)が使用される。ICパラメータは、各予測方向について別々に導出され適用される。
CUがマージモードによりコーディングされる場合に、LICフラグは、マージモードでの動き情報コピーと同じようにして、隣接ブロックからコピーされる。そうでない場合には、LICフラグは、LICが適用されるか否かを示すよう当該CUについて通知される。
LICがピクチャに使用可能である場合に、追加のCUレベルRDチェックが、LICがCUに適用されるか否かを決定するために必要である。LICがCUに使用可能である場合に、平均除去絶対差分和(Mean-Removed Sum of Absolute Difference,MRSAD)及び平均除去絶対アダマール変換差分和(Mean-Removed Sum of Absolute Hadamard-Transformed Difference,MR-SATD)が、SAD及びSATDの代わりに、整数ペル動き探索及び分数ペル動き探索のために夫々使用される。
エンコーディング複雑性を低減するために、以下のエンコーディングスキームがJEMでは適用される。
・現在のピクチャとその参照ピクチャとの間に明らかな照射変化がない場合には、ピクチャ全体に対してLICは無効にされる。この状況を識別するために、現在のピクチャ及び現在のピクチャのあらゆる参照ピクチャのヒストグラムがエンコーダで計算される。現在のピクチャと現在のピクチャのあらゆる参照ピクチャとの間のヒストグラム差が所与の閾値よりも小さい場合に、LICは現在のピクチャに対して無効にされ、そうでない場合には、LICは現在のピクチャに対して有効にされる。
[2.2.6 アフィン動き補償予測]
HEVCでは、並進運動モデル(translation motion model)しか動き補償予測(Motion Compensation Prediction,MCP)のために適用されない。一方、現実世界では、多くの種類の動き、例えば、ズームイン/アウト、回転、射影運動、及び他の不規則な動きがある。JEMでは、簡単化されたアフィン変換動き補償予測が適用される。図14に示されるように、ブロックのアフィン運動場は、2つの制御点動きベクトルによって記述される。
ブロックの動きベクトル場(Motion Vector Field,MVF)は、次の式によって記述される:
Figure 2022507281000002
ここで、(v0x,v0y)は、左上角の制御点の動きベクトルであり、(v1x,v1y)は、右上角の制御点の動きベクトルである。
動き補償予測を更に簡単にするために、サブブロックベースのアフィン変換予測が適用される。サブブロックサイズM×Nは、式2で見られるように導出され、このとき、MvPreは、動きベクトル分数精度(JEMでは1/16)であり、(v2x,v2y)は、式1に従って計算された左下制御点の動きベクトルである。
Figure 2022507281000003
式2によって導出された後、M及びNは、夫々、w及びhの約数となるよう、必要に応じて下方調整されるべきである。
各M×Nサブブロックの動きベクトルを導出するために、図15に示されるような各サブブロックの中心サンプルの動きベクトルが式1に従って計算され、1/16分数精度に丸められる。次いで、前のセクション2.2.3で説明された動き補償補間フィルタが、導出された動きベクトルにより各サブブロックの予測を生成するために適用される。
MCPの後、各サブブロックの高精度動きベクトルは丸められ、通常の動きベクトルと同じ精度としてセーブされる。
JEMでは、2つのアフィン動きモード、すなわち、AF_INTERモード及びAF_MERGEモードが存在する。幅及び高さの両方が8よりも大きいCUについては、AF_INTERモードが適用され得る。CUレベルでのアフィンフラグは、AF_INTERモードが使用されるかどうかを示すためにビットストリームで通知される。このモードで、動きベクトル対{(v,v)|v={v,v,v},v={v,v}}を有する候補リストは、隣接ブロックを用いて構成される。図16に示されるように、vは、ブロックA、B又はCの動きベクトルから選択される。隣接ブロックからの動きベクトルは、参照リストと、隣接ブロックの参照ブロックのPOC、現在のCUの参照ブロックのPOC、及び現在のCUのPOCの間の関係とに従って、スケーリングされる。そして、隣接ブロックD及びEからvを選択するためのアプローチは同様である。候補リストの数が2よりも小さい場合に、リストは、AMVP候補の夫々を複製することによって構成された動きベクトル対によってパディングされる。候補リストが2よりも大きい場合に、候補は最初に、隣接動きベクトルの一貫性(対候補の2つの動きベクトルの類似性)に従ってソートされ、最初の2つの候補のみが保持される。RDコストチェックは、どの動きベクトル対候補が現在のCUの制御点動きベクトル予測(Control Point Motion Vector Prediction,CPMVP)として選択されるかを決定するために使用される。そして、候補リスト内のCPMVPの位置を示すインデックスがビットストリームで通知される。現在のアフィンCUのCPMVPが決定された後、アフィン動き推定が適用され、制御点動きベクトル予測(CPMV)は求められる。次いで、CPMVとCPMVPとの差はビットストリームで通知される。
CUがAF_MERGEモードで適用される場合に、それは、有効な隣接する再構成されたブロックからアフィンモードによりコーディングされた最初のブロックを得る。そして、候補ブロックの選択順序は、図17Aに示されるように、左から、上、右上、左下、左上へである。隣接する左下ブロックAが図17Bに示されるようにアフィンモードでコーディングされる場合に、ブロックAを含むCUの左上角、右上角、及び左下角の動きベクトルv、v及びvが導出される。そして、現在のCUの左上角の動きベクトルvは、v、v及びvに従って計算される。第2に、現在のCUの右上の動きベクトルvが計算される。
現在のCUのCPMVv及びvが導出された後、簡単化されたアフィン運動モデル式1に従って、現在のCUのMVFが生成される。現在のCUがAF_MERGEモードによりコーディングされているかどうかを識別するために、アフィンモードでコーディングされている少なくとも1つの隣接ブロックがある場合に、アフィンフラグがビットストリームで通知される。
[2.2.7 パターンマッチングされた動きベクトル導出]
パターンマッチングされた動きベクトル導出(Pattern Matched Motion Vector Derivation,PMMVD)モードは、フレームレートアップコンバージョン(Frame-Rate Up Conversion,FRUC)技術に基づく特別なマージモードである。このモードによれば、ブロックの動き情報は通知されず、デコーダ側で導出される。
FRUCフラグは、CUについて、そのマージフラグが真である場合に、通知される。FRUCフラグが偽である場合に、マージインデックスが通知され、レギュラーマージモードが使用される。FRUCフラグが真である場合に、追加のFRUCモードフラグが、どの方法(バイラテラルマッチング又はテンプレートマッチング)が、ブロックの動き情報を導出するために使用されるべきかを示すために、通知される。
エンコーダ側で、CUにFRUCマージモードを使用すべきかどうかの決定は、通常のマージ候補について行われるように、RDコスト選択に基づく。すなわち、2つのマッチングモード(バイラテラルマッチング及びテンプレートマッチング)は両方とも、RDコスト選択を使用することによってCUに対して確認される。最小コストもたらす一方が、他のCUモードと更に比較される。FRUCマッチングモードが最も効率的なものである場合に、FRUCフラグは、そのCUに対して真にセットされ、関連するマッチングモードが使用される。
FRUCマージモードでの動き導出プロセスは2つのステップを有する。CUレベルの動き探索が最初に実行され、次いで、サブCUレベルの動き精緻化が続く。CUレベルで、バイラテラルマッチング又はテンプレートマッチングに基づいて、CU全体において初期動きベクトルが導出される。最初に、MC候補のリストが生成され、最小マッチングコストをもたらす候補が、更なるCUレベル精緻化のための開始点として選択される。次いで、開始点の周りのバイラテラルマッチング又はテンプレートマッチングに基づいて局所探索が実行され、最小マッチングコストをもたらすMVが、CU全体のMVとされる。その後に、動き情報は、導出されたCU動きベクトルを開始点として用いてサブCUレベルで更に精緻化される。
例えば、次の導出プロセスが、W×HのCUの動き情報導出のために実行される。最初の段階で、W×HのCU全体のMVが導出される。第2の段階で、CUはM×M個のサブブロックに更に分割される。Mの値は式(3)のように計算され、Dは、JEMではデフォルトで3にセットされる予め定義された分割デプスである。次いで、各サブCUのMVが導出される。
Figure 2022507281000004
図18に示されるように、バイラテラルマッチングは、2つの異なる参照ピクチャにおいて現在のCUの運動軌跡に沿って2つのブロック間の最も近い一致を見つけることによって、現在のCUの動き情報を導出するために使用される。連続した運動軌跡という前提の下で、2つの参照ブロックを指し示す動きベクトルMV0及びMV1は、現在のピクチャと2つの参照ピクチャとの間の時間距離、すなわち、TD0及びTD1に比例すべきである。特別な場合として、現在のピクチャが時間的に2つの参照ピクチャとの間にあり、現在のピクチャから2つの参照ピクチャまでの時間距離が同じである場合に、バイラテラルマッチングは、ミラーベースの双方向MVになる。
図19に示されるように、テンプレートマッチングは、現在のピクチャ内のテンプレート(現在のCUの上及び/又は左隣接ブロック)と参照ピクチャ内のブロック(テンプレートと同じサイズ)との間の最も近い一致を見つけることによって、現在のCUの動き情報を導出するために使用される。上記のFRUCマージモードを除いて、テンプレートマッチングはAMVPモードにも適用される。JEMでは、HEVCで行われるように、AMVPは2つの候補を有している。テンプレートマッチング法によれば、新しい候補が導出される。テンプレートマッチングによって新たに導出された候補が、最初に存在しているAMVP候補と異なる場合に、それは、AMVP候補リストの一番最初に挿入され、次いで、リストサイズは2にセットされる(2番目に存在するAMVP候補を除くことを意味する)。AMVPモードに適用される場合に、CUレベル探索のみが適用される。
[2.2.7.1 CUレベルのMV候補セット]
CUレベルでのMV候補セットは:
(i)現在のCUがAMVPモードにある場合の元のAMVP候補、
(ii)全てのマージ候補、
(iii)セクション2.2.7.3で導入される補間されたMV場におけるいくつかのMV、
(iv)上及び左隣の動きベクトル
から成る。
バイラテラルマッチングを使用する場合に、マージ候補の夫々の有効なMVが、バイラテラルマッチングの前提によりMV対を生成するための入力として使用される。例えば、マージ候補の1つの有効なMVは、参照リストAでの(MVa,refa)である。次いで、その対となるバイラテラルMVの参照ピクチャrefbは、refa及びrefbが時間的に現在のピクチャの異なる側にあるように、他の参照リストBで見つけられる。そのようなrefbが参照リストBで利用可能でない場合に、refbは、refaとは異なる参照として決定され、現在のピクチャまでのその時間距離は、リストB内で最小のものである。refbが決定された後、MVbは、現在のピクチャとrefa、refbとの間の時間距離に基づいてMVaをスケーリングすることによって、導出される。
補間されたMV場からの4つのMVも、CUレベル候補リストに加えられる。より具体的には、現在のCUの位置(0,0)、(W/2,0)、(0,H/2)及び(W/2,H/2)での補間されたMVが加えられる。
FRUCがAMVPモードで適用される場合に、元のAMVP候補も、CUレベルのMV候補セットに加えられる。
CUレベルで、AMVP CUについては最大15個のMVが、及びマージCUについては最大13個のMVが、候補リストに加えられる。
[2.2.7.2 サブCUレベルのMV候補セット]
サブCUレベルでのMV候補セットは:
(i)CUレベル探索から決定されたMV、
(ii)上、左、左上及び右上の隣接MV、
(iii)参照ピクチャからの同一位置MVのスケーリングされたバージョン、
(iv)最大4つのATMVP候補
(v)最大4つのSTMVP候補
から成る。
参照ピクチャからのスケーリングされたMVは、次のように導出される。両方のリスト内の全ての参照ピクチャがトラバースされる。参照ピクチャ内のサブCUの同一位置の位置にあるMVは、開始CUレベルMVの参照にスケーリングされる。
ATMVP及びSTMVP候補は、最初の4つに制限される。
サブCUレベルで、最大17個のMVが候補リストに加えられる。
[2.2.7.3 補間されたMV場の生成]
フレームをコーディングする前に、補間された運動場が、ユニラテラルMEに基づいてピクチャ全体について生成される。次いで、運動場は、後に、CUレベル又はサブCUレベルのMV候補として使用されてよい。
最初に、両方の参照リスト内の各参照ピクチャの運動場が、4×4ブロックレベルでトラバースされる。各4×4ブロックについて、ブロックに関連した動きが現在のピクチャ内の4×4ブロックを通り(図20に図示)、ブロックが如何なる補間された動きも割り当てられていない場合に、参照ブロックの動きは、時間距離TD0及びTD1に従って現在のピクチャにスケーリングされ(HEVCにおけるTMVPのMVスケーリングのそれと同様)、スケーリングされた動きは、現在のフレーム内のブロックに割り当られる。スケーリングされたMVが4×4ブロックに割り当てられない場合に、ブロックの動きは、補間された運動場で利用不可としてマークされる。
[2.2.7.4 補間及びマッチングコスト]
動きベクトルが分数サンプル位置を指し示す場合に、動き補償された補間が必要とされる。複雑性を低減するために、双線形補間が、通常の8タップHEVC補間の代わりに、バイラテラルマッチング及びテンプレートマッチングの両方のために使用される。
マッチングコストの計算は、異なるステップで少し異なっている。CUレベルで候補セットから候補を選択する場合に、マッチングコストは、バイラテラルマッチング又はテンプレートマッチングの絶対差分和(SAD)である。開始MVが決定された後、サブCUレベル探索でのバイラテラルマッチングのマッチングコストCは、次のように計算される:

C=SAD+w・(|MV-MV |+|MV-MVyS|)
ここで、wは、経験的に4にセットされる重み係数であり、MV及びMVは、夫々、現在のMV及び開始MVを示す。SADは、サブCUレベル探索でのテンプレートマッチングのマッチングコストとして依然として使用される。
FRUCモードでは、MVは、ルーマサンプルのみを使用することによって導出される。導出された動きは、MCインター予測のためにルーマ及びクロマの両方に使用されることになる。MVが決定された後、最終的なMCが、ルーマのための8タップ補間フィルタ及びクロマのための4タップ補間フィルタを用いて実行される。
[2.2.7.5 MV精緻化]
MV精緻化は、バイラテラルマッチングコスト又はテンプレートマッチングコストの基準によるパターンベースのMV探索である。JEMでは、2つの探索パターン、すなわち、夫々CUレベル及びサブCUレベルでのMV精緻化のためのUnrestricted Center-Biased Diamond Search(UCBDS)及び適応交差探索(adaptive cross search)、がサポートされる。CU及びサブCU両方のレベルのMV精緻化のために、MVは、4分の1ルーマサンプルMV精度で直接探索され、この後に、8分の1ルーマサンプルMV精緻化が続く。CU及びサブCUステップのためのMV精緻化の探索範囲は、8ルーマサンプルに等しくセットされる。
[2.2.7.6 テンプレートマッチングFRUCマージモードでの予測方向の選択]
バイラテラルマッチングマージモードでは、CUの動き情報が、2つの異なった参照ピクチャにおける現在のCUの運動軌跡に沿った2つのブロックの間の最も近い一致に基づいて導出されるので、双予測が常に適用される。テンプレートマッチングマージモードにはそのような制限はない。テンプレートマッチングマージモードでは、エンコーダは、CUのためにリスト0からの片予測、リスト1からの片予測、又は双予測から選択することができる。選択は、次のようにテンプレートマッチングコストに基づく:

costBi<=factor×min(cost0,cost1)の場合に、
双予測が使用される;

そうではなく、cost0<=bost1の場合に、
リスト0からの片予測が使用される;

上記以外の場合に、
リスト1からの片予測が使用される。
cost0は、リスト0テンプレートマッチングのSADであり、cost1は、リスト1テンプレートマッチングのSADであり、costBiは、双予測テンプレートマッチングのSADである。factorの値は1.25に等しく、これは、選択プロセスが双予測の方にバイアスされることを意味する。
インター予測方向選択は、CUレベルのテンプレートマッチンプロセスにのみ適用される。
[2.2.8 一般化された双予測]
従来の双予測では、L0及びL1からの予測子は、等しい重み0.5を用いて最終的な予測子を生成するよう平均化される。予測子生成式は、式(4)で示される:
Figure 2022507281000005
式(4)中、PtraditionalBiPredは、従来の双予測のための最終的な予測子であり、PL0及びPL1は、夫々、L0及びL1からの予測子であり、RoundingOffset及びshiftNumは、最終的な予測子を正規化するために使用される。
一般化された双予測(Generalized Bi-prediction,GBi)は、L0及びL1からの予測子に異なる重みを適用することを可能にするよう提案されている。予測子生成は、式(5)で示される:
Figure 2022507281000006
式(5)中、PGBiは、GBiの最終的な予測子である。(1-w)及びwは、夫々、L0及びL1の予測子に適用される選択されたGBi重みである。RoundingOffsetGBi及びshiftNumGBiは、GBiにおいて最終的な予測子を正規化するために使用される。
のサポートされている重みは{-1/4,3/8,1/2,5/8,5/4}である。1つの等しい重みのセットと、4つの等しくない重みのセットとがサポートされる。等しい重みの場合に、最終的な予測子を生成するプロセスは、従来の双予測モードの場合と全く同じである。ランダムアクセス(Random Access,RA)条件での真の双予測の場合に、候補重みセットの数は3つに減る。
Advanced Motion Vector Prediction(AMVP)モードについては、GBiでの重み選択は、CUレベルで、このCUが双予測によってコーディングされている場合に、明示的に通知される。マージモードについては、重み選択はマージ候補から引き継がれる。この提案では、GBiは、BMS-1.0のための最終的な予測子に加えてテンプレートの加重平均を生成するようDMVRをサポートする。
[2.2.9 多重仮説インター予測]
多重仮説(multi-hypothesis)インター予測モードでは、従来の片/双予測信号に加えて、1つ以上の追加の予測信号が通知される。結果として得られる全体の予測信号は、サンプルごとの重み付けされた重ね合わせによって取得される。片/双予測信号puni/bi及び最初の追加のインター予測信号/仮説hによれば、結果として得られる予測信号pは、次のように取得される:
=(1-α)puni/bi+αh
予測ユニットシンタックス構造への変更を以下に示す:
Figure 2022507281000007
重み係数αは、次のマッピングに従って、シンタックス要素add_hyp_weight_idxによって指定される:
Figure 2022507281000008
追加の予測信号については、予測リスト0/リスト1の概念は廃止され、代わりに1つの複合リストが使用される点に留意されたい。この複合リストは、リスト0及びリスト1からの参照フレームと、参照インデックスを増やしながら交互に挿入し、二重エントリが回避されるように、既に挿入されている参照フレームを削除することによって、生成される。
上記と同じように、1よりも多い追加の予測信号が使用可能である。結果として得られる全体の予測信号は、夫々の追加の予測信号により繰り返し積み重ねられる:
n+1=(1-αn+1)p+αn+1n+1
結果として得られる全体の予測信号は、最後のp(すなわち、最大インデックスnを有するp)として取得される。
マージモード(しかし、スキップモードではない)を用いるインター予測ブロックについても、追加のインター予測信号が指定され得る点に留意されたい。更には、マージの場合には、片/双予測パラメータだけでなく、選択されたマージ候補の追加の予測パラメータも現在のブロックに使用され得る点に留意されたい。
多重仮説イントラ及びインター予測モードも、インター及びイントラ複合予測(Combined Inter and Intra Prediction,CIIP)プロセスとして知られている。
[2.2.10 AMVPモードの片予測のための多重仮説予測]
いくつかの例で、AMVPモードの片予測を改善するために多重仮説予測が適用される場合に、1つのフラグが、1又は2に等しいinter_dirについて多重仮説予測を有効又は無効にするよう通知される。このとき、1、2及び3は、夫々、リスト0,リスト1、及び双予測を表す。更に、フラグが真である場合に、もう1つのマージインデックスが通知される。このようにして、多重仮説予測は片予測を双予測に変える。このとき、1つの動きは、AMVPモードにおける元のシンタックス要素を用いて取得され、一方、他は、マージスキームを用いて取得される。最終的な予測は、双予測で見られるようにこれらの2つの予測を結合するよう1:1重みを使用する。マージ候補リストは、最初に、サブCU候補(例えば、アフィン、代替時間動きベクトル予測(ATMVP))が除外されたマージモードから導出される。次に、それは、2つの個別のリスト(1つは、候補からの全てのL0動きを含むリスト0(L0)用であり、もう1つは、全てのL0動きを含むリスト1(L1)用である)に分けられる。冗長性を排除し、空席を埋めた後、2つのマージリストが夫々L0及びL1のために生成される。AMVPモードを改善するために多重仮説予測を適用する場合に、2つの制約がある。第1に、それは、ルーマコーディングブロック(CB)が64以上であるCUについて有効にされる。第2に、それは、低遅延Bピクチャにある場合にL1にのみ適用される。
[2.2.11 スキップ/マージモードのための多重仮説予測]
例において、多重仮説予測がスキップ又はマージモードに適用される場合に、多重仮説予測を有効にすべきかどうかは明示的に通知される。余分のマージインデキシング予測が、
元の1つに加えて選択される。従って、多重仮説予測の各候補は、1番目のマージインデキシング予測のための1つと、2番目のマージインデキシング予測のためのもう1つとを含むマージ候補の対を暗示する。しかし、各対において、2番目のマージインデキシング予測のためのマージ候補は、如何なる追加のマージインデックスも通知せずに、続いて起こるマージ候補(すなわち、既に通知されたマージインデックスに1プラスしたもの)として暗黙的に導出される。類似したマージ候補を含む対を除くことによって冗長性を排除し、空席を満たした後、多重仮説予測のための候補リストは形成される。次いで、2つのマージ候補の対からの動きが、最終的な予測を生成するために取得される。このとき、5:3の重みが、1番目及び2番目のマージインデキシング予測に夫々適用される。更に、多重仮説予測を有効にされたマージ又はスキップCUは、既存の仮説の動き情報に加えて、続く隣接CUの参照のために追加の仮説の動き情報をセーブすることができる。サブCU候補(例えば、アフィン、ATMVP)は候補リストから除かれ、低遅延Bピクチャについては、多重仮説はスキップモードに適用されない点に留意されたい。更に、多重仮説予測がマージ又はスキップモードに適用される場合に、CU幅又はCU高さが16に満たないCU、あるいは、CU幅及びCU高さの両方が16に等しいCUについては、双線形補間フィルタが多重仮説のための動き補償で使用される。従って、多重仮説予測を有効にされた各マージ又はスキップCUの最悪のバンド幅(サンプルごとに必要なアクセスサンプル)は、表1で計算され、各数値は、多重仮説予測を無効にされた各4×4CUについての最悪のバンド幅の半分未満である。
[2.2.12 究極の動きベクトル表現]
例において、究極の動きベクトル表現(Ultimate Motion Vector Expression,UMVE)が与えられる。UMVEは、提案されている動きベクトル表現法によりスキップ又はマージどちらかの方法に使用される。MMVD(Merge mode with Motion Vector Difference,MMVD)モードも、究極の動きベクトル表現(UMVE)モードとして知られている。
UMVEは、VVCで使用するのと同じようにマージ候補を再利用する。マージ候補の中から候補は選択可能であり、提案されている動きベクトル表現法によって更に拡張される。
UMVEは、簡略化されたシグナリングを備えた新しい動きベクトル表現を提供する。表現方法は、開始点、動きの大きさ、及び動き方法を含む。
図21は、UMVE探索プロセスの例を示す。
図22は、UMVE探索ポイントの例を示す。
この提案されている技術は、マージ候補リストをそのまま使用する。しかし、で風呂とのマージタイプ(MRG_TYPE_DEFAULT_N)である候補しか、UMVEの拡張の対象とならない。
基本候補インデックスは開始点を定義する。基本候補インデックスは、次のようにリスト内の候補の中で最良の候補を示す:
Figure 2022507281000009
基本候補の数が1に等しい場合に、基本候補IDXは通知されない。
距離インデックスは、動きの大きさの情報である。距離インデックスは、開始点情報からの予め定義された距離を示す。予め定義された距離は、次の通りである:
Figure 2022507281000010
方向インデックスは、開始点に対するMVDの方向を表す。方向インデックスは、以下で示されるように4つの方向を表すことができる:
Figure 2022507281000011
UMVEフラグは、スキップフラグ及びマージフラグを送った直後に通知される。スキップ及びマージフラグが真である場合に、UMVEフラグはパースされる。UMVEフラグが1に等しい場合に、UMVEシンタックスはパースされる。しかし、1でない場合には、アフィンフラグがパースされる。アフィンフラグが1に等しい場合には、それはアフィンモードである。しかし、1でない場合には、スキップ/マージインデックスが、VTMのスキップ/マージモードについてパースされる。
UMVE候補のための追加のラインバッファは不要である。ソフトウェアのスキップ/マージ候補は基本候補として直接使用されるからである。入力されたUMVEインデックスを用いて、MVの補完は、動き補償の直後に決定される。このため、長いラインバッファを保持する必要はない。
[2.2.13 予測オフセットによるアフィンマージモード]
例において、UMVEは、アフィンマージモードに拡張され、我々は、これを以降UMVEアフィンモードと呼ぶことにする。提案されている方法は、最初の利用可能なアフィンマージ候補を基本予測子として選択する。次いで、それは、基本予測子からの各制御点の動きベクトル値に動きベクトルオフセットを適用する。利用可能なアフィンマージ候補がない場合には、この提案されている方法は使用されない。
選択された基本予測子のインター予測方向と、各方向の参照インデックスは、変更なしで使用される。
現在の実施では、現在のブロックのアフィンモデルは、4パラメータモデルであると仮定され、2つの制御点のみが導出される必要がある。よって、基本予測子の最初の2つの制御点のみが制御点予測子として使用されることになる。
各制御点について、zero_MVDフラグは、現在のブロックの制御点が対応する制御点予測子と同じMV値を有しているかどうかを示すために使用される。zero_MVDフラグが真である場合には、制御点に必要とされる他のシグナリングはない。そうでない場合には、距離インデックス及びオフセット方向インデックスはその制御点について通知される。
サイズが5である距離オフセットテーブルが、以下の表で示されるように使用される。距離インデックスは、どの距離オフセットを使用すべきかを示すよう通知される。距離インデックスと距離オフセット値とのマッピングは、図23に示される。
Figure 2022507281000012
方向インデックスは、以下で示されるように4つの方向を表すことができ、x又はy方向しかMV差を有さなくてよく、両方の方向ではない。
Figure 2022507281000013
インター予測が一方向である場合に、通知される距離オフセットは、各制御点予測子についてのオフセット方向に対して適用される。結果は、各制御点のMV値になる。
例えば、基本予測子が一方向である場合に、制御点の動きベクトル値はMVP(vpx、vpy)である。距離オフセット及び方向インデックスが通知される場合に、現在のブロックの対応する制御点の動きベクトルは、以下のように計算されることになる。

MV(v、v)=MVP(vpx、vpy)+MV(x-dir-factor×distance-offset,y-dir-factor×distance-offset)
インター予測が双方向である場合に、通知される距離オフセットは、制御点予測子のL0動きベクトルについて通知されたオフセット方向に適用され、反対の方向による同じ距離オフセットが、制御点予測子のL1動きベクトルについて適用される。結果は、各インター予測方向に関して、各制御点のMV値になる。
例えば、基本予測子が双方向である場合に、L0に関する制御点の動きベクトル値はMVPL0(v0px,v0py)であり、L1に関する制御点の動きベクトル値はMVPL1(v1px,v1py)である。距離オフセット予備方向インデックスが通知される場合に、現在のブロックの対応する制御点の動きベクトルは、次のように計算されることになる。

MVL0(v0x、v0y)=MVPL0(v0px、v0py)+MV(x-dir-factor×distance-offset,y-dir-factor×distance-offset)、

MVL1(v0x、v0y)=MVPL1(v1px、v1py)+MV(x-dir-factor×distance-offset,y-dir-factor×distance-offset)
[2.2.14 双方向オプティカルフロー]
BIOでは、動き補償は最初に、現在のブロックの(各予測方向における)最初の予測を生成するために実行される。最初の予測は、ブロック内の各サブブロック/ピクセルの空間勾配、時間勾配、及びオプティカルフローを導出するために使用され、これらは、次いで、第2の予測、すなわち、サブブロック/ピクセルの最終的な予測を生成するために使用される。詳細は、次のように説明される。
双方向オプティカルフロー(BIO)は、双予測のためのブロックワイズの動き補償に加えて実行されるサンプルワイズの動き精緻化である。サンプルレベルの動き精緻化は、シグナリングを使用しない。
図24は、オプティカルフロー軌跡の例を示す。
(k)をブロック動き補償後の参照k(k=0,1)からのルーマ値であるとし、∂I(k)/∂x、∂I(k)/∂yは、I(k)勾配の水平及び垂直成分である。オプティカルフローが有効であるとすれば、動きベクトル場(v,v)は、次の式によって与えられる:
Figure 2022507281000014
このオプティカルフロー式を各サンプル結果の動き軌跡についてエルミート(Hermite)補間と組み合わせることで、関数値I(k)及び導関数、∂I(k)/∂x、∂I(k)/∂yの両方と最後に一致する一意の三次多項式が得られる。t=0でのこの多項式の値がBIO予測である:
Figure 2022507281000015
ここで、τ及びτは、図24で示されるように参照フレームまでの距離である。距離τ及びτは、Ref0及びRef1に基づいて計算される:

τ=POC(現在)-POC(Ref0)
τ=POC(Ref1)-POC(現在)

両方の予測が同じ時間方向から来る(両方が過去から来るか、又は両方が未来から来るかのどちらかである)場合、符号は異なる(すなわち、τ・τ<0)。この場合に、BIOは、予測が同じ時点からでなく(すなわち、τ0≠τ1)、両方の参照される領域が非ゼロ運動を有し(MVx0,MVy0,MVx1,Mvy1≠0)、ブロック動きベクトルが時間距離に比例する(MVx0/MVx1=MVy0/Mvy1=-τ/τ)場合にのみ適用される。
動きベクトル場(v、v)は、点A及びB(図24の動き軌跡と参照フレーム面との交点)での値の間の差Δを最小限にすることによって決定される。モデルは、Δについて局所テイラー展開の一次線形項のみを使用する:
Figure 2022507281000016
式(5)の全ての値が、これまで表記から省略されていたサンプル位置(i’,j’)に依存する。動きが局所周囲エリアにおいて一貫性があるとすれば、Mが2に等しいとして、現在予測されている点(i,j)を中心とした(2M+1)×(2M+1)正方窓Ω内でΔは最小限にされる:
Figure 2022507281000017
この最適化問題について、JEMは、最初に垂直方向において、それから水平方向において最小化を行う簡単化されたアプローチを使用する。その結果、次のものが得られる:
Figure 2022507281000018
ここで、
Figure 2022507281000019
ゼロ又は極めて小さい値による除算を回避するために、正規化パラメータr及びmが式10及び11に導入される:

r=500・4d-8 (10)

m=700・4d-8 (11)
ここで、dは、ビデオサンプルのビットデプスである。
BIOのためのメモリアクセスを通常の双予測動き補償の場合と同じに保つために、全ての予測及び勾配値I(k)、∂I(k)/∂x、∂I(k)/∂yは、現在のブロック内の位置についてのみ計算される。式(9)中、予測されたブロックの境界上の現在予測されている点に中心がある(2M+1)×(2M+1)正方窓Ωは、ブロックの外にある点にアクセスする必要がある(図25Aを参照)。JEMでは、ブロックの外にあるI(k)、∂I(k)/∂x、∂I(k)/∂yの値は、そのブロック内の最も近い利用可能な値に等しいようセットされる。例えば、これは、図25Bに示されるように、パディングとして実装され得る。
図26は、ブロック拡張によらないBIOを示し、a)ブロックの外のアクセス位置、b)パディングが、余分のメモリアクセス及び計算を回避するために使用される。
BIOによれば、各サンプルについて運動場が精緻化され得ることが可能である。計算複雑性を低減するために、BIOのブロックベースの設計がJEMでは使用される。動き精緻化は、4×4ブロックに基づいて計算される。ブロックベースのBIOでは、4×4ブロック内の全てのサンプルの式(9)中のsの値は合計され、次いで、sの合計された値が、4×4ブロックのBIO動きベクトルオフセットを導出するために使用される。より具体的には、次の式が、ブロックベースのBIO導出のために使用される:
Figure 2022507281000020
ここで、bは、予測されたブロックのk番目の4×4ブロックに属するサンプルの組を表す。式7及び8中のsは、関連する動きベクトルオフセットを導出するために((sn,bk)>>4)によって置換される。
いくつかの場合に、BIOのMVレジメントは、ノイズ又は不規則な動きにより信頼できない可能性がある。そのため、BIOでは、MVレジメントの大きさが閾値thBIOにクリップされる。閾値は、現在のピクチャの参照ピクチャが全て1つの方向からであるかどうかに基づいて決定される。現在のピクチャの全ての参照ピクチャが1つの方向からである場合に、閾値は12×214-dにセットされ、そうでない場合には、それは12×213-dにセットされる。
BIOの勾配は、HEVC動き補償プロセス(2D分離可能FIR)と一致する操作を用いて動き補償補間と同時に計算される。この2D分離可能FIRのための入力は、動き補償プロセスの場合と同じ参照フレームサンプルであり、ブロック動きベクトルの分数部分に応じた分数位置(fracX,fracY)である。水平勾配∂I/∂xの場合に、信号は最初に、スケール除去(de-scaling)シフトd-8を伴って分数位置fracYに対応するBIOfilterSを用いて垂直方向に補間され、次いで、勾配フィルタBIOfilterGが、18-dによるスケール除去シフトを伴って分数位置fracXに対応する水平方向において適用される。水平勾配∂I/∂Yの場合に、最初に勾配フィルタは、スケール除去シフトd-8を伴って分数位置fracYに対応するBIOfilterGを用いて垂直方向に適用され、次いで、信号変位は、18-dによるスケール除去シフトを伴って分数位置fracXに対応する水平方向でのBIOfilterSを用いて実行される。勾配計算BIOfilterG及び信号変位BIOfilterFのための補間フィルタの長さは、妥当な複雑性を保つために、より短い(6タップ)。表2は、BIOにおけるブロック動きの種々の分数位置についての勾配計算に使用されるフィルタを示す。表3は、BIOにおける予測信号生成に使用される補間フィルタを示す。
Figure 2022507281000021
Figure 2022507281000022
JEMでは、BIOは、2つの予測が異なる参照ピクチャからである場合に、全ての双予測されたブロックに適用される。LICがCUに使用可能である場合に、BIOは無効にされる。
JEMでは、OBMCは、通常のMCプロセスの後にブロックに適用される。計算複雑性を低減するために、BIOは、OBMCプロセス中に適用されない。これは、BIOが、ブロックに対して、それ自体のMVを使用しているときにのみMCプロセスで使用され、隣接ブロックのMVがOBMCプロセス中に使用される場合にはMCプロセスで適用されないことを意味する。
BIOにおいて時間勾配を計算する前に、参照ブロック(又は予測ブロック)は最初に変更されてよく、時間勾配の計算は、その変更された参照ブロックに基づく、ことが提案される。一例において、全ての参照ブロックについて平均が削除される。一例において、平均は、参照ブロック内の選択されたサンプルの平均として定義される。一例において、参照ブロックX又は参照ブロックXのサブブロック内の全てのピクセルが、MeanXを計算するために使用される。一例において、参照ブロックX又は参照ブロックXのサブブロック内の一部のピクセルのみが、MeanXを計算するために使用される。例えば、2行/列ごとのピクセルのみが使用される。
[2.2.15 デコーダ側動きベクトル精緻化]
双予測動作では、1つのブロックの領域の予測のために、リスト0の動きベクトル(MV)及びリスト1のMVを用いて夫々形成された2つの予測ブロックが、単一の予測信号を形成するよう結合される。デコーダ側動きベクトル精緻化(DMVR)法では、双予測の2つの動きベクトルは、バイラテラルテンプレートマッチングプロセスによって更に精緻化される。バイラテラルテンプレートマッチングは、精緻化されたMVを追加の動き情報の伝送なしで取得するために、バイラテラルテンプレートと参照ピクチャ内の再構成サンプルとの間でひずみベースの探索を実行するようデコーダで適用される。
DMVRでは、バイラテラルテンプレートは、図26に示されるように、夫々リスト0の初期MV0及びリスト1のMV1からの2つの予測ブロックの加重結合(すなわち、平均)として生成される。テンプレートマッチング動作は、生成されたテンプレートと参照ピクチャ内の(初期予測ブロックの周りの)サンプル領域との間のコスト指標を計算することから成る。2つの参照ピクチャの夫々について、最小テンプレートコストもたらすMVは、元のMVを置換するためのそのリストの更新されたMVと見なされる。JEMでは、9つのMV候補がリストごとに探索される。9つのMVは、元のMVと、水平若しくは垂直のどちらか一方の方向又はその両方において元もMVに対して1ルーマサンプルだけオフセットされた8つの周囲MVとを含む。最終的に、2つの新しいMV、すなわち、図26に示されるMV0’及びMV1’が、最終的な双予測結果を生成するために使用される。絶対差分和(SAD)がコスト指標として使用される。1つの周囲MVによって生成された予測ブロックのコストを計算する場合に、(整数ペルに)丸められたMVが、実際には、実際のMVの代わりに予測ブロックを取得するために使用される点に留意されたい。
DMVRは、追加のシンタックス要素の伝送なしで、過去の参照ピクチャからの1つのMVと、未来の参照ピクチャからのもう1つのMVとによる双予測のマージモードのために適用される。JEMでは、LIC、アフィン運動、FRUC、又はサブCUマージ候補がCUに使用可能である場合に、DMVRは適用されない。
図26は、バイラテラルテンプレートマッチングに基づくDMVRの例を示す。
[2.3 関連する方法]
ビデオコーディングにおける動き精緻化及びコーディングのために、MV更新方法及び2段階インター予測方法が提案されている。BIOにおける参照ブロック0と参照ブロック1との間の導出されたMVは、スケーリングされ、リスト0及びリスト1の元の動きベクトルに加えられる。一方で、更新されたMVは、動き補償を実行するために使用され、第2のインター予測は、最終的な予測として生成される。
一方で、時間勾配は、参照ブロック0と参照ブロック1との間の平均差を除くことによって変更される。
ビデオコーディングにおけるサブブロックベースの予測のための方法では、異なるいくつかのサブブロックについて、ただひと組のMVがクロマ成分について生成される。
[3.他の技術との関係]
サブブロックベースの予測方法が提案される。第1に、我々は、色成分及びカラーフォーマット(例えば、4:2:0又は4:2:2)に応じて異なる方法で現在のブロックをサブブロックに分けることを提案する。第2に、我々は、1つの色成分のサブブロックのMVが、既に導出されている他の色成分の1つ以上のサブブロックのMVから導出され得ることを提案する。第3に、我々は、マージアフィンモード及び非マージアフィンモードのための制約を統一することを提案する。
例えば、8×8CUが4つの4×4サブブロックに分けられ、サブブロックの夫々がそれ自体の動きベクトルを有している場合に、4つの動きベクトルの平均が計算され、(2によってスケーリングされた)それが、YCbCr4:2:0の場合におけるクロマ成分の動きベクトルとして使用される。このようにして、Cb/Cr成分の動き補償は、4つの2×2ブロックの代わりに4×4ブロックについて実行され、メモリバンド幅は節約され得る。
織り込み予測(interweaved prediction)は、サブブロック動き補償のために提案される。織り込み予測によれば、ブロックは、1つよりも多い分割パターンによりサブブロックに分けられる。分割パターンは、サブブロックのサイズ及びサブブロックの位置を含め、ブロックをサブブロックに分割するための方法として定義される。各分割パターンについて、対応する予測ブロックは、その分割パターンに基づいて各サブブロックの動き情報を導出することによって生成され得る。従って、1つの予測方向についてさえ、複数の予測ブロックが複数の分割パターンによって生成される可能性がある。代替的に、各予測方向について、1つの分割パターンしか適用されなくてもよい。
X個の分割パターンが存在し、P、P、・・・,PX-1と表される現在のブロックのX個の予測ブロックが、X個の分割パターンを用いてサブブロックベースの予測によって生成される、とする。Pと表される現在のブロックの最終的な予測は:
Figure 2022507281000023
として生成され得る。
ここで、(x,y)は、ブロック内のピクセルの座標であり、w(x,y)は、Pの重み値である。一般性を失わずに、Σi=0 X-1(x,y)=(1<<N)であると仮定される。このとき、Nは非負値である。図27は、2つの分割パターンによる織り込み予測の例を示す。
[4.本技術を使用する実施形態によって解決される課題の例]
2段階インター予測方法が提案されているが、このような方法は、より高いコーディング利得が期待され得るように、より正確な動き情報を得るよう複数回実行され得る。
DMVRには、2段階インター予測方法がない。
[5.箇条書きで示された例示的な実施形態]
上記の課題を解決するために、デコーダ側動き精緻化プロセスを実行する必要があるコーディングツール(例えば、DMVR)、及び/又は動き補償のために使用される最終的な動き情報とは異なる何らかの中間動き情報に依存するコーディングツール(例えば、BIO)について、1度よりも多く動き情報(例えば、動きベクトル)を精緻化することが提案される。
また、デコーダ側で動き情報精緻化を適用しないコーディングツールについてさえ、ブロック/コーディングされたブロック内のサブブロックの動き情報が1度又は複数回精緻化されてよく、精緻化された動き情報が、その後にコーディングされるべきブロックの動きベクトル予測、及び/又はフィルタリングプロセスのために使用されてよいことも提案される。
以降、DMVDが、DMVR若しくはBIO又は他のデコーダ側動きベクトル精緻化法若しくはピクセル精緻化法を表すために使用される。
絶対変換差分和(sum of absolute transformed differences)としてSATDを表し、平均除去絶対変換差分和(mean removed sum of absolute transformed difference)としてMRSATDを表し、平均除去残差平方和(mean removed sum of squares error)としてMRSSEを表す。
以下の詳細な項目は、一般概念を説明するための例と見なされるべきである。これらの発明は、狭い方法で解釈されるべきではない。更に、これらの項目は、如何なる様態でも組み合わされ得るコーディング/デコーディング技術について記載している。
1.動きベクトル精緻化プロセスが複数回実行、例えば、Nが非負整数値であるとして、N回実行され得ることが提案される。通知されたMVは(MVLX0_x,MVLX0_y)であり、i番目の精緻化されたMVは(MVLXi_x,MVLXi_y)であるとされ、LX=L0又はL1かつi=1,・・・,Nである。
a)一例において、(i-1)番目の精緻化されたベクトル(すなわち、(i-1)回目の繰り返しの後の動きベクトルであり、(i-1)が0に等しい場合には、通知された動きベクトルが使用される)は、PU/CU/ブロック/サブブロックのi番目の動き補償された参照ブロックを生成するために使用されてよい。代替的に、更には、i番目の動き補償された参照ブロックは、i番目の時間勾配、空間勾配、及び精緻化された動きベクトルを導出するために更に使用されてよい。例は図28に示される。
b)提案されている方法によりコーディングされないインターコーディングされたブロックに使用されるものとは異なった補間フィルタが、メモリバンド幅を低減するよう、異なる動きベクトル精緻化段階での動き補償のために使用されてよい。例えば、ショートタップフィルタは、1回目から(N-1)回目の段階で使用される。
c)i回目の繰り返しからの中間の精緻化されたMVは、参照ブロックを生成するために使用される前に、最初に変更される。一例において、分数MVは、整数MVに丸められ、それから、いくつかの段階で、例えば、1回目から(N-1)回目の段階で参照ブロックを生成するために使用される。
d)いくつかの又は全ての繰り返しで、1つのブロックは最初にいくつかのサブブロックに分けられ、各サブブロックは、サブブロックサイズに等しいサイズを有する通常のコーディングブロックと同じ方法で扱われる。
i.一例において、ブロックは最初に複数のサブブロックに分けられ、各ブロックの動き情報は複数回精緻化されてよい。
ii.代替的に、ブロックは最初に複数のサブブロックに分けられ、それらのサブブロックの一部についてのみ、それらの動き情報が複数回精緻化されてよい。
iii.代替的に、ブロックは最初に複数のサブブロックに分けられ、異なるサブブロックの動き情報は異なる回数の繰り返しにより精緻化されてよい(例えば、あるブロックについては、精緻化は適用されず、あるブロックについては、動き情報が複数回精緻化されてよい。)。
iv.代替的に、ブロック全体の動き情報は、N-1回精緻化され、その後に、(N-1)番目の精緻化された動き情報に基づいて、ブロックは複数のサブブロックに分けられ、各サブブロックの動き情報について、その動き情報は更に精緻化されてよい。
e)異なる段階では、精緻化されたMVは、異なるサブブロックサイズで導出されてよい。
f)一例において、N回の段階での精緻化された動きベクトルは、動き補償を実行するために使用され、それから、前のセクション2.2.14で説明された方法が、CU/サブブロックの最終的な予測を生成するために使用される。
g)一例において、予測は、各段階(又はいくつかの段階)でブロック/サブブロックに対して生成され、それらは、そのブロック/サブブロックの最終的な予測を生成するよう加重平均される。
h)一例において、各段階で導出されたMVは、更に制約されてよい。
i.例えば、全ての1<=i<=Nについて、|MVLXi_x-MVLX0_x|<=Txかつ|MVLXi_y-MVLX0_y|<=Ty。
ii.例えば、全ての1<=i、j<=Nについて、Max{MVLXi_x-MVLXj_x}<=TxかつMax{MVLXi_y-MVLXj_y}<=Ty。
iii.閾値Tx及びTyは等しくても等しくなくてもよい。それらは、予め定義された数であるか、あるいは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/タイル/CTU/CUにおいてエンコーダからデコーダへ通知され得る。
i)動きベクトル精緻化プロセスは、K回目の段階後の精緻化されたMV及びK回目の段階での入力されたMVが類似している場合に、ブロック/サブブロックについてのK回目の段階後に終了されてよい。
i.例えば、T=1/4、1/3、1/2、1、2、3、4、・・・などであるとして、(いずれかの予測方向における)精緻化されたMV及び入力されたMVの垂直及び/又は水平成分の間の絶対差がT4分の1ペル距離よりも大きくない場合に、動きベクトル精緻化プロセスは終了される。
ii.例えば、(いずれかの予測方向における)精緻化されたMV及び入力されたMVの垂直及び水平成分の間の絶対差分和がT4分の1ペル距離よりも大きくない場合に、動きベクトル精緻化プロセスは終了される。
j)繰り返し数Nは適応的であってよい。
i.例えば、Nは、現在のブロックのサイズに依存する。
1.例えば、Nは、より大きいブロックについては、より大きく、その逆も同様である。
ii.例えば、Nは、現在のブロックのコーディングモードに依存する。
iii.例えば、Nは、現在のブロックのMVD(Motion Vector Difference)に依存する。
1.例えば、Nは、|MVD|がより大きい場合に、より大きい。
iv.例えば、NはQPに依存する。
1.例えば、Nは、QPがより大きい場合に、より大きい。
v.Nは、VPS/SPS/PPS/スライスヘッダ/タイルグループヘッダ/タイル/CT/CUでエンコーダからデコーダへ通知されてよい。
2.上記の1.における精緻化された動きベクトルによれば、2段階インター予測プロセスは、多段階インター予測に拡張されてよく、N回の繰り返し後の最終的に精緻化された動きベクトルは、最終的な動き補償を実行し、ブロック/サブブロックの最終的な予測を生成するために使用される。
a)代替的に、予測は、各段階(又はいくつかの段階)でブロック/サブブロックに対して生成され、そのブロック/サブブロックの最終的な予測は、それらの予測によって生成されてよい。一例において、それらは、ブロック/サブブロックの最終的な予測を生成するよう加重平均される。
3.時間勾配変更プロセスは、各M1×N1サブブロックについて実行され得るが、BIOプロセスは、各M2×N2サブブロックについて実行されてよいことが提案される。
a)一例において、精緻化された動きベクトルは、各4×4ブロックについて導出され、一方、時間勾配変更プロセスは、各8×8ブロックについて実行される。すなわち、M1=N1=8、M2=N2=4である。
b)一例において、精緻化された動きベクトルは、各8×8ブロックについて導出され、一方、時間勾配変更プロセスは、各4×4ブロックについて実行される。
c)一例において、精緻化された動きベクトルは、各4×4ブロックについて導出され、一方、時間勾配変更プロセスは、各4×4ブロックについて実行される。
d)一例において、精緻化された動きベクトルは、各8×8ブロックについて導出され、一方、時間勾配変更プロセスは、各8×8ブロックについて実行される。
e)M1、N1、M2、N2は、予め定義されるか、あるいは、ブロックサイズ/コーディングされたモードに依存するか、あるいは、VPS/SPS/PPS/ピクチャヘッダ/タイルグループ/などで通知されてよい。
4.ブロック/サブブロックの動きベクトル導出するために使用され得る時間/空間勾配を計算するためにそのブロック/サブブロックの部分ピクセルのみを使用することが提案される。
a)一例において、時間及び空間勾配は、N行又は/及び列ごとに計算される。例えば、N=2である。
b)一例において、時間及び空間勾配は、CU/サブブロックの左上/右上/左下/右下4分の1について計算される。
c)一例において、時間及び空間勾配は、CU/サブブロックの左上/右上/左下/右下4分の1のN行又は/及び列ごとに計算される。
d)このような方法は、2段階インター予測及び上記の2.における多段階インター予測のために有効にされてよく、時間/空間勾配は、ブロック/サブブロックの精緻化された動きベクトルを導出するためにのみ使用されればよく、ブロック/サブブロックの予測を精緻化するために直接には使用されない。
5.DMVRにおける動きベクトル精緻化プロセスは複数回実行されてよいことが提案される。
a)一例において、(i-1)番目の精緻化された動きベクトル(すなわち、(i-1)回目の繰り返し後の動きベクトルであり、(i-1)が0に等しい場合には、通知された動きベクトルが使用される)は、i回目の動きベクトル精緻化プロセスにおける開始探索点として使用され得る。i=1,・・・,Nであり、Nは非負整数である。
b)提案されている方法によりコーディングされないインターコーディングされたブロックに使用されるものとは異なった補間フィルタは、メモリバンド幅を低減するために、異なる動きベクトル精緻化段階で使用されてよい。例えば、ショートタップフィルタが1回目から(N-1)回目の段階で使用される。
c)一例において、分数MVは、整数MVに丸められ、それから、いくつかの段階で、例えば、1回目から(N-1)回目の段階で、開始探索点として使用される。
6.BIO若しくはDMVR又は他のデコーダ側動き精緻化技術で導出された精緻化された動きベクトルは、いくつかの成分の最終的な動き補償のためにのみ使用され得る。
a)一例において、精緻化された動きベクトルは、Cb又は/及びCr成分の最終的な動き補償のためにのみ使用される。
b)一例において、精緻化された動きベクトルは、ルーマ成分の最終的な動き補償のためにのみ使用される。
c)一例において、BIOでは、精緻化された動きベクトルは、動き補償を実行し、クロマ成分の最終的な予測を生成するために使用され、セクション2.2.14で説明された方法は、ルーマ成分の最終的な予測を生成するために使用される。
i.例えば、動きベクトルは1度だけ精緻化され、クロマ成分の動き補償のために使用され、セクション2.2.14で説明された方法は、ルーマ成分の最終的な予測を生成するために使用される。
d)一例において、BIOでは、セクション2.2.14で説明された方法は、ルーマ及びクロマの両成分の最終的な予測を生成するために使用される。
e)一例において、BIO及びDMVRでは、精緻化された動きベクトルは、動き補償を実行し、ルーマ及びクロマの両成分の最終的な予測を生成するために使用される。
7.ビデオコーディングにおけるサブブロックベースの予測のための方法は、メモリバンド幅を低減するようクロマ成分の動き補償のために使用され得る。例えば、4つの隣接する4×4ブロックはまとめられ、ただひと組の重みベクトルが(YCbCr4:2:0の場合に)クロマ成分に対して導出され、4×4クロマブロックの動き補償を実行するために使用される。
8.BIO又は/及びDMVR、あるいは、他のデコーダ側動き精緻化技術がサブブロックレベルで実行されてよいことが提案される。
a)代替的に、更には、ビデオコーディングにおける織り込み予測が、異なる分割パターンについて異なる動きベクトルを導出するために使用可能であり、最終的な予測は、全ての分割パターンの予測値に基づいて生成される。
9.提案されている方法は、特定条件の下で、例えば、ブロックサイズ、エンコーディングされたモード情報、動き情報、スライス/ピクチャ/タイルタイプ、などに基づいて、適用されてよい。
a)一例において、ブロックサイズが、M×H個のサンプル、例えば、16又は32又は64個のルーマサンプルよりも小さい場合に、上記の方法は許可されない。
b)一例において、ブロックサイズが、M×H個のサンプル、例えば、16又は32又は64個のルーマサンプルよりも大きい場合に、上記の方法は許可されない。
c)代替的に、ブロック幅又は/及び高さの最小サイズがX以下である場合に、上記の方法は許可されない。一例において、Xは8にセットされる。
d)代替的に、ブロック幅>th1若しくは>=th及び/又はブロックの高さ>th2若しくは>=th2である場合に、上記の方法は許可されない。一例において、th1及び/又はth2は64にセットされる。
i.例えば、上記の方法は、M×M(例えば、128×128)ブロックに対しては無効にされる。
ii.例えば、上記の方法は、N×M/M×Nブロックに対しては無効にされる。例えば、N>=64、M=128である。
iii.例えば、上記の方法は、N×M/M×Nブロックに対して無効にされる。例えば、N>=4、M=128である。
e)代替的に、ブロックの幅<th1若しくは<=th1及び/又はブロックの高さ<th2若しくは<=th2である場合に、上記の方法は許可されない。一例において、th1及び/又はth2は8にセットされる。
f)一例において、BIOでは、上記の方法は、AMVPモードでコーディングされたブロックに対して無効にされる。
g)一例において、BIO又はDMVRでは、上記の方法は、スキップモードでコーディングされたブロックに対して無効にされる。
10.サブブロックベースの方法(例えば、アフィン、ATMVP、BIO、DMVR、など)については、サブブロックの最大数は、全種類のCU/PUサイズに対して固定されてよい。KxL個のサブブロックが存在し、1つのブロックサイズがM×Nによって表されるとする。
a)一例において、サブブロックの幅はmax(TH,M/K)にセットされる。
b)一例において、サブブロックの高さはmax(TH、N/L)にセットされる。
c)TH及び/又はTHは予め定義される(例えば、4)か、あるいは、SPS/PPS/ピクチャ/スライス/タイルグループ/タイルレベル/CTUのグループ/CTU行/CTU/CU/PUで通知されてよい。
d)TH及び/又はTHは、現在のブロックは双予測又は片予測であるかどうかに依存してよい。一例において、TH及び/又はTHは、片予測について4に、又は双予測については8にセットされてよい。
11.サブブロックベースの方法(例えば、アフィン、ATMVP、BIO、DMVR、など)については、ブロックをサブブロックに分割すべきかどうか及びどのように分割すべきかは、異なる色成分ごとに異なってよい。
a)一例において、クロマブロックを分割すべきかどうか及びどのように分割すべきかは、その対応するルーマブロックを分割すべきかどうか及びどのように分割すべきかとは無関係に、クロマ成分の幅及び高さに依存する。
b)一例において、クロマブロックを分割すべきかどうか及びどのように分割すべきかは、その対応するルーマブロックを分割すべきかどうか及びどのように分割すべきかとは無関係に、クロマ成分の幅及び高さに依存する。
c)一例において、クロマブロックを分割すべきかどうか及びどのように分割すべきかは、その対応するルーマブロックを分割すべきかどうか及びどのように分割すべきかに依存する。
12.提案されている方法と、BIO,DMVR又は他のデコーダ側動き精緻化技術、あるいは、サブブロックベースの方法(例えば、アフィン、ATMVPなど)とを含む上記の方法は、サブブロックレベルで適用されてよい。
a)一例において、上記の1.及び2.におけるBIO及びDMVRのための反復的動きベクトル精緻化は、各サブブロックについて呼び出されてよい。
b)一例において、幅若しくは高さの一方又は幅及び高さの両方が閾値Lよりも大きい(又はそれに等しい)ブロックの場合に、そのブロックは複数のサブブロックに分けられてよい。各サブブロックは、サブブロックサイズに等しいサイズを有している通常のコーディングブロックと同じように扱われる。
i.一例において、Lは64であり、64×128/128×64ブロックは2つの64×64サブブロックに分けられ、128×128ブロックは4つの64×64サブブロックに分けられる。しかし、N×128/128×Nブロック(N<64)サブブロックに分けられない。
ii.一例において、Lは64であり、64×128/128×64ブロックは2つの64×64サブブロックに分けられ、128×128ブロックは4つの64×64サブブロックに分けられる。一方で、N×128/128×Nブロック(N<64)は、2つのN×64/64×Nサブブロックに分けられる。
iii.一例において、幅(又は高さ)がLよりも大きい場合に、それは垂直方向(又は水平方向)で分割され、サブブロックの幅又は/及び高さはLよりも大きくない。
iv.一例において、Lは、垂直方向及び水平方向について異なってよい。例えば、ブロックの幅がLWよりも大きい場合に、ブロックは垂直方向に分割されてよく、ブロックの高さがLHよりも大きい場合に、ブロックは水平方向に分割されてよい。
v.一例において、LWはVPDU(Virtual Pipeline Data Unit)の幅であってよく、LHはVPDUの高さであってよい。
c)一例において、ブロックサイズ(すなわち、幅×高さ)が閾値L1よりも大きい場合に、それは複数のサブブロックに分けられてよい。各サブブロックは、サブブロックサイズに等しいサイズを有している通常のコーディングブロックと同じように扱われる。
i.一例において、ブロックは、L1よりも大きくない同じサイズでサブブロックに分割される。
ii.一例において、ブロックの幅(又は高さ)が閾値L2よりも大きくない場合に、それは垂直方向(又は水平方向)で分割されない。
iii.一例において、L1はVPDUのサイズである。
iv.一例において、L1は1024であり、L2は32である。例えば、16×128ブロックは2つの16×64サブブロックに分けられる。
v.一例において、L2=sqrt(L1)である。
vi.一例において、ブロックサイズ(W及びHによって夫々表される幅及び高さ)がL1よりも大きくない場合に、サブブロックの幅(subWによって表される)及び高さ(subHによって表される)は、次のように導出される:

if W>=L2かつH>=L2
subW=W/L2、
subH=H/L2、
else if W>L2かつH<L2
subH=H、
subW=W×H/L1、
else if W<L2かつH2>L2
subW=W、
subH=W×H/L1

d)一例において、1つのブロックの2段階の分割が適用されてよく、異なった規則が、どのように分割を行うべきかを決定するために適用されてよい。
i.一例において、ブロックは、上記の12.b)の方法を用いて最初にサブブロックに分割されてよく、これらのサブブロックは、上記の12.c)の方法を用いて更に分割されてよい。
ii.一例において、ブロックは、上記の12.c)の方法を用いて最初にサブブロックに分割されてよく、これらのサブブロックは、上記の12.b)の方法を用いて更に分割されてよい。
e)閾値Lは予め定義されるか、あるいは、SPS/PPS/ピクチャ/スライス/タイルグループ/タイルレベルで通知されてよい。
f)代替的に、閾値は、ブロックサイズ、ピクチャタイプ、時間レイヤインデックスなどのような、特定のコーディングされた情報に依存してよい。
g)一例において、デブロッキングが、それらのサブブロックの境界で実行されてよい。
13.DMVDは、多重仮説イントラ及びインター予測において無効にされてよいことが提案される。
a)代替的に、DMVDは、多重仮説イントラ及びインター予測において有効にされてよい。
14.DMVDはMMVD(Merge mode with MVD)又はUMVEモードにおいて無効にされてよいことが提案される。
a)代替的に、DMVDは、MMVD又はUMVEモードにおいて有効にされてよい。
15.DMVDは、三角予測において無効にされてよいことが提案される。
a)代替的に、DMVRは、三角予測において有効にされてよい。
16.一例において、DMVR又は/及びBIO及び/又は他のデコーダ側動き精緻化技術などの動き精緻化方法を適用すべきかどうか及びどのように適用すべきかは、参照ピクチャに依存する。
a)一例において、動き精緻化方法は、参照ピクチャが現在のコーディングピクチャである場合に適用されない。
b)一例において、前の項で請求された多数回の精緻化方法は、参照ピクチャが現在のコーディングピクチャである場合に適用されない。
c)DMVR又は/及びBIO及び/又は他のデコーダ側動き精緻化技術などの動き精緻化方法を適用すべきかどうか及びどのように適用すべきかは、サブブロックをカバーするブロックに対する、及び/又はコーディングツリーユニット(CTU)に対する、及び/又はタイル/ピクチャの左上位置に対するサブブロックの位置に依存する。
17.差分計算に依存するBIO又は/及びDMVR、あるいは、他のコーディングツールの早期終了(early termination)段階では、2つの参照ブロック又は/及びサブブロックの間の差は、一部の代表的な位置についてのみ計算され得ることが提案される。
a)一例において、偶数行の差のみがブロック又は/及びサブブロックに対して計算される。
b)一例において、1つのブロック/サブブロックの4つのコーナーサンプルの差のみがブロック又は/及びサブブロックに対して計算される。
c)一例において、ビデオコーディングにおけるデコーダ側動きベクトル導出の改善の方法は、代表的な位置を選択するために使用されてよい。
d)一例において、2つの参照ブロック間の差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSEなど)は、いくつかの代表的なサブブロックに対してのみ計算されてよい。
e)一例において、代表的な位置又はサブブロックに対して計算された差(例えば、SAD/SATD/SSE/MRSAD/MRSATD/MRSSEなど)は、ブロック/サブブロック全体についての差を求めるために合算される。
18.一例において、2つの参照ブロック間の差は、(参照サブブロック間の差の和として計算されるのではなく)直接に計算され、差分計算に依存するBIO又は/及びDMVR、あるいは、他のコーディングツールが、ブロック全体に対して有効又は無効にされるかどうかを決定するために使用される。
a)一例において、上記の14.に記載される方法が、2つの参照ブロック間の差を計算するために使用されてよい。
19.実施形態
このセクションは、サブブロックレベルDMVDでどのようにブロックをサブブロックに分けるかについての実施形態を示す。
実施形態#1
a)ステップ1:ブロックがサイズ128×128である場合に、それは4つの64×64サブブロックに分けられる。ブロックがサイズN×128又は128×N(N<128)である場合に、それは2つのN×64又は64×Nサブブロックに分けられる。他のブロックについては、それらは分割されない。
b)ステップ2:サイズが128×128又はN×128若しくは128×N(N<128)でないブロックについては、及びステップ1で生成されたサブブロックについては、そのサイズ(すなわち、幅×高さ)が256よりも大きい場合に、それは更に、上記の12.c)で記載された方法(L=256及びL2=16)を用いてサイズ256のサブブロックに分けられる。
実施形態#2
a)ステップ1:ブロックがサイズ128×128である場合に、それは4つの64×64サブブロックに分けられる。ブロックがサイズN×128又は128×Nである場合に、それは2つのN×64又は64×Nサブブロック(N<128)に分けられる。他のブロックについては、それらは分割されない。
b)ステップ2:サイズが128×128又はN×128若しくは128×N(N<128)でないブロックについては、及びステップ1で生成されたサブブロックについては、そのサイズ(すなわち、幅×高さ)が1024よりも大きい場合に、それは更に、上記の12.c)で記載された方法(L1=1024及びL=32)を用いてサイズ1024のサブブロックに分けられる。
実施形態#3
a)ステップ1:ブロックがサイズ128×128である場合に、それは4つの64×64サブブロックに分けられる。ブロックがサイズN×128又は128×Nである場合に、それは2つのN×64又は64×Nサブブロック(N<128)に分けられる。他のブロックについては、それらは分割されない。
実施形態#4
a)ステップ1:ブロックがサイズ256×256である場合に、それは4つの128×128サブブロックに分けられる。ブロックがサイズN×256又は256×Nである場合に、それは2つのN×128又は128×Nサブブロック(N<256)に分けられる。他のブロックについては、それらは分割されない。
b)ステップ2:サイズが256×256又はN×256若しくは256×N(N<256)でないブロックについては、及びステップ1で生成されたサブブロックについては、そのサイズ(すなわち、幅×高さ)が1024よりも大きい場合に、それは更に、上記の12.c)で記載された方法(L1=1024及びL=32)を用いてサイズ1024のサブブロックに分けられる。
実施形態#5
a)ステップ1:ブロックの幅又は高さが64よりも大きい場合に、それは、上記の12.b)で記載された方法(LW=LH=64)を用いてサブブロックに分けられる。
b)ステップ2:幅及び高さがもはや64よりも大きくないブロックについては、及びステップ1で生成されたサブブロックについては、そのサイズ(すなわち、幅×高さ)が1024よりも大きい場合に、それは更に、上記の12.c)で記載された方法(L1=1024及びL2=32)を用いてサイズ1024のサブブロックに分けられる。
図29は、目下開示されている技術の様々な部分を実装するために利用され得るコンピュータシステム又は他の制御デバイス2600のためのアーキテクチャの例を表すブロック図である。図29において、コンピュータシステム2600は、インターコネクト2625を介して接続された1つ以上のプロセッサ2605及びメモリ2610を含む。インターコネクト2625は、適切なブリッジ、アダプタ、又はコントローラによって接続されたあらゆる1つ以上の別個の物理バス、ポイント・ツー・ポイント接続、又はその両方を表してよい。インターコネクト2625は、従って、例えば、システムバス、ペリフェラル・コンポーネント・インターコネクト(Peripheral Component Interconnect,PCI)バス、ハイパー・トランスポート若しくは産業標準アーキテクチャ(Industry Standard Architecture,ISA)バス、スモール・コンピュータ・システム・インターフェース(Small Computer System Interface,SCSI)バス、ユニバーサル・シリアル・バス(Universal Serial Bus,USB)、IIC(I2C)バス、又はときどき「ファイアワイヤ(Firewire)」と呼ばれるIEEE(Institute of Electrical and Electronics Engineers)標準674バスを含んでよい。
プロセッサ2605は、例えば、ホストコンピュータの全体の動作を制御する中央演算処理装置(CPU)を含んでよい。特定の実施形態では、プロセッサ2605は、メモリ2610に記憶されているソフトウェア又はファームウェアを実行することによってこれを達成する。プロセッサ2605は、1つ以上のプログラム可能な汎用又は専用のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、プログラム可能なコントローラ、特定用途向け集積回路(ASIC)、プログラム可能ロジックデバイス(PLD)、など、あるいは、このようなデバイスの組み合わせであってよく、あるいは、これらを含んでもよい。
メモリ2610は、コンピュータシステムのメインメモリであることも、又はそれを含むこともできる。メモリ2610は、あらゆる適切な形式のランダム・アクセス・メモリ(RAM)、リード・オンリー・メモリ(ROM)、フラッシュメモリ、など、あるいは、このようなデバイスの組み合わせに相当する。使用中、メモリ2610は、とりわけ、機械命令の組を含んでよく、機械命令の組は、プロセッサ2605によって実行される場合に、プロセッサ2605に、目下開示されている技術の実施形態を実装するための動作を実行させる。
また、プロセッサ2605にはインターコネクト2625を通じて(任意の)ネットワークアダプタ2615も接続される。ネットワークアダプタ2615は、コンピュータシステム2600に、記憶クライアントなどのリモートデバイス、及び/又は他の記憶サーバと通信する能力をもたらし、例えば、Ethernet(登録商標)アダプタ又はファイバチャネルアダプタであってよい。
図30は、目下開示されている技術の様々な部分を実装するために利用され得るデバイス2700の例示的な実施形態のブロック図を示す。モバイルデバイス2700は、ビデオを処理することができるラップトップ、スマートフォン、タブレット、カムコーダ、又は他のタイプのデバイスであることができる。モバイルデバイス2700は、データを処理するプロセッサ又はコントローラ2701と、データを記憶及び/又はバッファリングするようプロセッサ2701と通信するメモリ2702とを含む。例えば、プロセッサ2701は、中央演算処理装置(CPU)又はマイクロコントローラユニット(MCU)を含むことができる。いくつかの実施では、プロセッサ2701は、フィールド・プログラマブル・ゲート・アレイ(FPGA)を含むことができる。いくつかの実施では、モバイルデバイス2700は、スマートフォンデバイスの様々な視覚及び/又は通信データ処理機能のためにグラフィクス処理ユニット(GPU)、ビデオ処理ユニット(VPU)、及び/又は無線通信ユニットを含むか、あるいは、そのようなものと通信する。例えば、メモリ2702は、プロセッサ実行可能コードを含み記憶することができる。プロセッサ実行可能コードは、プロセッサ2701によって実行される場合に、モバイルデバイス2700を、例えば、情報、コマンド、及び/又はデータの受信、情報及びデータの処理、並びにアクチュエータ又は外部ディスプレイなどの他のデバイスへの処理された情報/データの供給などの様々な動作を実行するように構成する。モバイルデバイス2700の様々な機能をサポートするために、メモリ2702は、命令、ソフトウェア、値、画像、及びプロセッサ2701によって処理若しくは参照される他のデータなどの情報及びデータを記憶することができる。例えば、様々なタイプのランダム・アクセス・メモリ(RAM)デバイス、リード・オンリー・メモリ(ROM)デバイス、フラッシュメモリデバイス、及び他の適切な記憶媒体が、メモリ2702の記憶機能を実装するために使用され得る。いくつかの実施では、モバイルデバイス2700は、プロセッサ2701及び/又はメモリ2702を他のモジュール、ユニット又はデバイスへインターフェース接続するための入出力(I/O)ユニット2703を含む。例えば、I/Oユニット2703は、例えば、クラウド内の1つ以上のコンピュータとユーザデバイスとの間などの典型的なデータ通信標準規格と互換性がある様々なタイプの無線インターフェースを利用するためにプロセッサ2701及びメモリ2702をインターフェース接続することができる。いくつかの実施では、モバイルデバイス2700は、I/Oユニット2703を介して有線接続を用いて他のデバイスとインターフェース接続することができる。モバイルデバイス2700はまた、プロセッサによって処理されること、メモリに記憶されること、又は表示デバイス2704若しくは外部デバイスの出力ユニットで示されることができるデータ及び情報を読み出し且つ転送するよう、データストレージなどの他の外部インターフェース、及び/又は視覚若しくはオーディオ表示デバイス2704ともインターフェース接続することができる。例えば、表示デバイス2704は、開示されている技術に従ってMVPに基づいて変更されたビデオフレームを表示することができる。
図31は、ビデオ処理の方法3100のフローチャートである。方法3100は、多段階精緻化プロセスを用いて、現在のビデオブロックのビットストリーム表現からデコーディングされた動き情報に基づいて動きベクトル情報の複数の精緻化値を生成するステップ(3102)と、複数の精緻化値に基づいて現在のビデオブロックを再構成するか又は他のビデオブロックをデコーディングするステップ(3104)とを含む。
他のビデオ処理方法は、現在のブロックと現在のブロックのビットストリーム表現との間の変換のために、現在のブロックの第1サブブロックのための多段階精緻化プロセスと、現在のブロックの第2サブブロックのための時間勾配変更プロセスとを実行するステップであり、多段階精緻化プロセスを用いて、現在のビデオブロックのビットストリーム表現で通知された動きベクトル情報の複数の精緻化値が生成される、ステップと、複数の精緻化値のうちの選択された1つを用いて現在のブロックとビットストリーム表現との間の変換を実行するステップとを含む。
他のビデオ処理方法は、現在のブロックに対して多段階デコーダ側動きベクトル精緻化プロセスを用いて、最終的な動きベクトル決定するステップと、その最終的な動きベクトルを用いて現在のブロックとビットストリーム表現との間の変換を実行するステップとを含む。
他のビデオ処理方法は、現在のビデオブロックと現在のビデオブロックのビットストリーム表現との間の変換中に、現在のビデオブロックの異なるサブブロックに複数の異なる動きベクトル精緻化プロセスを適用するステップと、複数の異なる動きベクトル精緻化プロセスから生成された現在のビデオブロックの最終的な動きベクトルを用いて、現在のビデオブロックとビットストリーム表現との間の変換を実行するステップとを含む。
開示されている実施形態において、ビデオの現在のブロックのビットストリーム表現は、ビデオ圧縮技術で知られているように、非連続的であってよくかつヘッダ情報に依存し得るビットストリーム(ビデオの圧縮された表現)のビットを含んでよい。更に、現在のブロックは、ルーマ及びクロマ成分の1つ以上、又はその回転変形(例えば、YCrCb若しくはYUVなど)を表すサンプルを含んでよい。
下記の箇条書きは、以下の通りにいくつかの実施形態及び技術について記載する。
1.ビデオ処理の方法であって、多段階精緻化プロセスを用いて、現在のビデオブロックのビットストリーム表現からデコーディングされた動き情報に基づいて動きベクトル情報の複数の精緻化値を生成するステップと、前記複数の精緻化値に基づいて前記現在のビデオブロックを再構成するか又は他のビデオブロックをデコーディングするステップとを有する方法。例えば、精緻化動作は、平均化動作を含んでよい。更なる他の例では、精緻化プロセスの1つの段階の精緻化された値は、現在のビデオブロックを再構成するために使用される。更なる他の例では、精緻化プロセスの1つの段階の精緻化された値は、他のビデオブロックをデコーディングするために使用される。
2.箇条1の方法であって、前記現在のビデオブロックを前記ビットストリーム表現から生成する変換を含む方法。
3.箇条1の方法であって、前記ビットストリーム表現を前記現在のビデオブロックから生成する変換を含む方法。
4.箇条1乃至3のうちいずれかの方法であって、前記多段階精緻化プロセスは、i=1~Nであるとして、i番目の段階の精緻化値を生成するために(i-1)番目の段階の精緻化値を使用することを含み、Nは、前記多段階精緻化プロセスの間に実行される精緻化段階の総数であり、Nは1よりも大きい、方法。
5.箇条1乃至4のうちいずれかの方法であって、前記現在のビデオブロックと前記ビットストリーム表現との間の変換を実行するステップを更に有し、該変換を実行するステップは、前記多段階精緻化プロセスの段階で、当該段階のための前記動きベクトル情報の精緻化値を用いて前記現在のビデオブロックの動き補償された参照ブロックを生成することを含む、方法。
6.箇条5の方法であって、前記動き補償された参照ブロックを生成することは、前記多段階精緻化プロセスのいくつかの段階に対して異なるフィルタを使用する、方法。
7.箇条1乃至6のうちいずれかの方法であって、前記現在のビデオブロックと前記ビットストリーム表現との間の変換を実行するステップを更に有し、該変換を実行するステップは、各段階で、その段階のために生成された精緻化された動きベクトルを用いて参照ブロックを生成することを含む、方法。
8.箇条7の方法であって、前記参照ブロックは、前記精緻化された動きベクトルを最初に整数値に丸めることによって生成される、方法。
9.箇条1の方法であって、前記多段階精緻化プロセスの段階は、前記現在のビデオブロックを複数のサブブロックに分けることと、該複数のサブブロックの少なくとも一部について追加の多段階精緻化プロセスを実行することとを含む、方法。
10.箇条9の方法であって、前記追加の多段階精緻化プロセスは、前記複数のサブブロックの全てについて実行される、方法。
11.箇条9又は10の方法であって、前記現在のビデオブロックを分割することは、前記現在のビデオブロックの特性に基づいて、前記多段階精緻化プロセスの複数の段階を実施した後に実行される、方法。
12.箇条9乃至11のうちいずれかの方法であって、前記現在のビデオブロックを分割することは、少なくとも2つの段階で、異なるサイズのサブブロックが前記追加の多段階精緻化プロセスに対して使用されるように、段階依存の様態で前記現在のビデオブロックを分割することを含む、方法。
13.箇条1乃至12のうちいずれかの方法であって、前記複数の精緻化値のうちの選択された1つは、前記複数の精緻化値の加重平均によって計算される、方法。
14.箇条1の方法であって、前記多段階精緻化プロセスを終了する前に実行される段階の数は、成功した段階における精緻化値の変化が使用を超えることに基づいて決定される、方法。
15.箇条14の方法であって、前記指標は、ある段階の精緻化値の垂直又は水平成分と前記ビットストリーム表現で通知された動き情報との間の絶対差を含む、方法。
16.箇条14の方法であって、前記多段階精緻化プロセスを終了する前に実行される前記段階の数は、前記現在のビデオブロックの特性の関数である、方法。
17.箇条16の方法であって、前記現在のビデオブロックの前記特性は、前記現在のビデオブロックのサイズ又は前記現在のビデオブロックのコーディングモード又は前記現在のビデオブロックの動きベクトル差の値又は量子化パラメータを含む、方法。
18.箇条14の方法であって、前記多段階精緻化プロセスを終了する前に実行される前記段階の数は、ビデオレベル、シーケンスレベル、ピクチャレベル、スライスレベル、タイルレベル、コーディングツリーユニットレベル又はコーディングユニットレベルにおいて前記ビットストリーム表現で通知される、方法。
19.箇条1乃至18のうちいずれかの方法であって、前記複数の精緻化値のうちの選択された1つは、前記多段階精緻化プロセスの最後の段階で計算された精緻化値である、方法。
20.箇条1乃至19のうちいずれかの方法であって、前記多段階精緻化プロセスの各段階中に、中間動きベクトルは、前の段階から生成され、該前の段階の後に、次の段階のために、精緻化された推定を計算するために使用される、方法。
21.ビデオ処理の方法であって、
現在のブロックと該現在のブロックのビットストリーム表現との間の変換のために、前記現在のブロックのサブブロックのための多段階精緻化プロセスと、前記サブブロックの2つの予測ブロック間の時間勾配変更プロセスとを実行するステップであり、前記多段階精緻化プロセスを用いて、動きベクトル情報の複数の精緻化値が、前記現在のブロックの前記ビットストリーム表現からデコーディングされた動き情報に基づいて生成される、ステップと、
前記現在のブロックと前記ビットストリーム表現との間の前記変換を精緻化値に基づいて実行するステップと
を有する方法。
22.箇条21の方法であって、第2サブブロックはM1×N1個のピクセルを有し、第1サブブロックはM2×M2個のピクセルを有し、M1、N1、M2及びN2は整数である、方法。
23.箇条22の方法であって、M1=N1=8、M2=N2=4である、方法。
24.箇条21乃至23のうちいずれかの方法であって、M1、N1、M2及びN2は、予め定義されるか、あるいは、前記現在のブロックのサイズ又はコーディングモードに依存するか、あるいは、ビデオレベル、シーケンスレベル、ピクチャレベル、スライスレベル、ピクチャヘッダレベル、又はタイルレベルにおいて通知される、方法。
25.箇条1乃至24のうちいずれかの方法であって、前記多段階精緻化プロセスの各段階は、前記現在のブロック又は該現在のブロックのサブブロックの部分ピクセルを使用する、方法。
26.箇条25の方法であって、前記多段階精緻化プロセスは、N番目ごとの行又は列からのピクセルを使用する、方法。
27.ビデオ処理の方法であって、現在のビデオブロックに対して多段階デコーダ側動きベクトル精緻化プロセスを用いて、最終的な動きベクトルを決定するステップと、前記現在のビデオブロックと前記ビットストリーム表現との間の変換を前記最終的な動きベクトルを用いて実行するステップとを有する方法。
28.箇条27の方法であって、前記現在のビデオブロックに対する前記多段階デコーダ側動きベクトル精緻化プロセスは、箇条1に記載の多段階精緻化プロセスのi番目の段階での精緻化値に対して実行され、iは整数である、方法。
29.箇条27又は28の方法であって、前記多段階精緻化プロセスに使用される補間フィルタは、他のブロックの変換に使用される補間フィルタとは異なる、方法。
30.箇条1乃至26のいずれかの方法であって、前記複数の精緻化値のうちの選択された1つは、ルーマ及びCr、Cbクロマ成分のサブセットの動き補償のために使用される、方法。
31.箇条30の方法であって、前記サブセットは、前記ルーマ成分に対応する、方法。
32.箇条30の方法であって、前記サブセットは、前記クロマ成分に対応する、方法。
33.箇条32の方法であって、前記クロマ成分の前記動き補償は、前記クロマ成分のサブサンプリングされたバージョンが動き補償のために使用される低バンド幅動き補償プロセスを有する、方法。
34.ビデオ処理の方法であって、現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換中に、前記現在のビデオブロックの異なるサブブロックに対して複数の異なる動きベクトル精緻化プロセスを適用するステップと、前記複数の異なる動きベクトル精緻化プロセスから生成された前記現在のビデオブロックの最終的な動きベクトルを用いて、前記現在のビデオブロックと前記ビットストリーム表現との間の変換を実行するステップとを有する方法。
35.箇条34の方法であって、前記変換は、前記現在のビデオブロックを前記ビットストリーム表現から生成する、方法。
36.箇条34の方法であって、前記変換は、前記ビットストリーム表現を前記現在のビデオブロックから生成する、方法。
37.箇条34乃至36のうちいずれかの方法であって、前記複数の異なる動きベクトル精緻化プロセスは、双方向オプティカルフロープロセス又は多段階精緻化プロセスを含む、方法。
38.箇条34乃至37のうちいずれかの方法であって、前記複数の異なる動きベクトル精緻化プロセスは、前記サブブロックのサイズ若しくはコーディングモード又は前記現在のビデオブロック内での前記サブブロックの位置又は前記現在のブロックをコーディングするために使用された参照ピクチャのタイプに基づいて、前記サブブロックに選択的に適用される、方法。
39.箇条38の方法であって、前記参照ピクチャが前記現在のビデオブロックの現在のコーディングピクチャである場合に、前記複数の異なる動きベクトル精緻化プロセスを適用することを控えることを更に含む方法。
40.箇条1乃至39のうちいずれかの方法であって、前記現在のブロックは、予測ユニット又はコーディングユニット又はブロック又はサブブロックに対応する、方法。
41.ビデオ処理の方法であって、
現在のビデオブロックと現在のビデオブロックのビットストリーム表現との間の変換を、現在のビデオブロックがサブブロックベースのコーディングツールによりコーディングされる場合にコーディングユニット又は予測ユニットが使用するサブブロックの最大数を制限する規則を用いて実行するステップを有し、サブブロックベースのコーディングツールは、アフィンコーディング、ATMVP(Advanced Temporal Motion Vector Predictor)、双方向オプティカルフロー又はデコーダ側動きベクトル精緻化コーディングツールの1つ以上を含む、方法。
42.箇条41の方法であって、前記規則は、前記サブブロックの幅又は高さを更に規定する、方法。
43.箇条42の方法であって、前記現在のビデオブロックは、M×N個のピクセルを含み、前記サブブロックは、サイズがK×Lピクセルであり、K、L、M及びNは整数である、方法。
44.箇条43の方法であって、各サブブロックの幅は、最大THw及びM/Kであり、THwは整数である、方法。
45.箇条43又は44の方法であって、各サブブロックの幅は、最大THh及びN/Lであり、THhは整数である、方法。
46.ビデオ処理の方法であって、
現在のビデオブロックと該現在のビデオブロックのビットストリーム表現との間の変換を、前記現在のビデオブロックがサブブロックベースのコーディングツールによりコーディングされる場合に現在のビデオブロックのクロマ成分のために現在のビデオブロックのルーマ成分とは異なったパーティショニングを使用することを定める規則を用いて実行するステップを有し、サブブロックベースのコーディングツールは、アフィンコーディング、ATMVP、双方向オプティカルフロー、又はデコーダ側動きベクトル精緻化コーディングツールの1つ以上を含む、方法。
47.箇条46の方法であって、前記規則は、前記現在のビデオブロック又は該現在のビデオブロックの前記クロマ成分のサイズ及び幅に基づいてクロマ成分のためのパーティショニングを定める、方法。
48.箇条41乃至47のうちいずれかの方法であって、前記変換は、前記現在のビデオブロックのピクセル値を前記ビットストリーム表現から生成することを含む、方法。
49.箇条41乃至47のうちいずれかの方法であって、前記ビットストリーム表現を前記現在のビデオブロックのピクセル値から生成することを含む、方法。
50.箇条9の方法であって、前記現在のビデオブロックを複数のサブブロックに分けることは、前記現在のビデオブロックのサイズに基づいて前記複数のサブブロックのサイズを決定することを含む、方法。
51.ビデオ処理の方法であって、双方向オプティカルフロー(BI-directional Optical flow,BIO)技術又はデコーダ側動きベクトル精緻化(Decoder-side Motion Vector Refinement,DMVR)技術の早期終了段階で、現在のビデオブロックと関連付けられた参照ビデオブロック間の差を決定するステップを有する方法。その差に基づいた前記現在のビデオブロックの更なる処理が実行され得る。
52.箇条51の方法であって、前記差を決定するステップは、前記参照ビデオブロックの偶数行に基づく、方法。
53.箇条51の方法であって、前記差を決定するステップは、前記参照ビデオブロックのコーナーサンプルに基づく、方法。
54.箇条51の方法であって、前記差を決定するステップは、前記参照ビデオブロックのサブブロックに基づく、方法。
55.箇条51の方法であって、前記参照ビデオブロックは、第1参照ビデオブロック及び第2参照ビデオブロックを含み、前記差は、前記第1参照ビデオブロックと前記第2参照ビデオブロックとの間の差の合計に基づく、方法。
56.箇条51乃至55の方法であって、前記差は、絶対差分和(SAD)、絶対変換差分和(SATD)、残差平方和(SSE)、平均除去絶対差分和(MRSAD)、平均除去絶対変換差分和(MRSATD)、又は平均除去残差平方和(MRSSE)の1つ以上を含む、方法。
57.箇条1乃至56のいずれか1つ以上に記載の方法を実装するよう構成されたプロセッサを有するビデオ処理装置。
58.非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、箇条1乃至56のうちいずれか1つに記載の方法を実行するためのプログラムコードを含むコンピュータプログラム製品。
図32は、ビデオ処理の方法3200についてのフローチャートである。方法3200は、ビデオの現在のブロックと現在のブロックのビットストリーム表現との間の変換中に、現在のブロックと関連付けられた2つの参照ブロックの間の差、又は現在のブロック内のサブブロックと関連付けられた2つの参照サブブロックの間の差を、参照ブロックの代表位置又は参照サブブロックの代表位置に基づいて計算するステップ(3202)と、差に基づいて変換を実行するステップ(3204)とを含む。
いくつかの例において、差を計算するステップは、2つの参照ブロック及び/又は2つの参照サブブロックのインターレースされた位置の差を計算するステップを有する。
いくつかの例において、差を計算するステップは、2つの参照ブロック及び/又は2つの参照サブブロックの偶数行の差を計算するステップを有する。
いくつかの例において、差を計算するステップは、2つの参照ブロック及び/又は2つの参照サブブロックの4つのコーナーサンプルの差を計算するステップを有する。
いくつかの例において、差を計算するステップは、2つの参照ブロックの間の差を、参照ブロック内の代表サブブロックに基づいて計算するステップを有する。
いくつかの例において、代表位置は、所定のストラテジを使用することによって選択される。
いくつかの例において、差に基づいて変換を実行するステップは、サブブロックについて差を取得するよう、参照サブブロックの代表位置に対して計算された差を合計するステップを有する。
いくつかの例において、差に基づいて変換を実行するステップは、現在のブロックについて差を取得するよう、参照ブロックの代表位置に対して計算された差を合計するステップを有する。
いくつかの例において、差分計算に依存する予測精緻化処理又は動きベクトル精緻化処理の早期終了段階で差を計算する。
いくつかの例において、差に基づいて変換を実行するステップは、現在のブロックについて差を取得するよう、代表位置に対して計算された差を合計するステップと、現在のブロックの差に基づいて、差分計算に依存する予測精緻化処理又は動きベクトル精緻化処理が現在のブロックについて有効又は無効であるかどうかを決定するステップとを有する。
いくつかの例において、予測精緻化処理は、双方向オプティカルフロー(BIO)技術を含み、且つ/あるいは、動きベクトル精緻化処理は、デコーダ側動きベクトル精緻化(DMVR)技術又はフレームレートアップコンバージョン(FRUC)技術を含む。
いくつかの例において、差は、絶対差分和(SAD)、絶対変換差分和(SATD)、残差平方和(SSE)、平均除去絶対差分和(MRSAD)、平均除去絶対変換差分和(MRSATD)、又は平均除去残差平方和(MRSSE)の1つ以上を含む。
図33は、ビデオ処理の方法3300についてのフローチャートである。方法3300は、ビデオの現在のブロックが特定のコーディングモードを用いてコーディングされているとの決定に基づいて、現在のブロックのためのデコーダ側動きベクトル導出(DMVD)ツールの選択的有効化に関して判断するステップであり、DMVDツールは、ビデオのビットストリーム表現において伝えられた動き情報の精緻化を導出する、ステップ(3302)と、判断に基づいて、現在のブロックとビットストリーム表現との間の変換を実行するステップ(3304)とを含む。
いくつかの例において、DMVDツールは、現在のブロックの予測信号がイントラ予測信号及びインター予測信号に少なくとも基づいて生成されると決定される場合に使用不可能である。
いくつかの例において、DMVDツールは、現在のブロックの予測信号がイントラ予測信号及びインター予測信号に少なくとも基づいて生成されると決定される場合に使用可能である。
いくつかの例において、現在のブロックは、CIIP(Combined Inter and Intra Prediction)モードでコーディングされる。
いくつかの例において、DMVDツールは、現在のブロックがマージモード及び動きベクトル差によりコーディングされると決定される場合に使用不可能である。
いくつかの例において、DMVDツールは、現在のブロックがマージモード及び動きベクトル差によりコーディングされると決定される場合に使用可能である。
いくつかの例において、現在のブロックは、MMVD(Merge mode with Motion Vector Difference)モードでコーディングされる。
いくつかの例において、DMVDツールは、現在のブロックが複数のサブ領域によりコーディングされ、複数のサブ領域の少なくとも1つが非長方形であると決定される場合に使用不可能である。
いくつかの例において、DMVDツールは、現在のブロックが複数のサブ領域によりコーディングされ、複数のサブ領域の少なくとも1つが非長方形であると決定される場合に使用可能である。
いくつかの例において、現在のブロックは、三角予測モードによりコーディングされる。
いくつかの例において、DMVDツールは、デコーダ側動きベクトル精緻化(DMVR)ツールを有する。
いくつかの例において、DMVDツールは、双方向オプティカルフロー(BDOF)ツールを有する。
いくつかの例において、DMVDツールは、フレームレートアップコンバージョン(FRUC)ツール又は他のデコーダ側動きベクトル精緻化方法若しくはサンプル精緻化方法を有する。
いくつかの例において、変換は、ビットストリーム表現から現在のブロックを生成する。
いくつかの例において、変換は、現在のブロックからビットストリーム表現を生成する。
本明細書で説明されている開示の及び他の実施形態、モジュール及び機能動作は、デジタル電子回路において、あるいは、本明細書で開示されている構造及びそれらの構造的同等物を含むコンピュータソフトウェア、ファームウェア、又はハードウェアにおいて、あるいは、それらの1つ以上の組み合わせにおいて実装可能である。開示の及び他の実施形態は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置による実行のために又はその動作を制御するためにコンピュータ可読媒体上でエンコーディングされたコンピュータプログラム命令の1つ以上のモジュールとして、実装可能である。コンピュータ可読媒体は、機械読み出し可能な記憶デバイス、機械読み出し可能な記憶担体、メモリデバイス、機械読み出し可能な伝搬信号をもたらす組成物、又はそれらの1つ以上の組み合わせであることができる。「データ処理装置」との用語は、例として、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含め、データを処理する全ての装置、デバイス、及び機械を包含する。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコードを含むことができる。伝搬信号は、人工的に生成された信号、例えば、機械により生成された電気的、光学的、又は電磁気的信号であって、適切なレシーバ装置への伝送のために情報をエンコーディングするよう生成される。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる。)は、コンパイル済み又は解釈済みの言語を含む如何なる形式のプログラミング言語でも記述可能であり、それは、スタンドアロンプログラムとして又はコンピューティング環境における使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとしてを含め、如何なる形式でもデプロイ可能である。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応しない。プログラムは、問題となっているプログラムに専用の単一のファイルで、又は複数の協調したファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を保存するファイル)で、他のプログラム又はデータ(例えば、マークアップ言語文書で保存された1つ以上のスクリプト)を保持するファイルの部分において保存可能である。コンピュータプログラムは、1つのコンピュータで、あるいは、1つの場所に位置しているか、又は複数の場所にわたって分布しており、通信ネットワークによって相互接続されている複数のコンピュータで実行されるようデプロイ可能である。
本文書で説明されているプロセス及びロジックフローは、入力データに作用して出力を生成することによって機能を実行するよう1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実行され得る。プロセス及びロジックフローはまた、専用のロジック回路、例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)又は特定用途向け集積回路(ASIC)によっても実行可能であり、装置は、そのようなものとしても実装され得る。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用のマイクロプロセッサ及び専用のマイクロプロセッサの両方、並びにあらゆる種類のデジタルコンピュータのいずれか1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリー・メモリ若しくはランダム・アクセス・メモリ又はその両方から命令及びデータを受け取ることになる。コンピュータの必須の要素は、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリデバイスとである。一般に、コンピュータはまた、データを保存する1つ以上の大容量記憶デバイス、例えば、磁気、光学磁気ディスク、又は光ディスクを含むか、あるいは、そのような1つ以上の大容量記憶デバイスからのデータの受信若しくはそれへのデータの転送又はその両方のために動作可能に結合されることになる。しかし、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令及びデータを保存するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えば、EPROM、EEPROM、及びフラッシュメモリデバイス;磁気ディスク、例えば、内蔵ハードディスク又はリムーバブルディスク;光学磁気ディスク;並びにCD ROM及びDVD-ROMディスクを含む全ての形式の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用のロジック回路によって強化されるか、あるいは、それに組み込まれ得る。
本明細書は、多数の詳細を含むが、それらは、あらゆる発明の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の発明の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書で説明されている特定の特徴は、単一の実施形態では組み合わせても実装可能である。逆に、単一の実施形態に関連して説明されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションでも実装可能である。更に、特徴は、特定の組み合わせで動作するものとして先に説明され、更には、そのようなものとして最初に請求されることがあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が示されているその特定の順序で又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書で説明されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本明細書で記載及び例示されているものに基づいて行われ得る。

Claims (29)

  1. ビデオ処理の方法であって、
    ビデオの現在のブロックと前記現在のブロックのビットストリーム表現との間の変換中に、前記現在のブロックと関連付けられた2つの参照ブロック間の差、又は前記現在のブロック内のサブブロックと関連付けられた2つの参照サブブロック間の差を、前記参照ブロックの代表位置又は前記参照サブブロックの代表位置に基づいて計算するステップと、
    前記差に基づいて前記変換を実行するステップと
    を有する方法。
  2. 前記差を計算するステップは、前記2つの参照ブロック及び/又は前記2つの参照サブブロックのインターレースされた位置の差を計算するステップを有する、
    請求項1に記載の方法。
  3. 前記差を計算するステップは、前記2つの参照ブロック及び/又は前記2つの参照サブブロックの偶数行の差を計算するステップを有する、
    請求項1又は2に記載の方法。
  4. 前記差を計算するステップは、前記2つの参照ブロック及び/又は前記2つの参照サブブロックの4つのコーナーサンプルの差を計算するステップを有する、
    請求項1に記載の方法。
  5. 前記差を計算するステップは、2つの参照ブロックの間の差を、該参照ブロック内の代表サブブロックに基づいて計算するステップを有する、
    請求項1に記載の方法。
  6. 前記代表位置は、所定のストラテジを使用することによって選択される、
    請求項1乃至5のうちいずれか一項に記載の方法。
  7. 前記差に基づいて前記変換を実行するステップは、前記サブブロックについて前記差を取得するよう、前記参照サブブロックの前記代表位置に対して計算された前記差を合計するステップを有する、
    請求項1乃至6のうちいずれか一項に記載の方法。
  8. 前記差に基づいて前記変換を実行するステップは、前記現在のブロックについて前記差を取得するよう、前記参照ブロックの前記代表位置に対して計算された前記差を合計するステップを有する、
    請求項1乃至6のうちいずれか一項に記載の方法。
  9. 差分計算に依存する予測精緻化処理又は動きベクトル精緻化処理の早期終了段階で前記差を計算する、
    請求項1乃至8のうちいずれか一項に記載の方法。
  10. 前記差に基づいて前記変換を実行するステップは、
    前記現在のブロックについて前記差を取得するよう、前記代表位置に対して計算された前記差を合計するステップと、
    前記現在のブロックの前記差に基づいて、差分計算に依存する予測精緻化処理又は動きベクトル精緻化処理が前記現在のブロックについて有効又は無効であるかどうかを決定するステップと
    を有する、
    請求項1乃至9のうちいずれか一項に記載の方法。
  11. 前記予測精緻化処理は、双方向オプティカルフロー(BIO)技術を含み、且つ/あるいは、
    前記動きベクトル精緻化処理は、デコーダ側動きベクトル精緻化(DMVR)技術又はフレームレートアップコンバージョン(FRUC)技術を含む、
    請求項9又は10に記載の方法。
  12. 前記差は、絶対差分和(SAD)、絶対変換差分和(SATD)、残差平方和(SSE)、平均除去絶対差分和(MRSAD)、平均除去絶対変換差分和(MRSATD)、又は平均除去残差平方和(MRSSE)の1つ以上を含む、
    請求項1乃至11のうちいずれか一項に記載の方法。
  13. ビデオの現在のブロックが特定のコーディングモードを用いてコーディングされているとの決定に基づいて、前記現在のブロックのためのデコーダ側動きベクトル導出(DMVD)ツールの選択的有効化に関して判断するステップであり、前記DMVDツールは、前記ビデオのビットストリーム表現において伝えられた動き情報の精緻化を導出する、ステップと、
    前記判断に基づいて、前記現在のブロックと前記ビットストリーム表現との間の変換を実行するステップと
    を有する方法。
  14. 前記DMVDツールは、前記現在のブロックの予測信号がイントラ予測信号及びインター予測信号に少なくとも基づいて生成されると決定される場合に使用不可能である、
    請求項13に記載の方法。
  15. 前記DMVDツールは、前記現在のブロックの予測信号がイントラ予測信号及びインター予測信号に少なくとも基づいて生成されると決定される場合に使用可能である、
    請求項13に記載の方法。
  16. 前記現在のブロックは、CIIPモードでコーディングされる、
    請求項14又は15に記載の方法。
  17. 前記DMVDツールは、前記現在のブロックがマージモード及び動きベクトル差によりコーディングされると決定される場合に使用不可能である、
    請求項13に記載の方法。
  18. 前記DMVDツールは、前記現在のブロックがマージモード及び動きベクトル差によりコーディングされると決定される場合に使用可能である、
    請求項13に記載の方法。
  19. 前記現在のブロックは、MMVDモードでコーディングされる、
    請求項17又は18に記載の方法。
  20. 前記DMVDツールは、前記現在のブロックが複数のサブ領域によりコーディングされ、前記複数のサブ領域の少なくとも1つが非長方形であると決定される場合に使用不可能である、
    請求項13に記載の方法。
  21. 前記DMVDツールは、前記現在のブロックが複数のサブ領域によりコーディングされ、前記複数のサブ領域の少なくとも1つが非長方形であると決定される場合に使用可能である、
    請求項13に記載の方法。
  22. 前記現在のブロックは、三角予測モードによりコーディングされる、
    請求項20又は21に記載の方法。
  23. 前記DMVDツールは、デコーダ側動きベクトル精緻化(DMVR)ツールを有する、
    請求項13乃至22のうちいずれかに記載の方法。
  24. 前記DMVDツールは、双方向オプティカルフロー(BDOF)ツールを有する、
    請求項13乃至22のうちいずれかに記載の方法。
  25. 前記DMVDツールは、フレームレートアップコンバージョン(FRUC)ツール又は他のデコーダ側動きベクトル精緻化方法若しくはサンプル精緻化方法を有する、
    請求項13乃至22のうちいずれかに記載の方法。
  26. 前記変換は、前記ビットストリーム表現から前記現在のブロックを生成する、
    請求項1乃至25のうちいずれかに記載の方法。
  27. 前記変換は、前記現在のブロックから前記ビットストリーム表現を生成する、
    請求項1乃至25のうちいずれかに記載の方法。
  28. 請求項1乃至27のうちいずれか一項以上に記載の方法を実装するよう構成されたプロセッサを有するビデオ処理装置。
  29. 非一時的なコンピュータ可読媒体に記憶されているコンピュータプログラム製品であって、
    請求項1乃至27のうちいずれか一項に記載の方法を事項するためのプログラムコードを含むコンピュータプログラム製品。
JP2021525770A 2018-11-20 2019-11-20 部分的な位置に基づく差分計算 Active JP7241870B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
CN2018116371 2018-11-20
CNPCT/CN2018/116371 2018-11-20
CNPCT/CN2019/070062 2019-01-02
CN2019070062 2019-01-02
CN2019072060 2019-01-16
CNPCT/CN2019/072060 2019-01-16
PCT/CN2019/119634 WO2020103852A1 (en) 2018-11-20 2019-11-20 Difference calculation based on patial position

Publications (2)

Publication Number Publication Date
JP2022507281A true JP2022507281A (ja) 2022-01-18
JP7241870B2 JP7241870B2 (ja) 2023-03-17

Family

ID=70774606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021525770A Active JP7241870B2 (ja) 2018-11-20 2019-11-20 部分的な位置に基づく差分計算

Country Status (6)

Country Link
US (2) US20210144400A1 (ja)
EP (1) EP3861742A4 (ja)
JP (1) JP7241870B2 (ja)
KR (1) KR20210091161A (ja)
CN (2) CN117319644A (ja)
WO (1) WO2020103852A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11889108B2 (en) 2018-10-22 2024-01-30 Beijing Bytedance Network Technology Co., Ltd Gradient computation in bi-directional optical flow

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020098643A1 (en) 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Simplification of combined inter-intra prediction
EP3861742A4 (en) * 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
CN113170171B (zh) 2018-11-20 2024-04-12 北京字节跳动网络技术有限公司 组合帧间帧内预测模式的预测细化
WO2020177756A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Size dependent inter coding
EP3922014A4 (en) 2019-04-02 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. DECODER SIDE MOTION VECTOR BYPASS
US20220264146A1 (en) * 2019-07-01 2022-08-18 Interdigital Vc Holdings France, Sas Bi-prediction refinement in affine with optical flow
JP6960969B2 (ja) * 2019-09-20 2021-11-05 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN117499626A (zh) * 2020-03-26 2024-02-02 阿里巴巴(中国)有限公司 用于对视频进行编码或解码的方法和装置
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation
WO2022221013A1 (en) * 2021-04-12 2022-10-20 Qualcomm Incorporated Template matching refinement in inter-prediction modes
US11895302B2 (en) * 2021-06-29 2024-02-06 Qualcomm Incorporated Adaptive bilateral matching for decoder side motion vector refinement
US11917165B2 (en) * 2021-08-16 2024-02-27 Tencent America LLC MMVD signaling improvement
CN115190299B (zh) * 2022-07-11 2023-02-28 杭州电子科技大学 Vvc仿射运动估计快速计算方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020186119A1 (en) * 2019-03-12 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Constrained and adjusted applications of combined inter- and intra-prediction mode

Family Cites Families (273)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005627A (en) 1991-05-31 1999-12-21 Kabushiki Kaisha Toshiba Video coding apparatus
KR100203281B1 (ko) 1996-10-29 1999-06-15 윤종용 강제적 한방향 운동보상에 근거한 동화상 복호화장치
US6480615B1 (en) 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients
US6829303B1 (en) 1999-11-17 2004-12-07 Hitachi America, Ltd. Methods and apparatus for decoding images using dedicated hardware circuitry and a programmable processor
HUE045566T2 (hu) 2002-04-19 2020-01-28 Panasonic Ip Corp America Mozgásvektor-számítási eljárás
JP2006503518A (ja) 2002-10-16 2006-01-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 高度にスケーラブルな3次元オーバコンプリート・ウェーブレット・ビデオ符号化
CN1843037B (zh) 2003-08-26 2010-09-22 汤姆森特许公司 用于编码混合内部-相互编码块的方法和装置
US7627037B2 (en) 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding
US20050201468A1 (en) 2004-03-11 2005-09-15 National Chiao Tung University Method and apparatus for interframe wavelet video coding
US8085846B2 (en) 2004-08-24 2011-12-27 Thomson Licensing Method and apparatus for decoding hybrid intra-inter coded blocks
CN1319383C (zh) 2005-04-07 2007-05-30 西安交通大学 高性能空域可伸缩的运动估计与运动矢量编码实现方法
US8023041B2 (en) 2006-01-30 2011-09-20 Lsi Corporation Detection of moving interlaced text for film mode decision
US20080086050A1 (en) 2006-10-09 2008-04-10 Medrad, Inc. Mri hyperthermia treatment systems, methods and devices, endorectal coil
CN101711481B (zh) 2006-10-18 2013-01-09 汤姆森特许公司 使用预测数据精选进行视频编码的方法和装置
CA2711742A1 (en) 2008-01-09 2009-07-16 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, and image decoding method
ES2541807T3 (es) 2008-05-07 2015-07-24 Lg Electronics Inc. Procedimiento y aparato para decodificar una señal de vídeo
JP2010016806A (ja) 2008-06-04 2010-01-21 Panasonic Corp フレーム符号化とフィールド符号化の判定方法、画像符号化方法、画像符号化装置およびプログラム
TW201041404A (en) 2009-03-06 2010-11-16 Sony Corp Image processing device and method
CN101877785A (zh) 2009-04-29 2010-11-03 祝志怡 一种基于混合预测的视频编码方法
US8462852B2 (en) 2009-10-20 2013-06-11 Intel Corporation Methods and apparatus for adaptively choosing a search range for motion estimation
US9654792B2 (en) 2009-07-03 2017-05-16 Intel Corporation Methods and systems for motion vector derivation at a video decoder
WO2011003326A1 (en) 2009-07-06 2011-01-13 Mediatek Singapore Pte. Ltd. Single pass adaptive interpolation filter
US9549190B2 (en) 2009-10-01 2017-01-17 Sk Telecom Co., Ltd. Method and apparatus for encoding/decoding image using variable-size macroblocks
WO2011050641A1 (en) 2009-10-28 2011-05-05 Mediatek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
US20110176611A1 (en) 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
KR101682147B1 (ko) 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
KR20110112240A (ko) 2010-04-06 2011-10-12 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
KR101484281B1 (ko) 2010-07-09 2015-01-21 삼성전자주식회사 블록 병합을 이용한 비디오 부호화 방법 및 그 장치, 블록 병합을 이용한 비디오 복호화 방법 및 그 장치
US9215470B2 (en) 2010-07-09 2015-12-15 Qualcomm Incorporated Signaling selected directional transform for video coding
US9872019B2 (en) 2010-07-20 2018-01-16 Sk Telecom Co., Ltd. Method and device for deblocking-filtering, and method and device for encoding and decoding using same
US10327008B2 (en) 2010-10-13 2019-06-18 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
JP5721851B2 (ja) 2010-12-21 2015-05-20 インテル・コーポレーション Dmvd処理のシステムおよび方法の改善
JP2012142702A (ja) 2010-12-28 2012-07-26 Sony Corp 画像処理装置および方法、並びにプログラム
GB2487200A (en) 2011-01-12 2012-07-18 Canon Kk Video encoding and decoding with improved error resilience
US9049452B2 (en) 2011-01-25 2015-06-02 Mediatek Singapore Pte. Ltd. Method and apparatus for compressing coding unit in high efficiency video coding
JP2012191298A (ja) 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
CN102811346B (zh) 2011-05-31 2015-09-02 富士通株式会社 编码模式选择方法和系统
JP2013034163A (ja) 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
CN102857764B (zh) 2011-07-01 2016-03-09 华为技术有限公司 帧内预测模式处理的方法和装置
US20130051467A1 (en) 2011-08-31 2013-02-28 Apple Inc. Hybrid inter/intra prediction in video coding systems
ES2773691T3 (es) 2011-09-14 2020-07-14 Samsung Electronics Co Ltd Procedimiento y dispositivo de codificación de una unidad de predicción (PU) según su tamaño y dispositivo de decodificación correspondiente
US9699457B2 (en) 2011-10-11 2017-07-04 Qualcomm Incorporated Most probable transform for intra prediction coding
CA2841058C (en) 2011-12-16 2021-03-23 Panasonic Corporation Video image coding method, video image coding device, video image decoding method, video image decoding device and video image coding/decoding device
US9503716B2 (en) 2011-12-19 2016-11-22 Broadcom Corporation Block size dependent filter selection for motion compensation
JP6134651B2 (ja) 2011-12-28 2017-05-24 シャープ株式会社 算術復号装置、算術符号化装置および算術復号方法
JPWO2013111596A1 (ja) 2012-01-26 2015-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動画像符号化方法および動画像符号化装置
US9451277B2 (en) 2012-02-08 2016-09-20 Qualcomm Incorporated Restriction of prediction units in B slices to uni-directional inter prediction
EP2642755B1 (en) 2012-03-20 2018-01-03 Dolby Laboratories Licensing Corporation Complexity scalable multilayer video coding
JP5987767B2 (ja) 2012-04-16 2016-09-07 株式会社Jvcケンウッド 動画像復号装置、動画像復号方法、動画像復号プログラム、受信装置、受信方法及び受信プログラム
US9591312B2 (en) 2012-04-17 2017-03-07 Texas Instruments Incorporated Memory bandwidth reduction for motion compensation in video coding
JP6039793B2 (ja) 2012-05-10 2016-12-07 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
KR101624059B1 (ko) 2012-06-27 2016-05-24 가부시끼가이샤 도시바 암호화 장치 및 암호화 방법
US20140002594A1 (en) 2012-06-29 2014-01-02 Hong Kong Applied Science and Technology Research Institute Company Limited Hybrid skip mode for depth map coding and decoding
US9549182B2 (en) 2012-07-11 2017-01-17 Qualcomm Incorporated Repositioning of prediction residual blocks in video coding
MX341900B (es) 2012-08-29 2016-09-07 Vid Scale Inc Metodo y aparato de prediccion de vector de movimiento para codificacion de video escalable.
US9906786B2 (en) 2012-09-07 2018-02-27 Qualcomm Incorporated Weighted prediction mode for scalable video coding
KR20150038249A (ko) 2012-09-28 2015-04-08 인텔 코포레이션 계층간 화소 샘플 예측
CN104584553A (zh) 2012-09-28 2015-04-29 英特尔公司 层间残差预测
EP2926556A1 (en) 2012-11-30 2015-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Compressed data stream transmission using rate control
US20140177706A1 (en) 2012-12-21 2014-06-26 Samsung Electronics Co., Ltd Method and system for providing super-resolution of quantized images and video
US9294777B2 (en) 2012-12-30 2016-03-22 Qualcomm Incorporated Progressive refinement with temporal scalability support in video coding
WO2014120368A1 (en) 2013-01-30 2014-08-07 Intel Corporation Content adaptive entropy coding for next generation video
US9596448B2 (en) 2013-03-18 2017-03-14 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding
US9521425B2 (en) 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
US9491460B2 (en) 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
KR101804652B1 (ko) 2013-04-02 2017-12-04 브이아이디 스케일, 인크. 스케일러블 비디오 코딩용의 향상된 시간적 움직임 벡터 예측
WO2014166063A1 (en) 2013-04-09 2014-10-16 Mediatek Inc. Default vector for disparity vector derivation for 3d video coding
CA2896810C (en) 2013-04-10 2017-12-19 Mediatek Inc. Method and apparatus for bi-prediction of illumination compensation
US9374578B1 (en) 2013-05-23 2016-06-21 Google Inc. Video coding using combined inter and intra predictors
WO2015003383A1 (en) 2013-07-12 2015-01-15 Mediatek Singapore Pte. Ltd. Methods for inter-view motion prediction
US9628795B2 (en) 2013-07-17 2017-04-18 Qualcomm Incorporated Block identification using disparity vector in video coding
US9774879B2 (en) 2013-08-16 2017-09-26 Sony Corporation Intra-block copying enhancements for HEVC in-range-extension (RExt)
US9503715B2 (en) 2013-08-30 2016-11-22 Qualcomm Incorporated Constrained intra prediction in video coding
US10244253B2 (en) 2013-09-13 2019-03-26 Qualcomm Incorporated Video coding techniques using asymmetric motion partitioning
JP6302071B2 (ja) 2013-09-13 2018-03-28 サムスン エレクトロニクス カンパニー リミテッド 無損失符号化方法及び無損失復号化方法
US9554150B2 (en) 2013-09-20 2017-01-24 Qualcomm Incorporated Combined bi-predictive merging candidates for 3D video coding
US9667996B2 (en) 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9762927B2 (en) 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9906813B2 (en) 2013-10-08 2018-02-27 Hfi Innovation Inc. Method of view synthesis prediction in 3D video coding
US20160249056A1 (en) 2013-10-10 2016-08-25 Sharp Kabushiki Kaisha Image decoding device, image coding device, and coded data
WO2015056719A1 (ja) 2013-10-16 2015-04-23 シャープ株式会社 画像復号装置、画像符号化装置
WO2015062002A1 (en) 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
WO2015085575A1 (en) 2013-12-13 2015-06-18 Mediatek Singapore Pte. Ltd. Methods for background residual prediction
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9264728B2 (en) 2014-01-10 2016-02-16 Sony Corporation Intra-plane and inter-plane predictive method for Bayer image coding
US10057590B2 (en) 2014-01-13 2018-08-21 Mediatek Inc. Method and apparatus using software engine and hardware engine collaborated with each other to achieve hybrid video encoding
WO2015109598A1 (en) 2014-01-27 2015-07-30 Mediatek Singapore Pte. Ltd. Methods for motion parameter hole filling
US9906790B2 (en) 2014-03-14 2018-02-27 Qualcomm Incorporated Deblock filtering using pixel distance
US9860559B2 (en) 2014-03-17 2018-01-02 Mediatek Singapore Pte. Ltd. Method of video coding using symmetric intra block copy
CN106105196A (zh) 2014-04-28 2016-11-09 松下电器(美国)知识产权公司 编码方法、解码方法、编码装置以及解码装置
WO2015180014A1 (en) 2014-05-26 2015-12-03 Mediatek Singapore Pte. Ltd. An improved merge candidate list construction method for intra block copy
CN105493505B (zh) 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
US10327002B2 (en) 2014-06-19 2019-06-18 Qualcomm Incorporated Systems and methods for intra-block copy
US9930341B2 (en) 2014-06-20 2018-03-27 Qualcomm Incorporated Block vector coding for intra block copying
GB2531003A (en) 2014-10-06 2016-04-13 Canon Kk Method and apparatus for vector encoding in video coding and decoding
US9918105B2 (en) 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
CN104301724B (zh) 2014-10-17 2017-12-01 华为技术有限公司 视频处理方法、编码设备和解码设备
WO2016072750A1 (ko) 2014-11-04 2016-05-12 삼성전자 주식회사 에지 타입의 오프셋을 적용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
KR20170084055A (ko) 2014-11-06 2017-07-19 삼성전자주식회사 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
EP3202143B8 (en) 2014-11-18 2019-09-25 MediaTek Inc. Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
US10382795B2 (en) 2014-12-10 2019-08-13 Mediatek Singapore Pte. Ltd. Method of video coding using binary tree block partitioning
CN107113443B (zh) 2014-12-26 2020-04-28 索尼公司 影像处理设备和影像处理方法
JP6501532B2 (ja) 2015-01-23 2019-04-17 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム
US10230980B2 (en) 2015-01-26 2019-03-12 Qualcomm Incorporated Overlapped motion compensation for video coding
US11477477B2 (en) 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
US10070130B2 (en) 2015-01-30 2018-09-04 Qualcomm Incorporated Flexible partitioning of prediction units
CN104702957B (zh) 2015-02-28 2018-10-16 北京大学 运动矢量压缩方法和装置
US10200711B2 (en) * 2015-03-27 2019-02-05 Qualcomm Incorporated Motion vector derivation in video coding
US10432966B2 (en) 2015-04-13 2019-10-01 Mediatek Inc. Methods of constrained intra block copy for reducing worst case bandwidth in video coding
US10200713B2 (en) 2015-05-11 2019-02-05 Qualcomm Incorporated Search region determination for inter coding within a particular picture of video data
WO2016195453A1 (ko) 2015-06-05 2016-12-08 한양대학교 산학협력단 영상 부호화 및 복호화 방법과 영상 복호화 장치
US20160360205A1 (en) 2015-06-08 2016-12-08 Industrial Technology Research Institute Video encoding methods and systems using adaptive color transform
EP3304907B1 (en) 2015-06-08 2022-03-23 VID SCALE, Inc. Intra block copy mode for screen content coding
US10887597B2 (en) 2015-06-09 2021-01-05 Qualcomm Incorporated Systems and methods of determining illumination compensation parameters for video coding
KR20180008445A (ko) 2015-06-10 2018-01-24 삼성전자주식회사 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치
WO2017008263A1 (en) 2015-07-15 2017-01-19 Mediatek Singapore Pte. Ltd. Conditional binary tree block partitioning structure
US10404992B2 (en) 2015-07-27 2019-09-03 Qualcomm Incorporated Methods and systems of restricting bi-prediction in video coding
WO2017016468A1 (en) 2015-07-27 2017-02-02 Mediatek Inc. Method of system for video coding using intra block copy mode
CN108965869B (zh) 2015-08-29 2023-09-12 华为技术有限公司 图像预测的方法及设备
WO2017036399A1 (en) 2015-09-02 2017-03-09 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
WO2017035831A1 (en) 2015-09-06 2017-03-09 Mediatek Inc. Adaptive inter prediction
KR20180041211A (ko) 2015-09-10 2018-04-23 엘지전자 주식회사 인터-인트라 병합 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10375413B2 (en) 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
KR20180058224A (ko) 2015-10-22 2018-05-31 엘지전자 주식회사 영상 코딩 시스템에서 모델링 기반 영상 디코딩 방법 및 장치
CN108353184B (zh) 2015-11-05 2022-02-01 联发科技股份有限公司 一种视频编解码的方法及装置
WO2017082670A1 (ko) 2015-11-12 2017-05-18 엘지전자 주식회사 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치
KR20170058838A (ko) 2015-11-19 2017-05-29 한국전자통신연구원 화면간 예측 향상을 위한 부호화/복호화 방법 및 장치
WO2017084512A1 (en) 2015-11-20 2017-05-26 Mediatek Inc. Method and apparatus of motion vector prediction or merge candidate derivation for video coding
WO2017088093A1 (en) 2015-11-23 2017-06-01 Mediatek Singapore Pte. Ltd. On the smallest allowed block size in video coding
US10268901B2 (en) 2015-12-04 2019-04-23 Texas Instruments Incorporated Quasi-parametric optical flow estimation
CN105578198B (zh) 2015-12-14 2019-01-11 上海交通大学 基于时偏特征的视频同源Copy-Move检测方法
US9955186B2 (en) 2016-01-11 2018-04-24 Qualcomm Incorporated Block size decision for video coding
CN108541375B (zh) 2016-02-03 2022-04-12 夏普株式会社 运动图像解码装置、运动图像编码装置、以及预测图像生成装置
EP4138392A1 (en) 2016-02-05 2023-02-22 HFI Innovation Inc. Method and apparatus of motion compensation based on bi-directional optical flow techniques for video coding
EP3414906A4 (en) 2016-02-08 2019-10-02 Sharp Kabushiki Kaisha SYSTEMS AND METHOD FOR INTRAPRADICATION CODING
US11064195B2 (en) 2016-02-15 2021-07-13 Qualcomm Incorporated Merging filters for multiple classes of blocks for video coding
WO2017139937A1 (en) 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
WO2017143467A1 (en) 2016-02-22 2017-08-31 Mediatek Singapore Pte. Ltd. Localized luma mode prediction inheritance for chroma coding
US11032550B2 (en) 2016-02-25 2021-06-08 Mediatek Inc. Method and apparatus of video coding
WO2017156669A1 (en) 2016-03-14 2017-09-21 Mediatek Singapore Pte. Ltd. Methods for motion vector storage in video coding
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
CN115118971A (zh) 2016-05-13 2022-09-27 Vid拓展公司 用于视频编码的通用式多假设预测的系统及方法
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US20170339405A1 (en) 2016-05-20 2017-11-23 Arris Enterprises Llc System and method for intra coding
KR20180040319A (ko) 2016-10-12 2018-04-20 가온미디어 주식회사 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법
CN106028026B (zh) 2016-05-27 2017-09-05 宁波大学 一种基于时空域结构的高效视频质量客观评价方法
EP3264769A1 (en) 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with automatic motion information refinement
EP3264768A1 (en) 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with adaptive motion information refinement
US11638027B2 (en) 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
JP6768145B2 (ja) 2016-08-15 2020-10-14 ノキア テクノロジーズ オーユー ビデオの符号化および復号
US10609423B2 (en) 2016-09-07 2020-03-31 Qualcomm Incorporated Tree-type coding for video coding
WO2018048265A1 (ko) 2016-09-11 2018-03-15 엘지전자 주식회사 향상된 옵티컬 플로우 움직임 백터를 이용하여 비디오 신호를 처리하는 방법 및 장치
WO2018062892A1 (ko) 2016-09-28 2018-04-05 엘지전자(주) 가중치 인덱스에 기초하여 최적의 예측을 수행하는 방법 및 장치
US11356693B2 (en) 2016-09-29 2022-06-07 Qualcomm Incorporated Motion vector coding for video coding
EP3301920A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for coding/decoding omnidirectional video
EP3301918A1 (en) 2016-10-03 2018-04-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
US10448010B2 (en) 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
WO2018092869A1 (ja) 2016-11-21 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10674165B2 (en) 2016-12-21 2020-06-02 Arris Enterprises Llc Constrained position dependent intra prediction combination (PDPC)
US10609367B2 (en) * 2016-12-21 2020-03-31 Qualcomm Incorporated Low-complexity sign prediction for video coding
WO2018113658A1 (en) 2016-12-22 2018-06-28 Mediatek Inc. Method and apparatus of motion refinement for video coding
CN110140355B (zh) * 2016-12-27 2022-03-08 联发科技股份有限公司 用于视频编解码的双向模板运动向量微调的方法及装置
US20190387234A1 (en) 2016-12-29 2019-12-19 Peking University Shenzhen Graduate School Encoding method, decoding method, encoder, and decoder
US10931969B2 (en) 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US11051033B2 (en) 2017-01-04 2021-06-29 Samsung Electronics Co., Ltd. Video decoding method and apparatus and video encoding method and apparatus
US20180199057A1 (en) 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
US10701366B2 (en) 2017-02-21 2020-06-30 Qualcomm Incorporated Deriving motion vector information at a video decoder
US10523964B2 (en) 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US11109062B2 (en) 2017-03-16 2021-08-31 Mediatek Inc. Method and apparatus of motion refinement based on bi-directional optical flow for video coding
US11277635B2 (en) 2017-03-17 2022-03-15 Vid Scale, Inc. Predictive coding for 360-degree video based on geometry padding
US10595035B2 (en) 2017-03-22 2020-03-17 Qualcomm Incorporated Constraining motion vector information derived by decoder-side motion vector derivation
CN117255196A (zh) 2017-03-22 2023-12-19 韩国电子通信研究院 基于块形式的预测方法和装置
US10491917B2 (en) 2017-03-22 2019-11-26 Qualcomm Incorporated Decoder-side motion vector derivation
US11496747B2 (en) 2017-03-22 2022-11-08 Qualcomm Incorporated Intra-prediction mode propagation
TW201902223A (zh) 2017-03-24 2019-01-01 聯發科技股份有限公司 視頻編碼中重疊分塊運動補償的雙向光流的方法和裝置
EP3383045A1 (en) 2017-03-27 2018-10-03 Thomson Licensing Multiple splits prioritizing for fast encoding
US10805650B2 (en) 2017-03-27 2020-10-13 Qualcomm Incorporated Signaling important video information in network video streaming using mime type parameters
WO2018193968A1 (ja) 2017-04-19 2018-10-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US20180310017A1 (en) 2017-04-21 2018-10-25 Mediatek Inc. Sub-prediction unit temporal motion vector prediction (sub-pu tmvp) for video coding
KR102409430B1 (ko) 2017-04-24 2022-06-15 에스케이텔레콤 주식회사 움직임 보상을 위한 옵티컬 플로우 추정 방법 및 장치
US10711644B2 (en) 2017-04-24 2020-07-14 Raytheon Technologies Corporation Method and system to ensure full oil tubes after gas turbine engine shutdown
US10805630B2 (en) 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
US10638126B2 (en) 2017-05-05 2020-04-28 Qualcomm Incorporated Intra reference filter for video coding
US10701393B2 (en) 2017-05-10 2020-06-30 Mediatek Inc. Method and apparatus of reordering motion vector prediction candidate set for video coding
KR102351029B1 (ko) 2017-05-16 2022-01-13 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN117294839A (zh) 2017-05-17 2023-12-26 株式会社Kt 用于解码视频的方法和用于传输压缩的视频数据的设备
US11700391B2 (en) 2017-05-18 2023-07-11 Hfi Innovation Inc. Method and apparatus of motion vector constraint for video coding
US10523934B2 (en) 2017-05-31 2019-12-31 Mediatek Inc. Split based motion vector operation reduction
WO2018236028A1 (ko) 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10757420B2 (en) 2017-06-23 2020-08-25 Qualcomm Incorporated Combination of inter-prediction and intra-prediction in video coding
US10904565B2 (en) 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
US10477237B2 (en) 2017-06-28 2019-11-12 Futurewei Technologies, Inc. Decoder side motion vector refinement in video coding
CA3068393A1 (en) 2017-06-30 2019-01-03 Sharp Kabushiki Kaisha Systems and methods for geometry-adaptive block partitioning of a picture into video blocks for video coding
WO2019001741A1 (en) 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
CN110832858B (zh) 2017-07-03 2023-10-13 Vid拓展公司 用于视频编解码的设备、方法
EP3657789A4 (en) 2017-07-17 2020-12-16 Industry - University Cooperation Foundation Hanyang University METHOD AND DEVICE FOR CODING / DECODING AN IMAGE
CN107360419B (zh) 2017-07-18 2019-09-24 成都图必优科技有限公司 一种基于透视模型的运动前视视频帧间预测编码方法
WO2019059676A1 (ko) 2017-09-20 2019-03-28 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US10785494B2 (en) 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US10986360B2 (en) 2017-10-16 2021-04-20 Qualcomm Incorproated Various improvements to FRUC template matching
CN111434109A (zh) 2017-11-28 2020-07-17 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
CN107896330B (zh) 2017-11-29 2019-08-13 北京大学深圳研究生院 一种用于帧内和帧间预测的滤波方法
US11057640B2 (en) 2017-11-30 2021-07-06 Lg Electronics Inc. Image decoding method and apparatus based on inter-prediction in image coding system
CN107995489A (zh) 2017-12-20 2018-05-04 北京大学深圳研究生院 一种用于p帧或b帧的帧内帧间组合预测方法
WO2019131807A1 (en) 2017-12-29 2019-07-04 Sharp Kabushiki Kaisha Systems and methods for partitioning video blocks for video coding
WO2019135558A1 (ko) * 2018-01-02 2019-07-11 삼성전자 주식회사 비디오 복호화 방법 및 장치, 비디오 부호화 방법 및 장치
US11172229B2 (en) 2018-01-12 2021-11-09 Qualcomm Incorporated Affine motion compensation with low bandwidth
US11368676B2 (en) 2018-01-16 2022-06-21 Vid Scale, Inc. Motion compensated bi-prediction based on local illumination compensation
US11265551B2 (en) 2018-01-18 2022-03-01 Qualcomm Incorporated Decoder-side motion vector derivation
US11310526B2 (en) 2018-01-26 2022-04-19 Mediatek Inc. Hardware friendly constrained motion vector refinement
WO2019151257A1 (en) 2018-01-30 2019-08-08 Sharp Kabushiki Kaisha Systems and methods for deriving quantization parameters for video blocks in video coding
KR20230104771A (ko) 2018-02-28 2023-07-10 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
US20190306502A1 (en) 2018-04-02 2019-10-03 Qualcomm Incorporated System and method for improved adaptive loop filtering
WO2019192491A1 (en) 2018-04-02 2019-10-10 Mediatek Inc. Video processing methods and apparatuses for sub-block motion compensation in video coding systems
US10779002B2 (en) 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
WO2019234613A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Partition tree with partition into 3 sub-blocks by horizontal and vertical splits
WO2019234673A1 (en) 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Chroma dmvr
WO2019244118A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Component-dependent sub-block dividing
WO2019244116A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Border partition in video coding
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
JP7414742B2 (ja) 2018-06-27 2024-01-16 ヴィド スケール インコーポレイテッド デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置
KR102648120B1 (ko) 2018-06-29 2024-03-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 슬라이스/타일/lcu 행마다의 룩업 테이블 리셋
KR20210024487A (ko) 2018-07-01 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 효율적인 아핀 병합 모션 벡터 유도
TWI719519B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 對於dmvr的塊尺寸限制
US10911768B2 (en) 2018-07-11 2021-02-02 Tencent America LLC Constraint for template matching in decoder side motion derivation and refinement
CN117294852A (zh) 2018-07-15 2023-12-26 北京字节跳动网络技术有限公司 跨分量编解码顺序导出
WO2020017840A1 (ko) 2018-07-16 2020-01-23 엘지전자 주식회사 Dmvr에 기반하여 인터 예측을 수행하는 방법 및 장치
US10911751B2 (en) 2018-09-14 2021-02-02 Tencent America LLC Method and apparatus for video coding
CN112889278B (zh) * 2018-09-17 2024-04-05 三星电子株式会社 用于编码和解码运动信息的方法及用于编码和解码运动信息的装置
WO2020065518A1 (en) 2018-09-24 2020-04-02 Beijing Bytedance Network Technology Co., Ltd. Bi-prediction with weights in video coding and decoding
CN111010569B (zh) 2018-10-06 2023-02-28 北京字节跳动网络技术有限公司 Bio中的时间梯度计算的改善
WO2020076097A1 (ko) * 2018-10-10 2020-04-16 삼성전자주식회사 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
CN112823513A (zh) 2018-10-12 2021-05-18 英迪股份有限公司 图像编码/解码方法和装置
CN112956197A (zh) 2018-10-22 2021-06-11 北京字节跳动网络技术有限公司 基于编解码信息的解码器侧运动矢量推导的限制
WO2020084465A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Simplified coding of generalized bi-directional index
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
CN111083491A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 细化运动矢量的利用
CN109191514B (zh) 2018-10-23 2020-11-24 北京字节跳动网络技术有限公司 用于生成深度检测模型的方法和装置
CN112970259A (zh) 2018-11-05 2021-06-15 北京字节跳动网络技术有限公司 视频处理中具有细化的帧间预测
CN112997489B (zh) 2018-11-06 2024-02-06 北京字节跳动网络技术有限公司 具有几何分割的帧间预测的边信息信令
IL307307A (en) 2018-11-08 2023-11-01 Guangdong Oppo Mobile Telecommunications Corp Ltd A method of encoding/decoding an image signal and a device for it
WO2020098643A1 (en) 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Simplification of combined inter-intra prediction
US20210377553A1 (en) 2018-11-12 2021-12-02 Interdigital Vc Holdings, Inc. Virtual pipeline for video encoding and decoding
KR20210089149A (ko) 2018-11-16 2021-07-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인터 및 인트라 통합 예측 모드 가중치
CN113039796B (zh) * 2018-11-17 2023-09-19 北京字节跳动网络技术有限公司 视频处理中的广义双向预测模式
EP3861742A4 (en) * 2018-11-20 2022-04-13 Beijing Bytedance Network Technology Co., Ltd. DIFFERENCE CALCULATION BASED ON SPATIAL POSITION
CN113170171B (zh) 2018-11-20 2024-04-12 北京字节跳动网络技术有限公司 组合帧间帧内预测模式的预测细化
EP3657794A1 (en) * 2018-11-21 2020-05-27 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
CN111294590A (zh) 2018-12-06 2020-06-16 华为技术有限公司 用于多假设编码的加权预测方法及装置
JP7317965B2 (ja) 2018-12-07 2023-07-31 北京字節跳動網絡技術有限公司 コンテキストベースのイントラ予測
CN111010581B (zh) 2018-12-07 2022-08-12 北京达佳互联信息技术有限公司 运动矢量信息的处理方法、装置、电子设备及存储介质
WO2020130680A1 (ko) 2018-12-19 2020-06-25 엘지전자 주식회사 인트라 예측을 사용하여 비디오 신호를 처리하기 위한 방법 및 장치
US10855992B2 (en) 2018-12-20 2020-12-01 Alibaba Group Holding Limited On block level bi-prediction with weighted averaging
CN113228682A (zh) 2018-12-27 2021-08-06 夏普株式会社 预测图像生成装置、运动图像解码装置、运动图像编码装置以及预测图像生成方法
WO2020140874A1 (en) 2019-01-02 2020-07-09 Huawei Technologies Co., Ltd. A hardware and software friendly system and method for decoder-side motion vector refinement with decoder-side bi-predictive optical flow based per-pixel correction to bi-predictive motion compensation
CN113613019B (zh) 2019-01-06 2022-06-07 北京达佳互联信息技术有限公司 视频解码方法、计算设备和介质
WO2020149648A1 (ko) 2019-01-15 2020-07-23 엘지전자 주식회사 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치
WO2020147747A1 (en) * 2019-01-15 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Weighted prediction in video coding
US10958904B2 (en) 2019-02-01 2021-03-23 Tencent America LLC Method and apparatus for video coding
WO2020167097A1 (ko) 2019-02-15 2020-08-20 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측을 위한 인터 예측 타입 도출
US11178414B2 (en) * 2019-02-27 2021-11-16 Mediatek Inc. Classification for multiple merge tools
WO2020177756A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Size dependent inter coding
KR20220112864A (ko) 2019-03-15 2022-08-11 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 양방향 광 흐름을 위한 비트-폭 제어를 위한 방법 및 디바이스
EP3922014A4 (en) 2019-04-02 2022-04-06 Beijing Bytedance Network Technology Co., Ltd. DECODER SIDE MOTION VECTOR BYPASS
CN114128293A (zh) 2019-06-21 2022-03-01 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法和解码方法
US11330287B2 (en) * 2019-06-28 2022-05-10 Tencent America LLC Method and apparatus for video coding
US11272203B2 (en) * 2019-07-23 2022-03-08 Tencent America LLC Method and apparatus for video coding
CN110267045B (zh) 2019-08-07 2021-09-24 杭州微帧信息科技有限公司 一种视频处理及编码的方法、装置及可读存储介质
KR20220061247A (ko) 2019-09-29 2022-05-12 에이치에프아이 이노베이션 인크. 비디오 코딩을 위한 상이한 크로마 형식들을 사용한 결합된 인터 및 인트라 예측의 방법 및 장치
US11405628B2 (en) * 2020-04-06 2022-08-02 Tencent America LLC Method and apparatus for video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020186119A1 (en) * 2019-03-12 2020-09-17 Beijing Dajia Internet Information Technology Co., Ltd. Constrained and adjusted applications of combined inter- and intra-prediction mode

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS, JIANLE CHEN, AND SHAN LIU: "Versatile Video Coding (Draft 7)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-P2001-vE (version 14), JPN6022017466, 14 November 2019 (2019-11-14), ISSN: 0004769259 *
SEMIH ESENLIK, ET AL.: "CE9: DMVR with Bilateral Matching (Test2.9)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-K0217_v1, JPN6022017465, July 2018 (2018-07-01), pages 1 - 5, ISSN: 0004983935 *
XIAOYU XIU, ET AL.: "CE10-related: Simplification on combined inter and intra prediction (CIIP)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0327_r1, JPN6022005158, March 2019 (2019-03-01), pages 1 - 5, ISSN: 0004983936 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11889108B2 (en) 2018-10-22 2024-01-30 Beijing Bytedance Network Technology Co., Ltd Gradient computation in bi-directional optical flow

Also Published As

Publication number Publication date
US20210144400A1 (en) 2021-05-13
US20220086481A1 (en) 2022-03-17
CN113056914A (zh) 2021-06-29
CN113056914B (zh) 2024-03-01
US11956465B2 (en) 2024-04-09
CN117319644A (zh) 2023-12-29
KR20210091161A (ko) 2021-07-21
EP3861742A1 (en) 2021-08-11
WO2020103852A1 (en) 2020-05-28
EP3861742A4 (en) 2022-04-13
JP7241870B2 (ja) 2023-03-17

Similar Documents

Publication Publication Date Title
JP7241870B2 (ja) 部分的な位置に基づく差分計算
US11889108B2 (en) Gradient computation in bi-directional optical flow
JP7417670B2 (ja) 部分的コスト計算
WO2020147747A1 (en) Weighted prediction in video coding
US11641467B2 (en) Sub-block based prediction
KR102662449B1 (ko) 디코더 측 정제 툴들의 크기 선택 적용
WO2020147805A1 (en) Deblocking filtering using motion prediction
WO2020084507A1 (en) Harmonized local illumination compensation and modified inter prediction coding
WO2020147745A1 (en) Motion candidate lists that use local illumination compensation
WO2020084461A1 (en) Restrictions on decoder side motion vector derivation based on coding information
WO2020084509A1 (en) Harmonized local illumination compensation and modified inter coding tools
JP2023145563A (ja) 異なる動きベクトル微調整における勾配計算
CN113141783A (zh) 用于多重假设的帧内预测
CN110944183B (zh) 在帧间模式下利用非子块空时运动矢量预测
WO2020089822A1 (en) Overlapped block motion compensation with derived motion information from neighbors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210512

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230111

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150