JP2022522217A - 双方向オプティカル・フローに対するビット幅制御方法およびデバイス - Google Patents

双方向オプティカル・フローに対するビット幅制御方法およびデバイス Download PDF

Info

Publication number
JP2022522217A
JP2022522217A JP2021555567A JP2021555567A JP2022522217A JP 2022522217 A JP2022522217 A JP 2022522217A JP 2021555567 A JP2021555567 A JP 2021555567A JP 2021555567 A JP2021555567 A JP 2021555567A JP 2022522217 A JP2022522217 A JP 2022522217A
Authority
JP
Japan
Prior art keywords
prediction sample
sample
value
correlation value
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021555567A
Other languages
English (en)
Other versions
JP7100772B2 (ja
Inventor
シウ、シャオユー
チェン、イ-ウェン
ワン、シャンリン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Publication of JP2022522217A publication Critical patent/JP2022522217A/ja
Priority to JP2022106654A priority Critical patent/JP7355894B2/ja
Application granted granted Critical
Publication of JP7100772B2 publication Critical patent/JP7100772B2/ja
Priority to JP2023156482A priority patent/JP2023169341A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本開示は、ビデオ信号を符号化するための双方向オプティカル・フロー(BDOF)のビット幅制御方法に関する。この方法は、ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することと、第1の参照ピクチャI(0)内の参照ブロックから、ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することと、第2の参照ピクチャI(1)内の参照ブロックから、ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することと、中間パラメータの内部ビット幅を導出することによって、BDOFの内部ビット幅を制御することと、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)に基づいてビデオ・ブロックに適用されるBDOFに基づいて、ビデオ・ブロック内のサンプルに対する動き補正を取得することと、動き補正に基づいて、ビデオ・ブロックの双方向予測サンプルを取得することとを含む。

Description

関連出願の相互参照
本出願は、すべての内容が全体として参照により本明細書に組み込まれている、2019年3月15日出願の米国仮特許出願第62/819,408号に基づいており、その優先権を主張する。
本出願は、ビデオの符号化および圧縮に関する。より詳細には、本開示は、ビデオ符号化のための双方向オプティカル・フロー(BDOF)方法に対する方法および装置に関する。
ビデオ・データを圧縮するために、様々なビデオ符号化技法を使用することができる。ビデオ符号化は、1つまたは複数のビデオ符号化規格に従って実行される。たとえば、ビデオ符号化規格には、多用途ビデオ符号化(VVC)、共同探索試験モデル符号化(JEM)、高効率ビデオ符号化(H.265/HEVC)、高度ビデオ符号化(H.264/AVC)、ムービング・ピクチャ・エキスパート・グループ(MPEG)符号化などが含まれる。ビデオ符号化は概して、ビデオ画像またはシーケンスに存在する冗長性を利用する予測方法(たとえば、インター予測、イントラ予測など)を利用する。ビデオ符号化技法の重要な目標は、ビデオ品質の劣化を回避または最小化しながら、より低いビット・レートを使用する形式にビデオ・データを圧縮することである。
本開示の例は、双方向オプティカル・フロー(BDOF)に対するビット幅制御のための方法および装置を提供する。本開示の第1の態様によれば、ビデオ信号を符号化するビット幅制御方法が提供される。この方法は、ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することを含むことができる。表示順で、第1の参照ピクチャI(0)は、現在のピクチャの前にくることができ、第2の参照ピクチャI(1)は、現在のピクチャの後にくることができる。この方法は、第1の参照ピクチャI(0)内の参照ブロックから、ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することをさらに含むことができる。iおよびjの変数は、現在のピクチャに対する1つのサンプルの座標を表すことができる。この方法は、第2の参照ピクチャI(1)内の参照ブロックから、ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することをさらに含むことができる。この方法は、中間パラメータの内部ビット幅を導出することによって、BDOFの内部ビット幅を制御することをさらに含むことができる。中間パラメータは、第1の予測サンプルI(0)(i,j)と第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える中間パラメータを含むことができる。この方法は、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)に基づいてビデオ・ブロックに適用されるBDOFに基づいて、ビデオ・ブロック内のサンプルに対する動き補正を取得することをさらに含むことができる。この方法は、動き補正に基づいて、ビデオ・ブロックの双方向予測サンプルを取得することをさらに含むことができる。
本開示の第2の態様によれば、ビデオ信号を符号化するビット幅制御方法が提供される。この方法は、ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することを含むことができる。表示順で、第1の参照ピクチャI(0)は、現在のピクチャの前にくることができ、第2の参照ピクチャI(1)は、現在のピクチャの後にくることができる。この方法は、第1の参照ピクチャI(0)内の参照ブロックから、ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することを含むことができる。iおよびjの変数は、現在のピクチャに対する1つのサンプルの座標を表すことができる。この方法は、第2の参照ピクチャI(1)内の参照ブロックから、ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することを含むことができる。この方法は、中間パラメータの内部ビット幅を導出することによって、BDOFの内部ビット幅を制御することを含むことができる。中間パラメータは、第1の予測サンプルI(0)(i,j)と第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える中間パラメータを含むことができる。この方法は、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)を使用してビデオ・ブロックに適用されるBDOFおよび局所ウィンドウに基づいて、ビデオ・ブロック内のサンプルに対する動き補正を取得することを含むことができる。局所ウィンドウは、ビデオ・ブロックを含み、局所ウィンドウは、6×6画素未満のウィンドウ・サイズを有する。この方法は、動き補正に基づいて、ビデオ・ブロックの双方向予測サンプルを取得することを含むことができる。
本開示の第3の態様によれば、コンピューティング・デバイスが提供される。コンピューティング・デバイスは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行可能な命令を記憶する非一時的コンピュータ可読メモリとを含むことができる。1つまたは複数のプロセッサは、ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得するように構成されてもよい。表示順で、第1の参照ピクチャI(0)は、現在のピクチャの前にくることができ、第2の参照ピクチャI(1)は、現在のピクチャの後にくることができる。1つまたは複数のプロセッサは、第1の参照ピクチャI(0)内の参照ブロックから、ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得するように構成されてもよい。iおよびjの変数は、現在のピクチャに対する1つのサンプルの座標を表すことができる。1つまたは複数のプロセッサは、第2の参照ピクチャI(1)内の参照ブロックから、ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得するように構成されてもよい。1つまたは複数のプロセッサは、中間パラメータの内部ビット幅を導出することによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御するように構成されてもよい。中間パラメータは、第1の予測サンプルI(0)(i,j)と第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える。1つまたは複数のプロセッサは、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)に基づいてビデオ・ブロックに適用されるBDOFに基づいて、ビデオ・ブロック内のサンプルに対する動き補正を取得するように構成されてもよい。1つまたは複数のプロセッサは、動き補正に基づいてビデオ・ブロックの双方向予測サンプルを取得するように構成されてもよい。
本開示の第4の態様によれば、コンピューティング・デバイスが提供される。コンピューティング・デバイスは、1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行可能な命令を記憶する非一時的コンピュータ可読メモリとを含むことができる。1つまたは複数のプロセッサは、ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得するように構成されてもよい。表示順で、第1の参照ピクチャI(0)は、現在のピクチャの前にくることができ、第2の参照ピクチャI(1)は、現在のピクチャの後にくることができる。1つまたは複数のプロセッサは、第1の参照ピクチャI(0)内の参照ブロックから、ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得するように構成されてもよい。iおよびjの変数は、現在のピクチャに対する1つのサンプルの座標を表すことができる。1つまたは複数のプロセッサは、第2の参照ピクチャI(1)内の参照ブロックから、ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得するように構成されてもよい。1つまたは複数のプロセッサは、中間パラメータの内部ビット幅を導出することによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御するように構成されてもよい。中間パラメータは、第1の予測サンプルI(0)(i,j)と第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える中間パラメータを含むことができる。1つまたは複数のプロセッサは、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)を使用してビデオ・ブロックに適用されるBDOFおよび局所ウィンドウに基づいて、ビデオ・ブロック内のサンプルに対する動き補正を取得するように構成されてもよい。局所ウィンドウは、サブブロックを含むことができ、局所ウィンドウは、6×6画素のウィンドウ・サイズを有することができる。1つまたは複数のプロセッサは、動き補正に基づいてビデオ・ブロックの双方向予測サンプルを取得するように構成されてもよい。
上記の概略的な説明および下記の詳細な説明はどちらも単なる例であり、本開示を制限するものではないことを理解されたい。
本明細書に組み込まれてその一部を構成する添付の図面は、本開示に一貫した例を示し、本説明とともに、本開示の原理について説明する働きをする。
本開示の一例によるエンコーダのブロック図である。 本開示の一例によるデコーダのブロック図である。 本開示の一例による複数タイプのツリー構造内のブロック区画を示す図である。 本開示の一例による複数タイプのツリー構造内のブロック区画を示す図である。 本開示の一例による複数タイプのツリー構造内のブロック区画を示す図である。 本開示の一例による複数タイプのツリー構造内のブロック区画を示す図である。 本開示の一例による複数タイプのツリー構造内のブロック区画を示す図である。 本開示の一例による双方向オプティカル・フロー(BDOF)モデルの図である。 本開示の一例によるビデオ信号を符号化するビット幅制御方法を示す流れ図である。 本開示の一例によるBDOFビット幅制御方法を示す流れ図である。 本開示の一例によるユーザ・インターフェースに結合されたコンピューティング環境を示す図である。
例示的な実施形態が次に詳細に参照され、例示的な実施形態の例は、添付の図面に示されている。以下の説明は、添付の図面を参照し、添付の図面では、別途示されない限り、異なる図面における同じ番号は、同じまたは類似の要素を表す。実施形態の以下の説明に記載される実装形態は、本開示に一貫したすべての実装形態を表すとは限らない。代わりに、これらの実装形態は、添付の特許請求の範囲に記載される本開示に関する態様に一貫した装置および方法の単なる例である。
本開示で使用される術語は、特定の実施形態について説明することのみを目的とし、本開示を限定することは意図されない。本開示および添付の特許請求の範囲で使用されるとき、単数形の「a」、「an」、および「the」は、文脈上別途明確に示さない限り、複数形も同様に含むことが意図される。本明細書で使用される「および/または」という用語は、記載される関連する項目のうちの1つまたは複数のあらゆる可能な組合せを意味し、それらを含むことが意図されることも理解されたい。
様々な情報について説明するために、「第1」、「第2」、「第3」などの用語を本明細書で使用することがあるが、その情報はこれらの用語によって限定されるべきではないことを理解されたい。これらの用語は、1つのカテゴリの情報を別のカテゴリの情報から区別するためだけに使用される。たとえば、本開示の範囲から逸脱することなく、第1の情報が第2の情報と呼ばれてもよく、同様に第2の情報が第1の情報と呼ばれてもよい。本明細書では、「~場合、~かどうか(if)」という用語は、文脈に応じて、「~とき(when)」または「~とき(upon)」または「~の判断に応答して(in response to a judgment)」を意味することが理解されよう。
HEVC規格の最初のバージョンは、2013年10月に完成されたものであり、前の世代のビデオ符号化規格H.264/MPEG AVCと比較されたとき、約50%のビット・レートの節約または同等の知覚品質を提供する。HEVC規格は、その前身に比べて大幅な符号化の改善を提供するが、追加の符号化ツールによって、HEVCより優れた符号化効率が実現されることができることが証明されている。それに基づいて、VCEGおよびMPEGはどちらも、将来のビデオ符号化の規格化に向けて、新しい符号化技術の探索作業を開始した。2015年10月、符号化効率の実質的な強化を可能にし得る高度な技術の重要な研究を開始するために、ITU-T VECGおよびISO/IEC MPEGによって、1つの共同ビデオ探索チーム(JVET)が結成された。JVETにより、HEVC試験モデル(HM)に加えていくつかの追加の符号化ツールを統合することによって、共同探索モデル(JEM)と呼ばれる1つの参照ソフトウェアが主張された。
2017年10月、HEVCを超えた能力を有するビデオ圧縮に関するジョイント・コール・フォー・プロポーザルズ(CfP)が、ITU-TおよびISO/IECによって発表された[9]。2018年4月、23件のCfP応答が受理されて第10回JVET会議で評価され、HEVCに比べて約40%の圧縮効率の向上を実証した。そのような評価結果に基づいて、JVETは、多用途ビデオ符号化(VVC)と呼ばれる新世代のビデオ符号化規格を開発するための新しいプロジェクトに着手した[10]。同月、VVC規格の参照実装を実証するために、VVC試験モデル(VTM)[11]と呼ばれる1つの参照ソフトウェア・コードベースが確立された。
HEVCと同様に、VVCは、ブロックに基づく混成ビデオ符号化フレームワークで構築される。図1は、汎用のブロックに基づく混成ビデオ・コード化システムのブロック図を示す。入力ビデオ信号は、ブロック(符号化単位(CU)と呼ばれる)ごとに処理される。具体的には、図1は、本開示による典型的なエンコーダ100を示す。エンコーダ100は、ビデオ入力110、動き補償112、動き推定114、イントラ/インター・モード決定116、ブロック予測子140、加算器128、変換130、量子化132、予測関係情報142、イントラ予測118、ピクチャ・バッファ120、逆量子化134、逆変換136、加算器126、メモリ124、ループ内フィルタ122、エントロピー符号化138、およびビットストリーム144を有する。
VTM-1.0において、CUは最大128×128画素とすることができる。しかし、4分木のみに基づいてブロックを分割するHEVCとは異なり、VVCでは、4分木/2分木/3分木に基づいて変動する局所的な特徴に適応するために、1つの符号化ツリー単位(CTU)が複数のCUに分割される。加えて、HEVCにおける複数の分割単位タイプの概念は除去され、すなわちCU、予測単位(PU)、および変換単位(TU)の分離はVVCには存在しなくなり、代わりに各CUは常に、さらなる分割なく、予測および変換の両方に対する基本単位として使用される。複数タイプのツリー構造では、最初に1つのCTUが4分木構造によって分割される。次いで各4分木の葉ノードは、2分木および3分木構造によってさらに分割されることがある。
図3A、図3B、図3C、図3D、および図3E(後述)に示されているように、4分割、水平2分割、垂直2分割、水平3分割、および垂直3分割という5つの分割タイプが存在する。
図3Aは、本開示による複数タイプのツリー構造におけるブロックの4分割を示す図を示す。
図3Bは、本開示による複数タイプのツリー構造におけるブロックの垂直2分割を示す図を示す。
図3Cは、本開示による複数タイプのツリー構造におけるブロックの水平2分割を示す図を示す。
図3Dは、本開示による複数タイプのツリー構造におけるブロックの垂直3分割を示す図を示す。
図3Eは、本開示による複数タイプのツリー構造におけるブロックの水平3分割を示す図を示す。
図1で、空間予測および/または時間予測が実行されてもよい。空間予測(または「イントラ予測」)は、同じビデオ・ピクチャ/スライス内のすでに符号化された隣接ブロックのサンプル(参照サンプルと呼ばれる)からの画素を使用して、現在のビデオ・ブロックを予測する。空間予測は、ビデオ信号に固有の空間的冗長性を低減させる。時間予測(「インター予測」または「動き補償予測」とも呼ばれる)は、すでに符号化されたビデオ・ピクチャからの再構築画素を使用して、現在のビデオ・ブロックを予測する。時間予測は、ビデオ信号に固有の時間的冗長性を低減させる。所与のCUに対する時間予測信号は通常、現在のCUとその時間参照との間の動きの量および方向を示す1つまたは複数の動きベクトル(MV)によって伝えられる。
また、複数の参照ピクチャが対応される場合、1つの参照ピクチャ索引がさらに送られ、参照ピクチャ・ストレージ内のどの参照ピクチャから時間予測信号がくるかを識別するために使用される。空間および/または時間予測後、エンコーダ内のモード決定ブロックが、たとえばレート歪み最適化方法に基づいて、最善の予測モードを選ぶ。次いで、現在のビデオ・ブロックから予測ブロックが引かれ、変換を使用して予測残差の相関が除去され、量子化される。
量子化された残差係数は、逆量子化および逆変換されて、再構築残差を形成し、次いで再構築残差は、予測ブロックに再び付加さられ、CUの再構築信号を形成する。さらに、非ブロック化フィルタ、サンプル適応オフセット(SAO)、および適応ループ内フィルタ(ALF)などのループ内フィルタリングが、再構築CUに適用されてもよく、その後、参照ピクチャ・ストアに入れられ、将来のビデオ・ブロックを符号化するために使用される。出力ビデオ・ビットストリームを形成するために、符号化モード(インターまたはイントラ)、予測モード情報、動き情報、および量子化残差係数はすべてエントロピー符号化ユニットへ送られ、さらに圧縮およびパックされ、ビットストリームを形成する。
図2は、ブロックに基づくビデオ・デコーダの概略ブロック図を示す。具体的には、図2は、本開示による典型的なデコーダ200のブロック図を示す。デコーダ200は、ビットストリーム210、エントロピー復号212、逆量子化214、逆変換216、加算器218、イントラ/インター・モード選択220、イントラ予測222、メモリ230、ループ内フィルタ228、動き補償224、ピクチャ・バッファ226、予測関係情報234、およびビデオ出力232を有する。
図2で、最初にビデオ・ビットストリームがエントロピー復号ユニットでエントロピー復号される。符号化モードおよび予測情報は、空間予測ユニット(イントラ符号化の場合)または時間予測ユニット(インター符号化の場合)へ送られて、予測ブロックを形成する。残差変換係数が、逆量子化ユニットおよび逆変換ユニットへ送られて、残差ブロックを再構築する。次いで、予測ブロックおよび残差ブロックがともに加算される。再構築ブロックは、ループ内フィルタをさらに通過することができ、その後、参照ピクチャ・ストア内に記憶される。次いで、参照ピクチャ・ストア内の再構築ビデオは、表示デバイスを駆動するために送出され、ならびに将来のビデオ・ブロックを予測するために使用される。
双方向オプティカル・フロー
ビデオ符号化における従来の双方向予測は、すでに再構築された参照ピクチャから取得される2つの時間予測ブロックの簡単な組合せである。しかし、ブロックに基づく動き補償の制限により、2つの予測ブロックのサンプル間で観察されることができるわずかな動きが残る可能性があり、したがって動き補償予測の効率を低減させる。VVCでは、1つのブロック内のすべてのサンプルに対するそのような動きの影響を減少させるために、双方向オプティカル・フロー(BDOF)が適用される。
図4は、本開示による双方向オプティカル・フロー(BDOF)モデルの例示を示す。BDOFは、双方向予測が使用されるときにブロックに基づく動き補償予測に加えて実行されるサンプルごとの動き補正である。各4×4サブブロックの動き補正(v,v)は、サブブロックの周りの1つの6×6ウィンドウΩ内でBDOFが適用された後、L0およびL1予測サンプル間の差を最小化することによって計算される。具体的には、(v,v)の値は、
Figure 2022522217000002
として導出され、上式で、
Figure 2022522217000003
は床関数であり、clip3(min,max,x)は、[min,max]で範囲内の所与の値xをクリッピングする関数であり、記号>>は、ビットごとの右シフト動作を表し、記号<<は、ビットごとの左シフト動作を表し、thBDOFは、不規則な局所的動きによる伝搬誤差を防止するための動き補正閾値であり、213-BDに等しく、ここでBDは、入力ビデオのビット深さである。(1)で、
Figure 2022522217000004
である。
、S、S、S、およびSの値は、
Figure 2022522217000005
として計算され、上式で、
Figure 2022522217000006
であり、上式で、I(k)(i,j)は、リストk,k=0,1における予測信号の座標(i,j)のサンプル値であり、中程度の精度(すなわち、16ビット)で生成され、
Figure 2022522217000007
および
Figure 2022522217000008
は、その2つの隣接サンプル間の差を直接計算することによって取得されるサンプルの水平および垂直勾配であり、すなわち、
Figure 2022522217000009
である。
(1)で導出された動き補正に基づいて、
Figure 2022522217000010
によって示されるように、オプティカル・フロー・モデルに基づいて動き軌道に沿ってL0/L1予測サンプルを補間することによって、CUの最終的な双方向予測サンプルが計算され、上式で、shiftおよびοoffsetは、双方向予測のためにL0およびL1予測信号を組み合わせるために適用される右シフト値およびオフセット値であり、それぞれ15-BDおよび1<<(14-BD)+2・(1<<13)に等しい。表1は、BDOFプロセスに含まれる中間パラメータの特有のビット幅を示す。ビット幅は、たとえば、値を表すために必要なビットの数である。この表に示されているように、全BDOFプロセスの内部ビット幅は、32ビットを超えない。加えて、(1)において、考え得る最悪の入力による乗算が、15ビットおよび4ビット入力によって、v2,mの積で生じる。したがって、15ビットの乗数がBDOFにとって十分である。
Figure 2022522217000011
Figure 2022522217000012
双方向予測的予測の効率
BDOFは双方向予測的予測の効率を高めることができるが、依然としてその設計は、さらに改善されることができる。具体的には、VVCの既存のBDOF設計における中間パラメータのビット幅を制御することが、本開示で明らかにされる。
表1に示されているように、パラメータθ(i,j)(すなわち、L0およびL1予測サンプル間の差)、ならびにパラメータψ(i,j)およびψ(i,j)(すなわち、水平/垂直L0およびL1勾配値の和)が、11ビットの同じビット幅で表されている。そのような方法は、BDOFに対する内部ビット幅の全体的な制御を容易にすることができるが、導出された動き補正の精度に関して最適とは言えない。これは、(4)に示されているように、これらの勾配値が隣接予測サンプル間の差として計算されるからであり、そのようなプロセスのハイパス特性により、導出された勾配は、ノイズ、たとえば元のビデオで捕捉されるノイズおよび符号化プロセス中に生成される符号化ノイズの存在下で、信頼性が低くなる。これは、高ビット幅で勾配値を表すことが常に有益であるとは限らないことを意味する。
表1に示されているように、全BDOFプロセスの最大ビット幅の使用は、垂直動き補正vの計算によって生じ、ここで、最初にS(27ビット)が3ビットだけ左シフトされ、次いで((v2,m)<<12+v2,s)/2(30ビット)が引かれる。したがって、現在の設計の最大ビット幅は、31ビットに等しい。実際的なハードウェア実装では、通常、16ビットより大きい最大内部ビット幅による符号化プロセスが、32ビットの実装によって実施される。したがって、既存の設計は、32ビット実装の有効なダイナミック・レンジを完全には利用していない。これは、BDOFによって導出される動き補正の不必要な精度損失を招く可能性がある。
BDOFを使用した双方向予測的予測の効率の改善
本開示では、既存のBDOF設計に関する「双方向予測的予測の効率」の章で指摘されたビット幅制御方法の2つの問題に対処するために、1つの改善されたビット幅制御方法が提案される。
図5は、本開示によるビデオ信号を符号化するビット幅制御方法を示す。
ステップ510で、サブブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得する。表示順で、第1の参照ピクチャI(0)は、現在のピクチャの前にあり、第2の参照ピクチャI(1)は、現在のピクチャの後にある。たとえば、参照ピクチャは、コード化されている現在のピクチャに隣接するビデオ・ピクチャとすることができる。
ステップ512で、第1の参照ピクチャI(0)内の参照ブロックへのサブブロックから、第1の予測サンプルI(0)(i,j)を取得する。たとえば、第1の予測サンプルI(0)(i,j)は、表示順で前の参照ピクチャのL0リスト内の動きベクトルを使用する予測サンプルとすることができる。
ステップ514で、第2の参照ピクチャI(1)内の参照ブロックへのサブブロックから、第2の予測サンプルI(1)(i,j)を取得する。たとえば、第2の予測サンプルI(1)(i,j)は、表示順で次の参照ピクチャのL1リスト内の動きベクトルを使用する予測サンプルとすることができる。
ステップ516で、中間パラメータの内部ビット幅を変化させることによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御する。中間パラメータは、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)に基づいて導出された水平勾配値および垂直勾配値を含む。勾配値は、たとえば、その2つの隣接する予測サンプル(第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j))間の差である。
ステップ518で、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)を使用してサブブロックに適用されるBDOFに基づいて、動き補正値を取得する。
ステップ520で、動き補正値に基づいて、サブブロックの双方向予測サンプルを取得する。
本開示の一実施形態では、勾配推定誤差の負の影響を克服するために、(4)で勾配値
Figure 2022522217000013
および
Figure 2022522217000014
を計算するとき、すなわち勾配値の内部ビット幅を減少させるために、提案された方法において追加の右シフトngradが導入される。具体的には、各サンプル位置の水平および垂直勾配が、
Figure 2022522217000015
として計算される。
さらに、適当な内部ビット幅で動作させられるように、BDOFプロセス全体を制御するために、
Figure 2022522217000016
として示されるように、変数ψ(i,j)、ψ(i,j)、およびθ(i,j)の計算に、追加のビットシフトnadjが導入される。
表2で、(6)および(7)で適用される右シフトされるビットの数の修正により、3つのパラメータが同じダイナミック・レンジ(すなわち、21ビット)で表されている表1の既存のBDOF設計と比較されたとき、パラメータψ(i,j)、ψ(i,j)、およびθ(i,j)のダイナミック・レンジは異なる。そのような変化は、内部パラメータS、S、S、S、およびSのビット幅を増大させる可能性があり、それは場合により、内部BDOFプロセスの最大ビット幅を32ビットより大きく増大させる可能性がある。したがって、32ビット実装を確実にするために、SおよびSの値を計算する際に、2つの追加のクリッピング動作が導入される。具体的には、提案される方法において、これら2つのパラメータの値は、
Figure 2022522217000017
として計算され、上式で、BおよびBは、それぞれSおよびSの出力ダイナミック・レンジを制御するためのパラメータである。たとえば、ビット深さは、各画素を画定するために使用されるビットの数を表す。勾配計算とは異なり、(8)のクリッピング動作は、1つのBDOFのCU内の各4×4サブブロックの動き補正を計算するために一度だけ適用され、すなわち4×4単位に基づいて呼び出されることに留意されたい。したがって、提案される方法で導入されるクリッピング動作による対応する複雑さの増大は、非常にわずかである。
実際には、中間ビット幅と内部BDOF導出の精度との間で異なるトレードオフを実現するために、ngrad、nadj、B、およびBの異なる値が適用されてもよい。本開示の一実施形態として、ngradおよびnadjを2に、Bを25に、Bを27に設定することが提案される。本開示の一実施形態として、Bを26に、Bを28に設定することが提案される。本開示の一実施形態として、ngradおよびnadjを6、1、または4に設定することが提案される。
表2は、提案されるビット幅制御方法がBDOFに適用されるときの各中間パラメータの対応するビット幅を示す。表2で、灰色は、VVCの既存のBDOF設計(表1に示されている)と比較されたとき、提案されるビット幅制御方法で適用された変化を強調する。表2に見られ得るように、提案されるビット幅制御方法の場合、全BDOFプロセスの内部ビット幅は、32ビットを超えない。加えて、提案される設計によって、最大ビット幅はちょうど32ビットであり、32ビットのハードウェア実装の利用可能なダイナミック・レンジを完全に利用することができる。他方では、この表に示されているように、考え得る最悪の入力による乗算が、v2,mの積で生じ、入力S2,mは14ビットであり、入力vは6ビットである。したがって、既存のBDOF設計と同様に、提案される方法が適用されるときも、1つの16ビットの乗数は十分に大きい。
Figure 2022522217000018
Figure 2022522217000019
上記の方法では、vおよびvを導出するとき、中間パラメータのオーバーフローを回避するために、等式(8)に示されているように、クリッピング動作が加えられる。しかし、そのようなクリッピングは、相関関係パラメータが大きい局所ウィンドウ内に蓄積されているときにのみ必要とされる。1つの小さいウィンドウが適用されるとき、オーバーフローは起こり得ない。したがって、本開示の別の実施形態では、以下に記載されているように、クリッピングを使用しないBDOF方法に対して、以下のビット深さ制御方法が提案される。
第1に、各サンプル位置における(4)の勾配値
Figure 2022522217000020
および
Figure 2022522217000021
が、
Figure 2022522217000022
として計算される。
第2に、次いでBDOFプロセスに使用される相関関係パラメータψ(i,j)、ψ(i,j)、およびθ(i,j)が、
Figure 2022522217000023
として計算される。
第3に、S、S、S、S、およびSの値が、
Figure 2022522217000024
として計算される。
第4に、各4×4サブブロックの動き補正(v,v)が、
Figure 2022522217000025
として導出される。
第5に、
Figure 2022522217000026
によって示されているように、オプティカル・フロー・モデルに基づいて動き軌道に沿ってL0/L1予測サンプルを補間することによって、CUの最終的な双方向予測サンプルが計算される。
図6は、本開示による例示的なBDOFビット幅制御方法を示す。
ステップ610で、サブブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得する。表示順で、第1の参照ピクチャI(0)は、現在のピクチャ前にあり、第2の参照ピクチャI(1)は、現在のピクチャの後にある。
ステップ612で、第1の参照ピクチャI(0)内の参照ブロックへのサブブロックから、第1の予測サンプルI(0)(i,j)を取得する。
ステップ614で、第2の参照ピクチャI(1)内の参照ブロックへのサブブロックから、第2の予測サンプルI(1)(i,j)を取得する。
ステップ616で、導出された勾配値の内部ビット幅を変化させることによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御する。中間パラメータは、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)に基づいて導出された水平勾配値および垂直勾配値を含む。
ステップ618で、第1の予測サンプルI(0)(i,j)および第2の予測サンプルI(1)(i,j)を使用してサブブロックに適用されるBDOFおよび局所ウィンドウに基づいて、動き補正値を取得する。局所ウィンドウは、サブブロックを含み、局所ウィンドウは、6×6画素未満のウィンドウ・サイズを有する。
ステップ620で、動き補正値に基づいて、サブブロックの双方向予測サンプルを取得する。
図7は、ユーザ・インターフェース760に結合されたコンピューティング環境710を示す。コンピューティング環境710は、データ処理サーバの一部とすることができる。コンピューティング環境710は、プロセッサ720、メモリ740、およびI/Oインターフェース750を含む。
プロセッサ720は、典型的には、表示、データ取得、データ通信、および画像処理に関連する動作など、コンピューティング環境710の全体的な動作を制御する。プロセッサ720は、上述された方法のステップのすべてまたはいくつかを実施するための命令を実行するために、1つまたは複数のプロセッサを含むことができる。さらに、プロセッサ720は、プロセッサ720と他の構成要素との間の相互作用を容易にする1つまたは複数のモジュールを含むことができる。プロセッサは、中央演算処理装置(CPU)、マイクロプロセッサ、シングルチップ機械、GPUなどとすることができる。
メモリ740は、コンピューティング環境710の動作に対応するために、様々なタイプのデータを記憶するように構成される。そのようなデータの例は、コンピューティング環境710、ビデオ・データセット、画像データなどで動作させられるあらゆるアプリケーションまたは方法に関する命令を備える。メモリ740は、スタティック・ランダム・アクセス・メモリ(SRAM)、電気的に消去可能なプログラマブル読取り専用メモリ(EEPROM)、消去可能なプログラマブル読取り専用メモリ(EPROM)、プログラマブル読取り専用メモリ(PROM)、読取り専用目盛り(ROM)、磁気メモリ、フラッシュ・メモリ、磁気または光ディスクなど、任意のタイプの揮発性または不揮発性のメモリ・デバイス、またはこれらの組合せを使用することによって実施されてもよい。
I/Oインターフェース750は、プロセッサ720と、キーボード、クリック・ホイール、ボタンなどの周辺インターフェースモジュールとの間に、インターフェースを提供する。ボタンは、それだけに限定されるものではないが、ホーム・ボタン、走査開始ボタン、および走査停止ボタンを含むことができる。I/Oインターフェース750は、エンコーダおよびデコーダに結合されてもよい。
一実施形態では、上述された方法を実施するためにコンピューティング環境710内のプロセッサ720によって実行可能である、メモリ740内に備えられるものなどの複数のプログラムを備える非一時的コンピュータ可読記憶媒体も提供される。たとえば、非一時的コンピュータ可読記憶媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピー・ディスク、光学式データ記憶デバイスなどとすることができる。
非一時的コンピュータ可読記憶媒体は、1つまたは複数のプロセッサを有するコンピューティング・デバイスによる実行のための複数のプログラムを記憶しており、複数のプログラムは、1つまたは複数のプロセッサによって実行されたとき、BDOFに対するビット幅制御のための上述された方法を、コンピューティング・デバイスに実行させる。
一実施形態では、コンピューティング環境710は、上記の方法を実施するために、1つまたは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、グラフィカル処理ユニット(GPU)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または他の電子構成要素によって実施されてもよい。

Claims (22)

  1. ビデオ信号を符号化するための双方向オプティカル・フロー(BDOF)のビット幅制御方法であって、
    ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであり、表示順で、前記第1の参照ピクチャI(0)が、現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が、前記現在のピクチャの後にある、取得することと、
    前記第1の参照ピクチャI(0)内の参照ブロックから、前記ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することであり、iおよびjが、前記現在のピクチャに対する1つのサンプルの座標を表す、取得することと、
    前記第2の参照ピクチャI(1)内の参照ブロックから、前記ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することと、
    中間パラメータの内部ビット幅を導出することによって、前記BDOFの内部ビット幅を制御することであり、前記中間パラメータが、前記第1の予測サンプルI(0)(i,j)と前記第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える、制御することと、
    前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオ・ブロックに適用される前記BDOFに基づいて、前記ビデオ・ブロック内のサンプルに対する動き補正を取得することと、
    前記動き補正に基づいて、前記ビデオ・ブロックの双方向予測サンプルを取得することとを備える方法。
  2. 前記中間パラメータの前記内部ビット幅を導出することが、
    第1の予測サンプルI(0)(i+1,j)と第1の予測サンプルI(0)(i-1,j)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の水平勾配値を取得することと、
    第2の予測サンプルI(1)(i+1,j)と第2の予測サンプルI(1)(i-1,j)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の水平勾配値を取得することと、
    第1の予測サンプルI(0)(i,j+1)と第1の予測サンプルI(0)(i,j-1)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の垂直勾配値を取得することと、
    第2の予測サンプルI(1)(i,j+1)と第2の予測サンプルI(1)(i,j-1)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の垂直勾配値を取得することと、
    前記第1および第2の水平勾配値を第1のビットシフト値だけ右シフトすることと、
    前記第1および第2の垂直勾配値を前記第1のビットシフト値だけ右シフトすることとを備える、請求項1に記載の方法。
  3. 前記中間パラメータの前記内部ビット幅を導出することが、
    第1の相関関係値を取得することであり、前記第1の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記水平勾配値の和である、取得することと、
    第2の相関関係値を取得することであり、前記第2の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記垂直勾配値の和である、取得することと、
    第2のビットシフト値を使用して前記第1の相関関係値を右シフトすることによって、前記第1の相関関係値を修正することと、
    第2のビットシフト値を使用して前記第2の相関関係値を右シフトすることによって、前記第2の相関関係値を修正することとをさらに備える、請求項1に記載の方法。
  4. 第3のビットシフト値を使用して前記第1の予測サンプルI(0)(i,j)値を右シフトすることによって、第1の修正された予測サンプルを取得することと、
    前記第3のビットシフト値を使用して前記第2の予測サンプルI(1)(i,j)値を右シフトすることによって、第2の修正された予測サンプルを取得することと、
    第3の相関関係値を取得することであり、前記第3の相関関係値が、前記第1の修正された予測サンプルと前記第2の修正された予測サンプルとの間の差である、取得することと
    をさらに備える、請求項3に記載の方法。
  5. 前記第2のビットシフト値および前記第3のビットシフト値が、それぞれ1および4に等しい、請求項4に記載の方法。
  6. 前記ビデオ・ブロックの各4×4サブブロック内の前記第1の相関関係値および前記第2の相関関係値の和に基づいて、第1の内部加算値を取得することと、
    第1のパラメータに基づいて前記第1の内部加算値をクリッピングすることであり、前記第1のパラメータが、前記第1の内部加算値の出力ビット深さを制御する、クリッピングすることと、
    前記ビデオ・ブロックの各4×4サブブロック内の前記第2の相関関係値および前記第3の相関関係値の和に基づいて、第2の内部加算値を取得することと、
    第2のパラメータに基づいて前記第2の内部加算値をクリッピングすることであり、前記第2のパラメータが、前記第2の内部加算値の出力ビット深さを制御する、クリッピングすることと
    をさらに備える、請求項4に記載の方法。
  7. 前記第1のパラメータが26に等しく、前記第2のパラメータが28に等しい、請求項6に記載の方法。
  8. ビデオ信号を符号化するための双方向オプティカル・フロー(BDOF)のビット幅制御方法であって、
    ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであり、表示順で、前記第1の参照ピクチャI(0)が、現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が、前記現在のピクチャの後にある、取得することと、
    前記第1の参照ピクチャI(0)内の参照ブロックから、前記ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することであり、iおよびjが、前記現在のピクチャに対する1つのサンプルの座標を表す、取得することと、
    前記第2の参照ピクチャI(1)内の参照ブロックから、前記ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することと、
    中間パラメータの内部ビット幅を導出することによって、前記BDOFの内部ビット幅を制御することであり、前記中間パラメータが、前記第1の予測サンプルI(0)(i,j)と前記第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える、制御することと、
    前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)を使用して前記ビデオ・ブロックに適用される前記BDOFおよび局所ウィンドウに基づいて、前記ビデオ・ブロック内のサンプルに対する動き補正を取得することであり、前記局所ウィンドウが、前記ビデオ・ブロックを含み、前記局所ウィンドウが、6×6画素のウィンドウ・サイズを有する、取得することと、
    前記動き補正に基づいて、前記ビデオ・ブロックの双方向予測サンプルを取得することとを備える方法。
  9. 前記中間パラメータの前記内部ビット幅を導出することによって、前記BDOFの前記内部ビット幅を制御することが、
    第1の予測サンプルI(0)(i+1,j)と第1の予測サンプルI(0)(i-1,j)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の水平勾配値を取得することと、
    第2の予測サンプルI(1)(i+1,j)と第2の予測サンプルI(1)(i-1,j)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の水平勾配値を取得することと、
    第1の予測サンプルI(0)(i,j+1)と第1の予測サンプルI(0)(i,j-1)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の垂直勾配値を取得することと、
    第2の予測サンプルI(1)(i,j+1)と第2の予測サンプルI(1)(i,j-1)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の垂直勾配値を取得することと、
    前記水平勾配値を6だけ右シフトすることと、
    前記垂直勾配値を6だけ右シフトすることとを備える、請求項8に記載の方法。
  10. 前記中間パラメータの前記内部ビット幅を導出することが、
    第1の相関関係値を取得することであり、前記第1の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記水平勾配値の和である、取得することと、
    第2の相関関係値を取得することであり、前記第2の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記垂直勾配値の和である、取得することと、
    前記第1の相関関係値を1だけ右シフトすることによって、前記第1の相関関係値を修正することと、
    前記第2の相関関係値を1だけ右シフトすることによって、前記第2の相関関係値を修正することとをさらに備える、請求項9に記載の方法。
  11. 前記第1の予測サンプルI(0)(i,j)値を4だけ右シフトすることによって、第1の修正された予測サンプルを取得することと、
    前記第2の予測サンプルI(1)(i,j)値を4だけ右シフトすることによって、第2の修正された予測サンプルを取得することと、
    第3の相関関係値を取得することであり、前記第3の相関関係値が、前記第1の修正された予測サンプルと前記第2の修正された予測サンプルとの間の差である、取得することと
    をさらに備える、請求項10に記載の方法。
  12. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体とを備え、前記1つまたは複数のプロセッサが、
    ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであり、表示順で、前記第1の参照ピクチャI(0)が、現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が、前記現在のピクチャの後にある、取得することと、
    前記第1の参照ピクチャI(0)内の参照ブロックから、前記ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することであり、iおよびjが、前記現在のピクチャに対する1つのサンプルの座標を表す、取得することと、
    前記第2の参照ピクチャI(1)内の参照ブロックから、前記ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することと、
    中間パラメータの内部ビット幅を導出することによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御することであり、前記中間パラメータが、前記第1の予測サンプルI(0)(i,j)と前記第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える、制御することと、
    前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づいて前記ビデオ・ブロックに適用される前記BDOFに基づいて、前記ビデオ・ブロック内のサンプルに対する動き補正を取得することと、
    前記動き補正に基づいて、前記ビデオ・ブロックの双方向予測サンプルを取得することとを行うように構成される、
    コンピューティング・デバイス。
  13. 前記中間パラメータの前記内部ビット幅を導出することによって、前記BDOFの前記内部ビット幅を制御するように構成された前記1つまたは複数のプロセッサが、
    第1の予測サンプルI(0)(i+1,j)と第1の予測サンプルI(0)(i-1,j)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の水平勾配値を取得することと、
    第2の予測サンプルI(1)(i+1,j)と第2の予測サンプルI(1)(i-1,j)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の水平勾配値を取得することと、
    第1の予測サンプルI(0)(i,j+1)と第1の予測サンプルI(0)(i,j-1)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の垂直勾配値を取得することと、
    第2の予測サンプルI(1)(i,j+1)と第2の予測サンプルI(1)(i,j-1)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の垂直勾配値を取得することと、
    前記第1および第2の水平勾配値を第1のビットシフト値だけ右シフトすることと、
    前記第1および第2の垂直勾配値を前記第1のビットシフト値だけ右シフトすることとを行うようにさらに構成される、請求項12に記載のコンピューティング・デバイス。
  14. 前記中間パラメータの前記内部ビット幅を導出することによって、前記BDOFの前記内部ビット幅を制御するように構成された前記1つまたは複数のプロセッサが、
    第1の相関関係値を取得することであり、前記第1の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記水平勾配値の和である、取得することと、
    第2の相関関係値を取得することであり、前記第2の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記垂直勾配値の和である、取得することと、
    第2のビットシフト値を使用して前記第1の相関関係値を右シフトすることによって、前記第1の相関関係値を修正することと、
    第2のビットシフト値を使用して前記第2の相関関係値を右シフトすることによって、前記第2の相関関係値を修正することとを行うようにさらに構成される、請求項12に記載のコンピューティング・デバイス。
  15. 前記1つまたは複数のプロセッサは、
    第3のビットシフト値を使用して前記第1の予測サンプルI(0)(i,j)値を右シフトすることによって、第1の修正された予測サンプルを取得することと、
    前記第3のビットシフト値を使用して前記第2の予測サンプルI(1)(i,j)値を右シフトすることによって、第2の修正された予測サンプルを取得することと、
    第3の相関関係値を取得することであり、前記第3の相関関係値が、前記第1の修正された予測サンプルと前記第2の修正された予測サンプルとの間の差である、取得することとを行うようにさらに構成される、請求項14に記載のコンピューティング・デバイス。
  16. 前記第2のビットシフト値および前記第3のビットシフト値が、それぞれ1および4に等しい、請求項15に記載のコンピューティング・デバイス。
  17. 前記1つまたは複数のプロセッサが、
    前記ビデオ・ブロックの各4×4サブブロック内の前記第1の相関関係値および前記第2の相関関係値の和に基づいて、第1の内部加算値を取得することと、
    第1のパラメータに基づいて前記第1の内部加算値をクリッピングすることであり、前記第1のパラメータが、前記第1の内部加算値の出力ビット深さを制御する、クリッピングすることと、
    前記ビデオ・ブロックの各4×4サブブロック内の前記第2の相関関係値および前記第3の相関関係値の和に基づいて、第2の内部加算値を取得することと、
    第2のパラメータに基づいて前記第2の内部加算値をクリッピングすることであり、前記第2のパラメータが、前記第2の内部加算値の出力ビット深さを制御する、クリッピングすることとを行うようにさらに構成される、請求項15に記載のコンピューティング・デバイス。
  18. 前記第1のパラメータが26に等しく、前記第2のパラメータが28に等しい、請求項17に記載のコンピューティング・デバイス。
  19. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行可能な命令を記憶する非一時的コンピュータ可読記憶媒体とを備え、前記1つまたは複数のプロセッサが、
    ビデオ・ブロックに関連付けられた第1の参照ピクチャI(0)および第2の参照ピクチャI(1)を取得することであり、表示順で、前記第1の参照ピクチャI(0)が、現在のピクチャの前にあり、前記第2の参照ピクチャI(1)が、前記現在のピクチャの後にある、取得することと、
    前記第1の参照ピクチャI(0)内の参照ブロックから、前記ビデオ・ブロックの第1の予測サンプルI(0)(i,j)を取得することであり、iおよびjが、前記現在のピクチャに対する1つのサンプルの座標を表す、取得することと、
    前記第2の参照ピクチャI(1)内の参照ブロックから、前記ビデオ・ブロックの第2の予測サンプルI(1)(i,j)を取得することと、
    中間パラメータの内部ビット幅を導出することによって、双方向オプティカル・フロー(BDOF)の内部ビット幅を制御することであり、前記中間パラメータが、前記第1の予測サンプルI(0)(i,j)と前記第2の予測サンプルI(1)(i,j)との間の水平勾配値、垂直勾配値、およびサンプル差を備える、制御することと、
    前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)を使用して前記ビデオ・ブロックに適用される前記BDOFおよび局所ウィンドウに基づいて、前記ビデオ・ブロック内のサンプルに対する動き補正を取得することであり、前記局所ウィンドウが、前記ビデオ・ブロックを含み、前記局所ウィンドウが、6×6画素のウィンドウ・サイズを有する、取得することと、
    前記動き補正に基づいて、前記ビデオ・ブロックの双方向予測サンプルを取得することとを行うように構成される、
    コンピューティング・デバイス。
  20. 前記中間パラメータの前記内部ビット幅を導出することによって、前記BDOFの前記内部ビット幅を制御するように構成された前記1つまたは複数のプロセッサが、
    第1の予測サンプルI(0)(i+1,j)と第1の予測サンプルI(0)(i-1,j)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の水平勾配値を取得することと、
    第2の予測サンプルI(1)(i+1,j)と第2の予測サンプルI(1)(i-1,j)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の水平勾配値を取得することと、
    第1の予測サンプルI(0)(i,j+1)と第1の予測サンプルI(0)(i,j-1)との間の差に基づいて、第1の予測サンプルI(0)(i,j)の第1の垂直勾配値を取得することと、
    第2の予測サンプルI(1)(i,j+1)と第2の予測サンプルI(1)(i,j-1)との間の差に基づいて、第2の予測サンプルI(1)(i,j)の第2の垂直勾配値を取得することと、
    前記水平勾配値を6だけ右シフトすることと、
    前記垂直勾配値を6だけ右シフトすることとを行うようにさらに構成される、請求項19に記載のコンピューティング・デバイス。
  21. 前記1つまたは複数のプロセッサが、
    第1の相関関係値を取得することであり、前記第1の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記水平勾配値の和である、取得することと、
    第2の相関関係値を取得することであり、前記第2の相関関係値が、前記第1の予測サンプルI(0)(i,j)および前記第2の予測サンプルI(1)(i,j)に基づく前記垂直勾配値の和である、取得することと、
    前記第1の相関関係値を1だけ右シフトすることによって、前記第1の相関関係値を修正することと、
    前記第2の相関関係値を1だけ右シフトすることによって、前記第2の相関関係値を修正することとを行うようにさらに構成される、請求項20に記載のコンピューティング・デバイス。
  22. 前記1つまたは複数のプロセッサが、
    前記第1の予測サンプルI(0)(i,j)値を4だけ右シフトすることによって、第1の修正された予測サンプルを取得することと、
    前記第2の予測サンプルI(1)(i,j)値を4だけ右シフトすることによって、第2の修正された予測サンプルを取得することと、
    第3の相関関係値を取得することであり、前記第3の相関関係値が、前記第1の修正された予測サンプルと前記第2の修正された予測サンプルとの間の差である、取得することとを行うようにさらに構成される、請求項21に記載のコンピューティング・デバイス。
JP2021555567A 2019-03-15 2020-03-16 双方向オプティカル・フローに対するビット幅制御方法およびデバイス Active JP7100772B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022106654A JP7355894B2 (ja) 2019-03-15 2022-06-30 双方向オプティカル・フローに対するビット幅制御方法およびデバイス
JP2023156482A JP2023169341A (ja) 2019-03-15 2023-09-21 双方向オプティカル・フローに対するビット幅制御方法およびデバイス

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962819408P 2019-03-15 2019-03-15
US62/819,408 2019-03-15
PCT/US2020/023027 WO2020190896A1 (en) 2019-03-15 2020-03-16 Methods and devices for bit-width control for bi-directional optical flow

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022106654A Division JP7355894B2 (ja) 2019-03-15 2022-06-30 双方向オプティカル・フローに対するビット幅制御方法およびデバイス

Publications (2)

Publication Number Publication Date
JP2022522217A true JP2022522217A (ja) 2022-04-14
JP7100772B2 JP7100772B2 (ja) 2022-07-13

Family

ID=72521267

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021555567A Active JP7100772B2 (ja) 2019-03-15 2020-03-16 双方向オプティカル・フローに対するビット幅制御方法およびデバイス
JP2022106654A Active JP7355894B2 (ja) 2019-03-15 2022-06-30 双方向オプティカル・フローに対するビット幅制御方法およびデバイス
JP2023156482A Pending JP2023169341A (ja) 2019-03-15 2023-09-21 双方向オプティカル・フローに対するビット幅制御方法およびデバイス

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022106654A Active JP7355894B2 (ja) 2019-03-15 2022-06-30 双方向オプティカル・フローに対するビット幅制御方法およびデバイス
JP2023156482A Pending JP2023169341A (ja) 2019-03-15 2023-09-21 双方向オプティカル・フローに対するビット幅制御方法およびデバイス

Country Status (7)

Country Link
US (2) US11979583B2 (ja)
EP (1) EP3925224A4 (ja)
JP (3) JP7100772B2 (ja)
KR (2) KR20220112864A (ja)
CN (2) CN113632484A (ja)
MX (1) MX2021011197A (ja)
WO (1) WO2020190896A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
WO2020084476A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Sub-block based prediction
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
EP3857879A4 (en) 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
WO2020103877A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Coding and decoding of video coding modes
KR20210091161A (ko) 2018-11-20 2021-07-21 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분적 위치에 기반한 차분 계산
KR102635518B1 (ko) 2019-03-06 2024-02-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 변환된 단예측 후보의 사용
KR20230169434A (ko) * 2019-04-02 2023-12-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 디코더 측 움직임 벡터 유도
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
CN113728630B (zh) 2019-04-19 2023-11-17 北京字节跳动网络技术有限公司 不同运动矢量细化中的基于区域的梯度计算
WO2020211867A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Delta motion vector in prediction refinement with optical flow process

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017134957A1 (ja) * 2016-02-03 2017-08-10 シャープ株式会社 動画像復号装置、動画像符号化装置、および予測画像生成装置
WO2018169989A1 (en) * 2017-03-13 2018-09-20 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)
WO2019010156A1 (en) * 2017-07-03 2019-01-10 Vid Scale, Inc. MOTION COMPENSATION PREDICTION BASED ON A BIDIRECTIONAL OPTICAL FLOW
WO2020061082A1 (en) * 2018-09-21 2020-03-26 Vid Scale, Inc. Complexity reduction and bit-width control for bi-directional optical flow

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103503458B (zh) * 2011-01-07 2017-09-22 诺基亚技术有限公司 视频编码中的运动预测
CN106664416B (zh) * 2014-07-06 2019-11-05 Lg电子株式会社 处理视频信号的方法及其装置
WO2016056782A1 (ko) * 2014-10-08 2016-04-14 엘지전자 주식회사 비디오 코딩에서 뎁스 픽처 코딩 방법 및 장치
US20180249172A1 (en) * 2015-09-02 2018-08-30 Mediatek Inc. Method and apparatus of motion compensation for video coding based on bi prediction optical flow techniques
US10375413B2 (en) * 2015-09-28 2019-08-06 Qualcomm Incorporated Bi-directional optical flow for video coding
EP3398331A4 (en) * 2016-02-05 2019-04-10 Mediatek Inc. METHOD AND APPARATUS FOR MOTION COMPENSATION BASED ON BIDIRECTIONAL OPTICAL FLUSH TECHNOLOGIES FOR VIDEO CODING
WO2017157281A1 (en) * 2016-03-16 2017-09-21 Mediatek Inc. Method and apparatus of pattern-based motion vector derivation for video coding
US10931969B2 (en) * 2017-01-04 2021-02-23 Qualcomm Incorporated Motion vector reconstructions for bi-directional optical flow (BIO)
US10701390B2 (en) * 2017-03-14 2020-06-30 Qualcomm Incorporated Affine motion information derivation
DE102017105706A1 (de) 2017-03-16 2018-09-20 Aesculap Ag Additiv hergestelltes medizintechnisches Instrument sowie Verfahren zur Herstellung eines solchen Instruments
US10805630B2 (en) * 2017-04-28 2020-10-13 Qualcomm Incorporated Gradient based matching for motion search and derivation
US10904565B2 (en) * 2017-06-23 2021-01-26 Qualcomm Incorporated Memory-bandwidth-efficient design for bi-directional optical flow (BIO)
US10757442B2 (en) * 2017-07-05 2020-08-25 Qualcomm Incorporated Partial reconstruction based template matching for motion vector derivation
CN116668717B (zh) * 2019-01-06 2024-03-15 北京达佳互联信息技术有限公司 视频编码方法、计算设备和介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017134957A1 (ja) * 2016-02-03 2017-08-10 シャープ株式会社 動画像復号装置、動画像符号化装置、および予測画像生成装置
WO2018169989A1 (en) * 2017-03-13 2018-09-20 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (bio)
WO2019010156A1 (en) * 2017-07-03 2019-01-10 Vid Scale, Inc. MOTION COMPENSATION PREDICTION BASED ON A BIDIRECTIONAL OPTICAL FLOW
WO2020061082A1 (en) * 2018-09-21 2020-03-26 Vid Scale, Inc. Complexity reduction and bit-width control for bi-directional optical flow

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TAKESHI CHUJOH AND TOMOHIRO IKAI: "Non-CE9: An improvement of BDOF", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0063-v3, JPN6022005496, January 2019 (2019-01-01), pages 1 - 3, ISSN: 0004706797 *
XIAOYU XIU, ET AL.: "CE9-related: Improvements on bi-directional optical flow (BDOF)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0325, JPN6022005498, 13 March 2019 (2019-03-13), pages 1 - 7, ISSN: 0004706795 *
XIAOYU XIU, YUWEN HE, AND YAN YE: "CE9-related: Complexity reduction and bit-width control for bi-directional optical flow (BIO)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-L0256_v2, JPN6022005497, September 2018 (2018-09-01), pages 1 - 15, ISSN: 0004706796 *

Also Published As

Publication number Publication date
US20220030270A1 (en) 2022-01-27
US20220007030A1 (en) 2022-01-06
KR102429449B1 (ko) 2022-08-03
CN114363612A (zh) 2022-04-15
KR20220112864A (ko) 2022-08-11
MX2021011197A (es) 2021-10-22
CN114363612B (zh) 2024-05-03
JP7100772B2 (ja) 2022-07-13
EP3925224A4 (en) 2022-11-30
WO2020190896A1 (en) 2020-09-24
JP2022130647A (ja) 2022-09-06
US11979583B2 (en) 2024-05-07
JP7355894B2 (ja) 2023-10-03
EP3925224A1 (en) 2021-12-22
CN113632484A (zh) 2021-11-09
JP2023169341A (ja) 2023-11-29
US11843785B2 (en) 2023-12-12
KR20210119549A (ko) 2021-10-05

Similar Documents

Publication Publication Date Title
JP7100772B2 (ja) 双方向オプティカル・フローに対するビット幅制御方法およびデバイス
KR102548737B1 (ko) 영상 부호화 및 복호화 장치 및 그 방법
US11102515B2 (en) In loop chroma deblocking filter
KR101974261B1 (ko) Cnn 기반 인루프 필터를 포함하는 부호화 방법과 장치 및 복호화 방법과 장치
JP7474262B2 (ja) 双方向オプティカルフローに対するビット幅制御
JP7480303B2 (ja) ビデオ符号化のための方法並びに、その装置、及びコンピュータプログラム
JP2022537604A (ja) Prof(prediction refinement with optical flow)の方法および装置
US20240098255A1 (en) Video picture component prediction method and apparatus, and computer storage medium
JP2023164968A (ja) オプティカルフローによる予測洗練化における方法および装置
JP2022525688A (ja) オプティカルフローを用いる予測改善のための方法および装置
JPWO2011105231A1 (ja) フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造
CN114175659A (zh) 用于双向光流的比特宽度控制的装置和方法
WO2021263251A1 (en) State transition for dependent quantization in video coding
CN113615197B (zh) 用于双向光流的比特深度控制的方法和设备
JP2024510433A (ja) ビデオ圧縮のための時間的構造ベースの条件付き畳み込みニューラルネットワーク
JP2024096199A (ja) ビデオ符号化のための方法及び装置
JP2013223149A (ja) 画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150