JP7096373B2 - 部分的コスト計算 - Google Patents

部分的コスト計算 Download PDF

Info

Publication number
JP7096373B2
JP7096373B2 JP2020568386A JP2020568386A JP7096373B2 JP 7096373 B2 JP7096373 B2 JP 7096373B2 JP 2020568386 A JP2020568386 A JP 2020568386A JP 2020568386 A JP2020568386 A JP 2020568386A JP 7096373 B2 JP7096373 B2 JP 7096373B2
Authority
JP
Japan
Prior art keywords
motion information
video block
current video
region
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020568386A
Other languages
English (en)
Other versions
JP2021528896A (ja
Inventor
リュウ,ホンビン
ザン,リー
ザン,カイ
ワン,ユエ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2021528896A publication Critical patent/JP2021528896A/ja
Priority to JP2022099377A priority Critical patent/JP7417670B2/ja
Application granted granted Critical
Publication of JP7096373B2 publication Critical patent/JP7096373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

関連出願への相互参照
パリ条約に基づく適用可能な特許法および/または規則に基づき、本出願は、2018年6月7日に出願された先の米国仮特許出願第62/682,150号の優先権および利益を適時に主張してなされる。米国仮特許出願第62/682,150号の開示全体が、本出願の開示の一部として参照によって援用される。
技術分野
本文書は、ビデオ符号化技術に関するものである。
ビデオ圧縮における進歩にもかかわらず、デジタル・ビデオは、依然として、インターネットおよび他のデジタル通信ネットワークにおける最大の帯域幅使用を占めている。ビデオの受信・表示が可能な接続されたユーザー装置の数が増加するにつれて、デジタル・ビデオ使用に対する帯域幅需要は増加し続けることが予想される。
ビデオ符号化におけるデコーダ側動きベクトル導出(decoder side motion vector derivation、DMVD)に関連する技術が開示された。これは、HEVCのような既存のビデオ符号化標準、または最終化されようとしている標準(多用途ビデオ符号化(Versatile Video Coding))に適用されうる。これは、将来のビデオ符号化規格またはビデオ・コーデックにも適用可能である。
ある例示的側面では、ビデオのデジタル表現を含むビットストリームをデコードする方法が開示される。本方法は、ビットストリームから現在のビデオ・ブロックの動き情報をデコードするステップと、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれは、複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを用いて現在のブロックの動き情報を洗練するステップとを含む。
別の例示的側面では、ビデオのデジタル表現を含むビットストリームをデコードする方法が開示される。本方法は、ビットストリームから現在のビデオ・ブロックの動き情報をデコードするステップと、現在のビデオ・ブロックのサイズを決定するステップと、現在のビデオ・ブロックのサイズが第1のサイズより小さいとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれにおけるピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックのサイズが第1のサイズより小さくないとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを使用して、現在のブロックの動き情報を洗練するステップとを含む。
さらに別の例示的側面では、ビデオのデジタル表現を含むビットストリームをデコードする方法が開示される。本方法は、ビットストリームから現在のビデオ・ブロックの動き情報をデコードするステップと、現在のビデオ・ブロックのサイズを決定するステップと、現在のビデオ・ブロックのサイズが第1のサイズより大きいとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックのサイズが第1のサイズより大きくないとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを用いて現在のビデオ・ブロックの動き情報を洗練するステップとを含む。
さらに別の例では、ビデオのデジタル表現を含むビットストリームをデコードする方法が開示されている。本方法は、ビットストリームから現在のビデオ・ブロックの動き情報をデコードするステップと、現在のビデオ・ブロックの形状を決定するステップと、現在のビデオ・ブロックの形状が第1の形状であるとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックの形状が第2の形状であるとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のブロックの形状が第3の形状であるとの決定に応じて、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて現在のビデオ・ブロックのマッチング・コストを推定するステップであって、前記一つまたは複数のテンプレートのそれぞれは複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストをもつテンプレートを用いて現在のブロックの動き情報を洗練するステップとを含む。
別の例示的側面では、上述の方法のそれぞれを実施するように構成されたプロセッサを含む装置が開示される。
さらに別の例示的側面では、これらの方法は、コンピュータ実行可能命令の形で具現され、コンピュータ読み取り可能なプログラム媒体に記憶されてもよい。
これらおよびその他の側面は、本稿においてさらに説明される。
マージ候補リスト構築のための導出プロセスの例を示す。
空間的マージ候補の例示的位置を示す。
空間的マージ候補の冗長性検査のために考慮される候補ペアの例を示す。
図4Aおよび図4Bは、N×2Nおよび2N×N分割の第2のPUについての例示的な位置を示す。
時間的マージ候補のための動きベクトル・スケーリングの例示的な図である。
時間的マージ候補C0およびC1の候補位置の例を示す。
組み合わされた双予測マージ候補の例を示す。
動きベクトル予測候補のための例示的な導出プロセスを示す。
空間的動きベクトル候補のための動きベクトル・スケーリングの例示的な図を示す。
バイラテラル・マッチングの例を示す。
テンプレート・マッチングの例を示す。
FRUCにおけるユニラテラルMEの例を示す。
バイラテラル・テンプレート・マッチングに基づくDMVRの例を示す。
テンプレート・マッチングにおける簡略化されたテンプレートの例を示す。
ビデオ・デコードの例示的方法のためのフローチャートである。
ビデオ・デコードの別の例示的方法のためのフローチャートである。
ビデオ・デコードのさらに別の例示的方法のためのフローチャートである。
ビデオ・デコードのさらに別の例示的方法のためのフローチャートである。
ビデオ・デコード装置のブロック図である。
ビデオ・エンコーダの例示的実装を示す。
本稿は、圧縮解除またはデコードされたデジタル・ビデオの品質を改善するために、ビデオ・ビットストリームのデコーダによって使用されうるさまざまな技術を提供する。さらに、ビデオ・エンコーダが、さらなるエンコードのために使用されるデコードされたフレームを再構成するために、エンコードのプロセス中にこれらの技術を実装してもよい。
セクション見出しは、理解を容易にするために本稿で使用されており、実施形態および技術を対応するセクションに限定するものではない。よって、あるセクションからの実施形態は、他のセクションからの実施形態と組み合わせることができる。さらに、いくつかの実施形態は、ビデオ符号化ステップを詳細に記述するが、符号化を元に戻す対応するデコード・ステップが、デコーダによって実装されることが理解されるであろう。さらに、ビデオ処理は、ビデオ符号化または圧縮、ビデオ復号または圧縮解除、およびビデオ・ピクセルがある圧縮フォーマットから別の圧縮フォーマットまたは異なる圧縮ビットレートに表現されるビデオ・トランスコードを包含する。
1.技術的枠組み
ビデオ符号化規格は、主に、よく知られたITU-TおよびISO/IEC規格の開発を通じて発展してきた。ITU-TはH.261およびH.263を作成し、ISO/IECはMPEG-1およびMPEG-4 Visualを作成した。2つの組織はH.262/MPEG-2 VideoおよびH.264/MPEG-4 Advanced Video Coding(AVC)およびH.265/HEVC規格を共同で作成した。H.262以来、ビデオ符号化規格は、時間的予測と変換符号化が利用されるハイブリッド・ビデオ符号化構造に基づいている。HEVCを越えた将来のビデオ符号化技術を探求するため、2015年にVCEGとMPEGが共同で合同ビデオ探査チーム(Joint Video Exploration Team、JVET)を設立した。それ以来、JVETによって多くの新しい方法が採用され、合同探求モデル(Joint Exploration Model、JEM)と名付けられた参照ソフトウェアに入れられた。2018年4月には、VCEG(Q6/16)とISO/IEC JTC1 SC29/WG11(MPEG)の間で合同ビデオエキスパートチーム(Joint Video Expert Team、JVET)が発足し、HEVCと比較して50%のビットレート削減を目指してVVC規格に取り組んでいる。
2.HEVC/H.265におけるインター予測
各インター予測される予測ユニット〔予測単位〕(Prediction Unit、PU)は、1つまたは2つの参照ピクチャー・リストのための動きパラメータを有する。動きパラメータは、動きベクトルおよび参照ピクチャー・インデックスを含む。2つの参照ピクチャー・リストのうちの1つの使用が、inter_pred_idcを使用して信号伝達されてもよい。動きベクトルは、予測子に対するデルタとして明示的に符号化されてもよい。
符号化ユニット〔符号化単位〕(Coding Unit、CU)がスキップ・モードで符号化されるとき、1つのPUがそのCUに関連付けられ、有意な残差係数、符号化された動きベクトル・デルタまたは参照ピクチャー・インデックスは存在しない。マージ・モードが指定されると、現在のPUについての動きパラメータが、空間的および時間的な候補を含む近隣のPUから取得される。マージ・モードは、スキップ・モードについてだけでなく、任意のインター予測されるPUに適用できる。マージ・モードに対する代替は、動きパラメータの明示的な伝送であり、ここで、動きベクトル(より正確には、動きベクトル予測子と比較した動きベクトル差分)、各参照ピクチャー・リストについての対応する参照ピクチャー・インデックス、および参照ピクチャー・リスト使用が、各PUごとに明示的に信号伝達される。そのようなモードは、本稿では高度動きベクトル予測(Advanced Motion Vector Prediction、AMVP)と呼ばれる。
信号伝達により、2つの参照ピクチャー・リストのうちの一方が使用されるべきであることが示される場合、PUは、サンプルの1つのブロックから生成される。これは「単予測(uni-prediction)」と呼ばれる。単予測は、PスライスおよびBスライス両方について利用可能である。
信号伝達により両方の参照ピクチャー・リストが使用されるべきであることが示される場合、PUはサンプルの2つのブロックから生成される。これは「双予測(bi-prediction)」と呼ばれる。双予測は、Bスライスについてのみ利用可能である。
以下のテキストは、HEVCにおいて指定されたインター予測モードの詳細を与える。説明はマージ・モードから始まる。
2.1.1.マージ・モード
2.1.1.1.マージ・モードのための候補の導出
マージ・モードを使用してPUが予測される場合、マージ候補リスト内の項目を指すインデックスがビットストリームからパースされ、動き情報を取得するために使用される。このリストの構築は、HEVC規格において規定されており、以下の一連のステップに従って要約できる。
●ステップ1:初期候補の導出
○ステップ1.1:空間的候補の導出
○ステップ1.2:空間的候補についての冗長性検査
○ステップ1.3:時間的候補の導出
●ステップ2:追加的候補の挿入
○ステップ2.1:双予測候補の作成
○ステップ2.2:ゼロ動き候補の挿入
これらのステップは図1にも概略的に示されている。空間的マージ候補の導出のためには、5つの異なる位置に位置する候補の中から最大4つのマージ候補が選択される。時間的マージ候補の導出のためには、最大1つのマージ候補が2つの候補の中から選択される。デコーダでは各PUについて一定数の候補が想定されるので、ステップ1から得られた候補の数が、スライス・ヘッダにおいて信号伝達されるマージ候補の最大数(MaxNumMergeCand)に達しない場合には、追加的候補が生成される。候補の数は一定であるので、最良のマージ候補のインデックスは、切り詰められた単進的二値化(truncated unary binarization、TU)を用いてエンコードされる。CUのサイズが8に等しい場合、現在のCUのすべてのPUは、2N×2N予測ユニットのマージ候補リストと同一の単一のマージ候補リストを共有する。
以下では、上記の諸ステップに関連する動作が詳述される。
2.1.1.2.空間的候補の導出
空間的マージ候補の導出では、図2に示された位置に位置する候補の中から最大4つのマージ候補が選択される。導出順はA1、B1、B0、A0、B2である。位置B2は、位置A1、B1、B0、A0のいずれかのPUが利用できない(たとえば、それが別のスライスまたはタイルに属するため)またはイントラ符号化されている場合にのみ考慮される。位置A1で候補が追加された後、残りの候補の追加は、同じ動き情報をもつ候補がリストから除外されることを保証する冗長性検査の対象となり、符号化効率が改善される。計算複雑さを低減するために、前述の冗長性検査では、可能な候補対のすべてが考慮されるわけではない。その代わりに、図3の矢印で結ばれた対のみが考慮され、冗長性検査のために使用される対応する候補が同じ動き情報をもたない場合にのみ、候補がリストに追加される。重複する動き情報の別の源は、2N×2Nとは異なる分割に関連付けられた「第2のPU」である。一例として、図4は、それぞれ、N×2Nおよび2N×Nの場合の第2のPUを示す。現在のPUがN×2Nとして分割されている場合、位置A1における候補はリスト構築のために考慮されない。実際、この候補を加えることによって、同じ動き情報をもつ2つの予測ユニットが得られる。これは、符号化ユニットにおいて1つのPUをもつだけで冗長である。同様に、現在のPUが2N×Nとして分割されている場合、位置B1は考慮されない。
2.1.1.3.時間的候補の導出
このステップでは、1つの候補のみがリストに追加される。特に、この時間的マージ候補の導出において、スケーリングされた動きベクトルが、与えられた参照ピクチャー・リスト内で現在のピクチャーとの最小のPOC差をもつピクチャーに属する共位置のPUに基づいて導出される。共位置のPUの導出のために使用される参照ピクチャー・リストは、スライス・ヘッダ内で明示的に信号伝達される。時間的マージ候補のためのスケーリングされた動きベクトルは、図5における点線によって示されるように得られ、これは、POC距離、tbおよびtdを用いて、共位置のPUの動きベクトルからスケーリングされる。ここで、tbは、現在のピクチャーの参照ピクチャーと現在のピクチャーとの間のPOC差であると定義され、tdは、該共位置のピクチャーの参照ピクチャーと該共位置のピクチャーとの間のPOC差であると定義される。時間的マージ候補の参照ピクチャー・インデックスはゼロに設定される。スケーリング・プロセスの実際的な実現は、HEVC仕様において記述されている。Bスライスについては、一方は参照ピクチャー・リスト0について、他方は参照ピクチャー・リスト1についての2つの動きベクトルが得られ、組み合わされて、双予測マージ候補を作成する。
参照フレームに属する共位置のPU(Y)では、図6に示されるように、時間的候補についての位置は候補C0とC1の間で選択される。位置C0におけるPUが利用可能でない場合、またはイントラ符号化されている場合、または現在のCTU行の外にある場合は、位置C1が使用される。それ以外の場合は、位置C0が、時間的マージ候補の導出において使用される。
2.1.1.4.追加的候補の挿入
空間的および時間的マージ候補のほかに、2つの追加的なタイプのマージ候補がある:組み合わされた双予測マージ候補とゼロ・マージ候補である。組み合わされた双予測マージ候補は、空間的および時間的マージ候補を利用することによって生成される。組み合わされた双予測マージ候補は、Bスライスのためだけに使用される。組み合わされた双予測候補は、初期候補の第1の参照ピクチャー・リスト動きパラメータと別の候補の第2の参照ピクチャー・リスト動きパラメータとを組み合わせることによって生成される。これらの2つのタプルが異なる動き仮説を提供するならば、それらは新しい双予測候補を形成する。一例として、図7は、mvL0およびrefIdxL0またはmvL1およびrefIdxL1を有する、もとのリスト(左側)内の2つの候補が、最終リスト(右側)に追加される組み合わされた双予測マージ候補を作成するために使用される場合を示す。HEVC仕様において定義された、これらの追加的なマージ候補を生成するために考慮される組み合わせに関する多数の規則がある。
マージ候補リストにおける残りの項目を埋め、よってMaxNumMergeCand容量に達するために、ゼロ動き候補が挿入される。これらの候補は、ゼロ空間変位と、ゼロから始まり、新しいゼロ動き候補がリストに追加される毎に増加する参照ピクチャー・インデックスとを有する。これらの候補によって使用される参照フレームの数は、それぞれ単方向予測および双方向予測について、1および2である。最後に、これらの候補に対しては冗長性検査は実行されない。
2.1.1.5.並列処理のための動き推定領域
エンコード・プロセスを高速化するために、動き推定が並列に実行されることができ、それにより、与えられた領域内のすべての予測ユニットについての動きベクトルが同時に導出される。空間的近傍からのマージ候補の導出は、並列処理を妨げる可能性がある。一つの予測ユニットが隣接するPUから動きパラメータを導出することは、その関連する動き推定が完了するまではできないからである。符号化効率と処理待ち時間との間のトレードオフを緩和するために、HEVCは動き推定領域(motion estimation region、MER)を定義しており、そのサイズは、"log2_parallel_merge_level_minus2"シンタックス要素を用いて、ピクチャー・パラメータ・セットにおいて信号伝達される。MERが定義されている場合、同じ領域にはいるマージ候補は利用不能とマークされ、よって、リスト構築において考慮されない。
2.1.2.AMVP
AMVPは、近傍PUとの動きベクトルの空間時間的相関を活用し、それが動きパラメータの明示的な伝送のために使用される。各参照ピクチャー・リストについて、まず左、上の時間的に近隣のPU位置の利用可能性を検査し、冗長な候補を除去し、ゼロ・ベクトルを加えて候補リストを一定長にすることによって、動きベクトル候補リストが構築される。次いで、エンコーダは候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。同様に、マージ・インデックス信号伝達では、最良の動きベクトル候補のインデックスは、切り詰められた単進法を用いてエンコードされる。この場合にエンコードされるべき最大値は2である(図8参照)。以下の諸セクションでは、動きベクトル予測候補の導出プロセスについての詳細を与える。
2.1.2.1.AMVP候補の導出
図8は、動きベクトル予測候補のための導出プロセスを要約している。
動きベクトル予測では、空間的動きベクトル候補と時間的動きベクトル候補という2つのタイプの動きベクトル候補が考慮される。空間的動きベクトル候補の導出については、図2に示されるように、5つの異なる位置に位置する各PUの動きベクトルに基づいて、最終的には2つの動きベクトル候補が導出される。
時間的動きベクトル候補の導出については、2つの異なる共位置の位置に基づいて導出される2つの候補から、1つの動きベクトル候補が選択される。空間時間的候補の第1のリストが作成された後、リスト内の重複した動きベクトル候補が除去される。潜在的な候補の数が2よりも多い場合、関連する参照ピクチャー・リスト内の参照ピクチャー・インデックスが1よりも大きい動きベクトル候補は、リストから除去される。空間時間的動きベクトル候補の数が2より少ない場合、追加的なゼロ動きベクトル候補がリストに追加される。
2.1.2.2.空間的動きベクトル候補
空間的動きベクトル候補の導出において、図2に示されるような位置に位置するPUから導出される5つの潜在的な候補のうち最大2つの候補が考慮される。前記の位置は、動きマージの位置と同じである。現在のPUの左側についての導出順序は、A0、A1、およびスケーリングされたA0、スケーリングされたA1として定義される。現在のPUの上側についての導出順序は、B0、B1、B2、スケーリングされたB0、スケーリングされたB1、スケーリングされたB2として定義される。よって、それぞれの側について、動きベクトル候補として使用できる4つのケースがあり、2つのケースは空間的スケーリングを使用することを必要とされず、2つのケースは空間スケーリングが使用される。4つの異なるケースは次のようにまとめられる。
・空間的スケーリングなし
-(1)同じ参照ピクチャー・リスト、同じ参照ピクチャー・インデックス(同じPOC)
-(2)異なる参照ピクチャー・リストであるが、同じ参照ピクチャー(同じPOC)
・空間的スケーリング
-(3)同じ参照ピクチャー・リストであるが、異なる参照ピクチャー(異なるPOC)
-(4)異なる参照ピクチャー・リストおよび異なる参照ピクチャー(異なるPOC)
まず空間的スケーリングのない場合、次に空間的スケーリングをチェックする。空間的スケーリングは、参照ピクチャー・リストには関係なく、近隣のPUの参照ピクチャーと現在のPUの参照ピクチャーの間でPOCが異なる場合に考慮される。左候補のすべてのPUが利用可能でないか、またはイントラ符号化されている場合、左および上のMV候補の並列導出を助けるために、上の動きベクトルについてのスケーリングが許容される。そうでない場合は、空間的スケーリングは、上の動きベクトルについては許容されない。
空間的スケーリング・プロセスにおいては、近傍(neighbouring)PUの動きベクトルは、図9に示されるように、時間的スケーリングと同様の仕方でスケーリングされる。主な違いは、参照ピクチャー・リストと現在のPUのインデックスが入力として与えられることであり、実際のスケーリング・プロセスは時間的スケーリングのものと同じである。
2.1.2.3.時間的動きベクトル候補
参照ピクチャー・インデックスの導出のほかは、時間的マージ候補の導出のためのすべてのプロセスは、空間的動きベクトル候補の導出のためのものと同じである(図6を参照)。参照ピクチャー・インデックスはデコーダに信号伝達される。
2.2.JEMにおける新しいインター予測方法
2.2.1.パターンマッチング動きベクトル導出
パターンマッチング動きベクトル導出(pattern matched motion vector derivation、PMMVD)モードは、フレームレート上方変換(Frame-Rate Up Conversion、FRUC)技法に基づく特別なマージ・モードである。このモードでは、ブロックの動き情報は信号伝達されず、デコーダ側で導出される。
CUについて、FRUCフラグは、そのマージ・フラグが真の場合に信号伝達される。FRUCフラグが偽の場合は、マージ・インデックスが信号伝達され、通常のマージ・モードが使用される。FRUCフラグが真の場合は、追加的なFRUCモード・フラグが信号伝達されて、どの方法(バイラテラル・マッチングまたはテンプレート・マッチング)がそのブロックについての動き情報を導出するために使用されるべきかを示す。
エンコーダ側では、CUについてFRUCマージ・モードを使用するかどうかの決定は、通常のマージ候補について行なわれるのと同様にRDコスト選択に基づく。すなわち、CUについて、2つのマッチング・モード(バイラテラル・マッチングおよびテンプレート・マッチング)が両方とも、RDコスト選択を使用して検査される。最小のコストにつながるほうは、さらに他のCUモードと比較される。FRUCマッチング・モードが最も効率的なモードである場合、そのCUについてFRUCフラグが真に設定され、関連するマッチング・モードが使用される。
FRUCマージ・モードにおける動き導出プロセスには2つのステップがある。CUレベルの動き探索がまず実行され、サブCUレベルの動き洗練がそれに続く。CUレベルでは、バイラテラル・マッチングまたはテンプレート・マッチングに基づいて、CU全体について初期動きベクトルが導出される。まず、MV候補のリストが生成され、最小マッチング・コストにつながる候補が、さらなるCUレベルの洗練のための開始点として選択される。次いで、開始点のまわりのバイラテラル・マッチングまたはテンプレート・マッチングに基づくローカル探索が実行され、最小マッチング・コストにつながるMVが、CU全体についてのMVとして取られる。その後、導出されたCU動きベクトルを開始点として、動き情報はサブCUレベルでさらに洗練される。
たとえば、次の導出プロセスがW×H CUの動き情報導出のために実行される。第1段では、W×HのCU全体についてのMVが導出される。第2段では、CUはさらにM×MのサブCUに分割される。Mの値は(16)のように計算され、Dはあらかじめ定義された分割深さで、JEMではデフォルトで3に設定される。次いで、各サブCUについてのMVが導出される。
M=max{4,min{M/2D,N/2D}} (1)
図10に示されるように、バイラテラル・マッチングは、2つの異なる参照ピクチャーにおける、現在のCUの動き軌跡(motion trajectory)に沿った2つのブロックの間の最も近いマッチを発見することによって、現在のCUの動き情報を導出するために使用される。連続した動きの軌跡の想定のもとでは、2つの参照ブロックを指す動きベクトルMV0とMV1は、現在のピクチャーと2つの参照ピクチャーとの間の時間的距離、すなわちTD0とTD1に比例する。特別な場合として、現在のピクチャーが時間的に2つの参照ピクチャーの間に存在し、現在のピクチャーから2つの参照ピクチャーまでの時間的距離が同じである場合、バイラテラル・マッチングはミラーに基づく双方向MVになる。
図11に示されるように、テンプレート・マッチングは、現在のピクチャー内のテンプレート(template)(現在のCUの上および/または左の近傍のブロック)と参照ピクチャー内のブロック(テンプレートと同じサイズ)との間の最も近いマッチを見つけることによって、現在のCUの動き情報を導出するために使用される。前述のFRUCマージ・モードを除き、テンプレート・マッチングはAMVPモードにも適用される。JEMでは、HEVCで行なわれているように、AMVPには2つの候補がある。テンプレート・マッチング法を用いて、新しい候補が導出される。テンプレート・マッチングによる新たに導出された候補が第1の既存のAMVP候補と異なる場合、それはAMVP候補リストの最先頭に挿入され、次いで、リスト・サイズは2に設定される(つまり、第2の既存のAMVP候補は除去する)。AMVPモードに適用されるときは、CUレベル探索のみが適用される。
2.2.2.CUレベルのMV候補集合
CUレベルのMV候補集合は:
(i)現在のCUがAMVPモードの場合、もとのAMVP候補
(ii)すべてのマージ候補
(iii)2.2.4.節で導入される、補間されたMVフィールド内のいくつかのMV
(iv)上および左の近傍の動きベクトル
からなる。
バイラテラル・マッチングを使用する場合、マージ候補のそれぞれの有効なMVが入力として使用されて、バイラテラル・マッチングの想定でMV対を生成する。たとえば、マージ候補の1つの有効なMVは参照リストAの(MVa, refa)である。すると、それと対になるバイラテラルMVの参照ピクチャーrefbが、他方の参照リストB内に見つかる。refaとrefbは、現在のピクチャーの時間的に異なる側にある。参照リストBにおいてそのようなrefbが利用可能でない場合、refbはrefaとは異なる参照として決定され、現在のピクチャーとのその時間的距離は、リストBにおいて最小のものである。refbが決定された後、現在のピクチャーとrefa、refbとの間の時間的距離に基づいてMVaをスケーリングすることによって、MVbが導出される。
補間されたMVフィールドからの4つのMVも、CUレベルの候補リストに加えられる。より具体的には、現在のCUの位置(0,0)、(W/2,0)、(0,H/2)および(W/2,H/2)における補間されたMVが追加される。
AMVPモードにおいてFRUCが適用されるとき、もとのAMVP候補もCUレベルのMV候補集合に加えられる。
CUレベルでは、AMVP CUについての最大15個のMV、マージCUについての最大13個のMVが候補リストに加えられる。
2.2.3.サブCUレベルのMV候補集合
サブCUレベルのMV候補集合は:
(i)CUレベルの探索から決定されたMV
(ii)上、左、左上、右上の近傍MV
(iii)参照ピクチャーからの共位置のMVのスケーリングされたバージョン
(iv)最大4個のATMVP候補
(v)最大4個のSTMVP候補
からなる。
参照ピクチャーからのスケーリングされたMVは以下のように導出される。両方のリスト内の参照ピクチャーすべてをたどる。参照ピクチャー内のサブCUの共位置におけるMVは、開始CUレベルMVの参照にスケーリングされる。
ATMVPおよびSTMVP候補は、4つの最初のものに限定される。
サブCUレベルでは、最大17個のMVが候補リストに追加される。
2.2.4.補間されたMVフィールドの生成
フレームを符号化する前に、補間された動きフィールドが、ユニラテラルMEに基づいて、ピクチャー全体について、生成される。すると、動きフィールドは、後にCUレベルまたはサブCUレベルMV候補として使用されてもよい。
まず、両方の参照リストにおける各参照ピクチャーの動きフィールドを4×4ブロック・レベルでたどる。各4×4ブロックについて、現在のピクチャーにおける4×4ブロック(図12に示される)およびそのブロックを通る、そのブロックに関連付けられた動きが、補間された動きを割り当てられていない場合、参照ブロックの動きは、時間距離TD0およびTD1に応じて、現在のピクチャーにスケーリングされ(HEVCにおけるTMVPのMVスケーリングと同じようにして)、スケーリングされた動きが、現在のフレームにおけるそのブロックに割り当てられる。4×4ブロックにスケーリングされたMVが割り当てられていない場合は、そのブロックの動きは、補間された動きフィールドにおいて利用不能としてマークされる。
2.2.5.補間およびマッチング・コスト
動きベクトルが端数サンプル位置を指すとき、動き補償された補間が必要となる。複雑さを低減するために、通常の8タップHEVC補間の代わりに双線形補間が、バイラテラル・マッチングおよびテンプレート・マッチングの両方について使用される。
マッチング・コストの計算は、異なるステップでは少し異なる。CUレベルで候補集合から候補を選択するとき、マッチング・コストは、バイラテラル・マッチングまたはテンプレート・マッチングの差分絶対値和(SAD)である。開始MVが決定された後、サブCUレベル探索におけるバイラテラル・マッチングのマッチング・コストCは、次のように計算される:
C=SAD+w・(|MVx-MVx s|+|MVy-MVy s|) (2)
ここで、wは経験的に4に設定される重み付け因子であり、MVおよびMVsはそれぞれ現在のMVおよび開始MVを示す。SADはここでも、サブCUレベル探索におけるテンプレート・マッチングのマッチング・コストとして使用されている。
FRUCモードでは、MVは、ルーマ・サンプルのみを使用して導出される。導出された動きは、MCインター予測のために、ルーマおよびクロマの両方について使用される。MVが決定された後、最終的なMCはルーマについての8タップ補間フィルタおよびクロマについての4タップ補間フィルタを使用して実行される。
2.2.6.MV洗練
MV洗練は、バイラテラル・マッチング・コストまたはテンプレート・マッチング・コストの基準を用いたパターン・ベースのMV探索である。JEMでは、制約されない中心バイアス・ダイヤモンド探索(unrestricted center-biased diamond search、UCBDS)と、CUレベルおよびサブCUレベルでのMV洗練のための適応クロス探索(adaptive cross search)という2つの探索パターンがサポートされる。CUレベルおよびサブCUレベルのMV洗練の両方について、MVは1/4ルーマ・サンプルMV精度で直接検索され、1/8ルーマ・サンプルMV洗練がこれに続く。CUおよびサブCUステップのためのMV洗練の検索範囲は、8ルーマ・サンプルに等しく設定される。
2.2.7.テンプレート・マッチングFRUCマージ・モードにおける予測方向の選択
バイラテラル・マッチング・マージ・モードでは、CUの動き情報が、2つの異なる参照ピクチャーにおける現在のCUの動き軌跡に沿った2つのブロック間の最も近いマッチに基づいて導出されるので、双予測が常に適用される。テンプレート・マッチング・マージ・モードについては、そのような制限はない。テンプレート・マッチング・マージ・モードでは、エンコーダは、CUについて、リスト0からの単予測、リスト1からの単予測、または双予測の中から選択することができる。選択は、次のようにテンプレート・マッチングのコストに基づく:
costBi<=factor*min(cost0,cost1)の場合
双予測を使用;
それ以外でcost0<=cost1の場合
リスト0からの単予測を使用;
それ以外の場合
リスト1からの単予測を使用;
ここで、cost0はリスト0テンプレート・マッチングのSAD、cost1はリスト1テンプレート・マッチングのSAD、costBiは双予測テンプレート・マッチングのSADである。factorの値は1.25に等しく、これは選択プロセスが双予測に向けてバイアスをかけられていることを意味する。
インター予測方向選択は、CUレベルのテンプレート・マッチング・プロセスにのみ適用される。
2.2.8.デコーダ側動きベクトル洗練
双予測動作では、1つのブロック領域の予測のために、それぞれリスト0の動きベクトル(MV)およびリスト1のMVを用いて形成された2つの予測ブロックが組み合わされて、単一の予測信号を形成する。デコーダ側動きベクトル洗練(decoder-side motion vector refinement、DMVR)方法では、双予測の2つの動きベクトルが、バイラテラル・テンプレート・マッチング・プロセスによってさらに洗練される。バイラテラル・テンプレート・マッチングがデコーダにおいて適用され、追加的な動き情報を伝送することなく洗練されたMVを得るために、バイラテラル・テンプレートと参照ピクチャー内の再構成サンプルとの間の歪みベース探索が実行される。
DMVRでは、図13に示されるように、それぞれリスト0の初期MV0およびリスト1のMV1から、2つの予測ブロックの重み付けされた組み合わせ(すなわち平均)として、バイラテラル・テンプレートが生成される。テンプレート・マッチング動作は、生成されたテンプレートと参照ピクチャー内の(初期予測ブロックのまわりの)サンプル領域との間のコスト指標を計算することからなる。2つの参照ピクチャーのそれぞれについて、最小テンプレート・コストを与えるMVが、そのリストの更新されたMVと考えられ、もとのMVを置き換える。JEMでは、各リストについて9個のMV候補が探索される。9個のMV候補は、もとのMVと、水平方向もしくは垂直方向のいずれかまたは両方向において1つのルーマ・サンプルがもとのMVに対してオフセットされた8つの周囲のMVとを含む。最後に、2つの新しいMV、すなわち、図13に示されるMV0'およびMV1'が、最終的な双予測結果を生成するために使用される。差分絶対値和(SAD)がコスト指標として使用される。1つの周囲のMVによって生成される予測ブロックのコストを計算するとき、現実のMVの代わりに、実際には(整数画素に)丸められたMVが、予測ブロックを得るために使用されることに注意されたい。
DMVRは、追加的なシンタックス要素の伝送なしに、過去の参照ピクチャーからの1つのMVと、将来の参照ピクチャーからの別のMVとを用いた双予測のマージ・モードのために適用される。JEMでは、CUについて、LIC、アフィン動き、FRUC、またはサブCUマージ候補が有効にされているときは、DMVRは適用されない。
2.2.9.問題の例
DMVRおよびFRUCのようなDMVD諸方法は、デコーダにとって非常に複雑な、動き情報を導出または洗練するための動き推定を実行する。動き推定の間、それらは、一つの共通の問題を共有する、すなわち、テンプレートと候補ブロックとの間の差(差の絶対値(absolute difference)、二乗差(square difference)など)が、ブロック内のすべてのピクセルについて計算され、足し合わされ、次いで、最良のマッチング・ブロックを選択するために使用される。最良の候補ブロックまたはMVを選択するには一部のピクセルの差が十分に良好である場合があるため、これは必要ではない。一方、通例、動きベクトルの導出または洗練において、ルーマ成分のみが使用され、クロマ成分は考慮されない。
DMVRについては、テンプレートを生成するために1回、最終的な予測ブロックを生成するために1回と、2回動き補償を実行するという、もう一つの複雑さ問題がある。結果として、各参照ピクチャー・リスト(すなわち予測方向)について、初期MVおよび洗練されたMVが端数成分のみを有する場合、水平補間と垂直補間の両方を2回実行する。これは、最悪ケースの複雑さを劇的に増大させる。一方、DMVRはマージ・モードでのみ機能し、AMVPモードでは機能できない。MV洗練では、信号伝達されたMV(マージ候補からの導出されたMV)を開始MVとして、その周囲のMVをチェックする。しかしながら、信号伝達されたMVのMV精度は考慮されない。AMVRでは精度の低いMVが選択されることがある。たとえば、最高の許容可能なMV精度が1/4画素であるとすると、AMVRでは、4画素または1画素MVが使用されることがある。この場合、MV精度を洗練するためにDMVRを使用することができる。サブブロック・レベルで適用できるFRUCとは異なり、DMVRは、ATMVPおよびSTMVPの場合を除いて、ブロック・レベルで実行され、これは符号化性能損失につながる可能性がある。
FURCについては、バイラテラル・マッチングを実行するとき、式(4)のように信頼できない動きベクトルを抑制するために、開始MVと候補MVとの間のMV差を考慮する。MV差は固定の重み付け因子を乗算されるが、これは、不合理になることがある。より大きなブロックについては、SADは主要な役割を果たし、MV差は無視でき、より小さなブロックについては、MV差が大きすぎる可能性がある。
2.2.10.例示的実施形態
我々は、DMVD諸方法の複雑さを低減し、符号化性能を改善するためにいくつかの側面を提案する。開示される方法は、既存のDMVD方法に適用されることができるが、デコーダ側での動き/モード導出のための将来の方法にも適用されることができる。
第一に、テンプレートと候補ブロックとの間のコスト(たとえば、差、歪みまたは歪みとMVの両方を考慮したコスト)は、デコーダ側動き推定、すなわち、動き情報の導出または洗練手順において、一部のピクセル(partial pixels)についてのみ計算される。第二に、DMVRについて、補間回数(interpolation times)が低減される。第三に、開示された技法を使用するいくつかの実施形態は、DMVRをAMVPモードに適用する。第四に、MV差の重み付け因子は、異なるブロック・サイズについては異なることができる。
以下の例のリストは、開示された技法がビデオ・デコード・プロセスに具体化されることができるいくつかの仕方を提供する。
動きベクトル精度としてprecと表記し、precがNに等しい場合、それは動きベクトルが1/2^N画素精度をもつことを意味する。Nは、正の整数、ゼロまたは負の整数であることができる。
1.テンプレートと諸候補ブロックとの間のコスト(たとえば、差)が、動き情報導出または洗練手順において、部分的に選択された行(partially selected rows)についてのみ計算される。
a.一例では、選択された行は、N行毎のi番目の行のすべてとして定義され、N>1であり、1≦i≦Nである。たとえば、Nは2に等しく、iは1に等しい。
b.一例では、N行をもつ各グループについて、グループ内のある種の行が、選択された行として使用される。たとえば、4行毎の第1の行および第2の行が利用される。
c.一例では、コストは、ブロックの任意に選択された行、たとえば、最初の行と最後の行、または最初の2つの行と最後の2つの行、について計算される。
d.一部の行(partial rows)を選択するとき、すべてのブロック・サイズに同じルールが適用されることができる。あるいはまた、異なる規則が異なるブロック・サイズおよび/またはブロック形状(たとえば、正方形または長方形またはブロック幅とブロック高さの間の諸比率)に適用されることができる。
i.一例では、コスト計算中に、より大きなブロック・サイズについて、より多くの行がスキップされ、その逆も同様である。たとえば、ブロック・サイズが16×16より小さい場合(すなわち、幅×高さ<16×16)には、2行毎の最初の行について差が計算されるが、他のブロック・サイズについては、4行毎の最初の行について差が計算される。
ii.一例では、コスト計算中に、より大きな高さをもつブロック形状について、より多くの行がスキップされ、その逆も同様である。たとえば、コストは、ブロックの高さが16未満の場合、2行毎の最初の行について計算されるが、他のブロック・サイズについては、4行毎の最初の行についてコストが計算される。
iii.一例では、そのような単純化は、最悪ケースの複雑さを抑制するために、一つまたは複数の最小ブロック・サイズ(すなわち、最小の幅×高さ)にのみ適用される。たとえば、該単純化は8×8より小さい面積のブロックにのみ適用される。
iv.一例では、そのような単純化は、一つまたは複数の最大ブロック・サイズにのみ適用される。たとえば、該単純化は32×32より大きい面積のブロックにのみ適用される。
v.一例では、そのような単純化は、最大のブロック高さまたは幅をもつ一つまたは複数のブロック形状にのみ適用される。
vi.一例では、そのような単純化は、いくつかの選択されたブロック形状のみに適用される。
2.ブロックの各行またはブロックの選択された各行について、すべての列または一部の列(partial columns)についてコストが計算される。
a.一例では、コストは、T列毎のM個の連続する列(任意の有効な列Yで開始可能)について計算される。ここで、T>0、1≦M≦T、1≦Y≦T-M+1である。たとえば、T=8、M=4、Y=1である。
b.一例では、コストは、T列毎のM個の選択された列について計算される。
c.一例では、コストは、当該行のM個の任意に選択された列(たとえば、最初のK列および最後のL列)について計算される。
d.一部の列を選択するときは、すべてのブロック・サイズに同じ規則が適用できる。あるいはまた、異なるブロック・サイズおよび/またはブロック形状(たとえば、正方形または長方形またはブロック幅とブロック高さの間の諸比率)に異なる規則が適用できる。
i.一例では、コスト計算の間に、より大きなブロック・サイズについて、より多くの列がスキップされ、その逆もまた同様である。たとえば、ブロック・サイズが16×16より小さい場合、8列毎の最初の4列について差が計算されるが、他のブロック・サイズについては、16列毎の最初の4列について差が計算される。列が8または16より小さい場合は、最初の4列のみが差を計算するために使用される。
ii.一例では、コスト計算の間に、より大きな幅をもつブロック形状についてより多くの列がスキップされ、その逆もまた同様である。たとえば、コストは、ブロックの幅が16未満の場合、8列毎の最初の4列について計算されるが、他のブロック・サイズについては、16列毎の最初の4列についてコストが計算される。
iii.一例では、そのような単純化は、最悪ケースの複雑さを抑制するために、一つまたは複数の最小ブロック・サイズにのみ適用される。
iv.一例では、そのような単純化は、一つまたは複数の最大ブロック・サイズにのみ適用される。
v.一例では、そのような単純化は、最大のブロック幅をもつ一つまたは複数のブロック形状にのみ適用される。
vi.一例では、そのような単純化は、いくつかの選択されたブロック形状のみに適用される。
3.DMVRでは、テンプレートを生成するとき、JEMのように現実のMVを使用する代わりに、整数MVまたは整数の水平成分もしくは垂直成分をもつMVを使用して動き補償が実行される。
a.一例では、MV(水平成分と垂直成分の両方)は、両方の予測方向について整数精度に丸められる。
b.一例では、一方の予測方向のMVは整数精度に丸められ、他方の予測方向のMVは変更されない。
c.一例では、1つのMV成分(水平成分または垂直成分のいずれか)のみが、各予測方向について整数精度に丸められる。
d.一例では、一方の予測方向のMVは整数精度に丸められ、他方の予測方向の一つのMV成分のみが整数精度に丸められる。
e.一例では、一方の予測方向のMVは変更されず、他方の予測方向の一つのMV成分のみが整数精度に丸められる。
f.端数mvとしてfmvと表記し、丸められた整数精度mvとしてimvと表記する。xの符号としてsign(x)と表記する。sign(x)=1(x≧0の場合)、sing(x)=-1(x<0の場合)である。
i.imv=(fmv+(1<<(prec-1)))>>prec
ii.あるいはまた、imv=fmv>>prec
iii.あるいはまた、imv=(fmv+sign(fmv)*(1<<(prec-1)))>>prec
g.そのような単純化は、すべてのブロック・サイズに、または一つまたは複数のブロック・サイズおよび/またはある種のブロック形状にのみ適用されてもよい。
i.一例では、JEMまたはBMS(benchmark set[ベンチマークセット])における4×4、またはHEVCにおける4×8および8×4のような、一つまたは複数の最小ブロック・サイズに適用される。
ii.一例では、一つまたは複数の最大ブロック・サイズに適用される。
iii.一例では、いくつかの選択されたブロック・サイズに適用される。
4.代替的に、DMVRでは、テンプレートを生成するとき、より短いタップの補間フィルタ(たとえば、双線形フィルタ)が動き補償において使用される。
5.DMVRはサブブロック・レベルで実行されることが提案される。ブロックは、種々の仕方でサブブロックに分割できる。
a.一例では、すべてのブロックは、固定されたM×Nサブブロック・サイズ、たとえば、4×4または4×8または8×4または8×8または8×16または16×8または16×16に分割される。ブロック幅/高さがサブブロック幅/高さの整数倍である場合、ブロックはサブブロックに分割され、そうでない場合は、ブロックはサブブロックに分割されない。
b.一例では、ブロックは、等しいサイズのK個のサブブロックに分割される。ここで、K≧2である。たとえば、M×Nのブロックは、4個の(M/2)×(N/2)サブブロック、または2個の(M/2)×Nサブブロック、または2個のM×(N/2)ブロックに分割される。
c.一例では、分割方法は、ブロック・サイズまたはブロック形状または他の符号化された情報に依存する。たとえば、8×32のブロックは4×8サブブロックに分割され、32×8ブロックは8×4サブブロックに分割される。
d.一例では、サブブロックのテンプレートを生成するとき、ブロック全体の導出された動き情報が、現在のブロック・レベルDMVRにおけるように利用されてもよい。
i.代替的に、近傍サブブロック(単数または複数)の洗練された動き情報が、ブロック全体の導出された動き情報とともに、またはブロック全体の導出された動き情報なしに、テンプレートを形成するために利用されてもよい。
e.一例では、サブブロックの探索点は、他のサブブロック(単数または複数)からの洗練された動き情報も考慮してもよい。
6.一例では、(PMMVDにおいて)テンプレート・マッチングによって使用されるテンプレートは、図14に示されるように、現在のブロックに残っているピクセルを除いて、現在のブロックより上のピクセルのみを含む。
7.既存のDMVD諸方法では、ルーマ成分のみが動きベクトルを導出または洗練するために考慮される。クロマ成分をさらに考慮することが提案される。与えられた動きベクトルの3つの色成分のコストをCiで表す(ここで、iは色成分インデックスを示す)。
a.最終的なコストは、Wi*Ciとして定義される。ここで、Wiはi番目の色成分の重みを示す。
b.あるいはまた、最終的なコストは(W0*C0+W1*(C1+C2))と定義される。いくつかの例では、W0またはW1のいずれかが1に等しい。
c.一例では、DMVRをクロマ成分に適用するとき、動きベクトルの丸めが適用されてもよい。それにより、整数動きベクトルが利用されることができ、クロマ成分について補間を適用する必要がない。
d.一例では、DMVRをクロマ成分に適用するとき、補間が必要とされる場合は、より短いタップの補間フィルタ(たとえば、双線形フィルタ)が適用されてもよい。
8.上記の諸方法は、ある種の色成分、またはすべての色成分に適用されうる。
a.異なる色成分に対して異なる規則が適用されてもよく、あるいはルーマ成分とクロマ成分が異なる規則を利用してもよい。
b.あるいはまた、上記の諸方法をどのように適用するかおよび適用するか否かが、シーケンス・パラメータ・セット、ピクチャー・パラメータ・セット、スライス・ヘッダ等において、さらに信号伝達されてもよい。
図15は、ビデオ・デコードの例示的方法1500のためのフローチャートである。方法1500は、ビットストリームからの現在のビデオ・ブロックについて動き情報をデコードするステップ(1502)と、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップ(1504)であって、前記一つまたは複数のテンプレートのそれぞれは複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを用いて、現在のビデオ・ブロックの動き情報を洗練するステップ(1506)とを含む。
図16は、ビデオ・デコードの例示的方法1600のためのフローチャートである。方法1600は、ビットストリームから現在のビデオ・ブロックについての動き情報をデコードするステップ(1602)と、現在のビデオ・ブロックのサイズが第1のサイズより小さいかどうかを決定するステップ(1604)と、現在のビデオ・ブロックのサイズが第1のサイズより小さい場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれにおけるピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップ(1606)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックのサイズが第1のサイズより小さくない場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップ(1608)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを使用して、現在のビデオ・ブロックの動き情報を洗練するステップ(1610)とを含む。
図17は、ビデオ・デコードの例示的方法1700のためのフローチャートである。方法1700は、ビットストストリームから現在のビデオ・ブロックの動き情報をデコードするステップ(1702)と、現在のビデオ・ブロックのサイズが第1のサイズより大きいかどうかを決定するステップ(1704)と、現在のビデオ・ブロックのサイズが第1のサイズより大きい場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップ(1706)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックのサイズが第1のサイズより大きくない場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて、現在のビデオ・ブロックのマッチング・コストを推定するステップ(1708)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストを有するテンプレートを用いて現在のビデオ・ブロックの動き情報を洗練するステップ(1710)とを含む。
図18は、ビデオ・デコードの例示的方法1800のためのフローチャートである。方法1800は、ビットストリームから現在のビデオ・ブロックの動き情報をデコードするステップ(1802)と、現在のビデオ・ブロックの形状が選択された形状のグループの一つであるかどうかを判定するステップ(1804)と、現在のビデオ・ブロックの形状が選択された形状のグループのうちの一つである場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のピクセル位置の部分的な集合に基づいて現在のビデオ・ブロックのマッチング・コストを推定するステップ(1806)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、現在のビデオ・ブロックの形状が選択された形状のグループのうちの一つではない場合、一つまたは複数のテンプレートを用いて、前記一つまたは複数のテンプレートのそれぞれの中のすべてのピクセル位置に基づいて現在のビデオ・ブロックのマッチング・コストを推定するステップ(1808)であって、前記一つまたは複数のテンプレートのそれぞれが複数のサンプルをもつビデオ・ブロックを含む、ステップと、最小のマッチング・コストをもつテンプレートを用いて現在のビデオ・ブロックの動き情報を洗練するステップ(1810)とを含む。
上記の諸方法に関して、いくつかの実施形態では、ピクセル位置の部分的集合は、前記一つまたは複数のテンプレートのうち各テンプレートの行の部分集合を含む。いくつかの実施形態では、ピクセル位置の前記部分的な集合は、前記一つまたは複数のテンプレートのうちの各テンプレートのN行のグループ毎からのすべてのi番目の行を含む。
セクション2.2.10は、方法1500、1600、1700、または1800によって実装されることができる追加的な例示的実施形態および変形を提供する。
図19は、本願で開示される技術のさまざまな部分を実装するために利用できるハードウェア装置1900の例示的実施形態のブロック図を示す。ハードウェア装置1900は、ラップトップ、スマートフォン、タブレット、カムコーダ、またはビデオを処理することができる他のタイプの装置でありうる。装置1900は、データを処理するためのプロセッサまたはコントローラ1902と、データを記憶および/またはバッファするための、プロセッサ1902と通信するメモリ1904とを含む。たとえば、プロセッサ1902は、中央処理ユニット(CPU)またはマイクロコントローラ・ユニット(MCU)を含むことができる。いくつかの実装では、プロセッサ1902はフィールドプログラマブルゲートアレイ(FPGA)を含むことができる。いくつかの実装では、装置1900は、スマートフォン装置のさまざまな視覚的および/または通信データ処理機能のために、グラフィックス処理ユニット(GPU)、ビデオ処理ユニット(VPU)および/または無線通信ユニットを含むかまたはそれらと通信する。たとえば、メモリ1904は、プロセッサ1902によって実行されたときに、情報、コマンド、および/またはデータを受領すること、情報およびデータを処理すること、および処理された情報/データをアクチュエータまたは外部ディスプレイなどの別の装置に送信または提供するなどのさまざまな動作を実行するように装置1900を構成するプロセッサ実行可能コードを含み、記憶することができる。装置1900のさまざまな機能をサポートするために、メモリ1904は、命令、ソフトウェア、値、画像、およびプロセッサ1902によって処理または参照される他のデータのような情報およびデータを記憶することができる。たとえば、さまざまなタイプのランダムアクセスメモリ(RAM)デバイス、リードオンリーメモリ(ROM)デバイス、フラッシュメモリデバイス、および他の好適な記憶媒体が、メモリ1904の記憶機能を実装するために使用されることができる。装置1900は、さらに、変換およびデコードなどの反復的な計算機能を実行するための専用のビデオ処理回路1906を含んでいてもよい。装置1900は、方法1500、1600、1700または1800を実装するために使用されてもよい。
図20は、ビデオ・エンコーダの例示的実装を示すブロック図である。ビデオ・エンコーダは、変換、動き推定および残留誤差の符号化のような符号化ツールを用いて符号化されるビデオ・ピクチャーに対して作用する。エンコードされたビデオ・フレームはエンコーダで再構成され(動き補償され)、他のビデオ・ピクチャーのインター符号化のための参照ピクチャーとして使用される。本稿に記載される技法は、図19に関して記載されたようなハードウェア・プラットフォームを使用して、ビデオ・エンコーダまたはビデオ・デコーダによって実装されてもよい。
以上から、本明細書において、例解の目的で、本願で開示される技術の個別的な実施形態が説明されてきたが、本発明の範囲を逸脱することなく、さまざまな修正をなしうることが理解されるであろう。よって、本願で開示される技術は、添付の特許請求の範囲によるほかは限定されない。
本稿に記載された開示されたまたは他の実施形態、モジュール、および機能的動作は、デジタル電子回路、または本稿に開示された構造およびその構造的等価物を含むコンピュータ・ソフトウェア、ファームウェア、もしくはハードウェア、またはそれらの一つまたは複数の組み合わせで実現できる。開示されたおよび他の実施形態は、一つまたは複数のコンピュータ・プログラム製品、すなわち、データ処理装置による実行のため、またはデータ処理装置の動作を制御するための、コンピュータ読み取り可能媒体上にエンコードされたコンピュータ・プログラム命令の一つまたは複数のモジュールとして実装できる。コンピュータ読み取り可能媒体は、機械読み取り可能記憶デバイス、機械読み取り可能記憶基板、メモリデバイス、機械読み取り可能な伝搬信号に影響を与える物質の組成、またはそれらの一つまたは複数の組み合わせでありうる。用語「データ処理装置」は、たとえば、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのあらゆる装置、デバイス、および機械を包含する。装置は、ハードウェアに加えて、問題のコンピュータ・プログラムのための実行環境を生成するコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの一つまたは複数の組み合わせを構成するコードを含むことができる。伝搬信号は、人工的に生成された信号、たとえば、好適な受信器装置に送信するための情報をエンコードするために生成された、機械生成された電気信号、光信号、または電磁信号である。
コンピュータ・プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとしても知られる)は、コンパイル式またはインタープリット式言語を含む、任意の形のプログラミング言語で書くことができ、スタンドアローン・プログラムとして、またはコンピューティング環境での使用に好適なモジュール、コンポーネント、サブルーチン、または他のユニットとしてを含め、任意の形の展開することができる。コンピュータ・プログラムは、必ずしもファイルシステム内のファイルに対応するものではない。プログラムは、他のプログラムまたはデータを保持するファイルの一部分(たとえば、マークアップ言語文書に格納された一つまたは複数のスクリプト)、問題のプログラム専用の単一ファイル、または複数の協調するファイル(たとえば、一つまたは複数のモジュール、サブプログラム、またはコードの一部分を記憶するファイル)に記憶できる。コンピュータ・プログラムは、1つのコンピュータ上で、または1つのサイトに位置されるか、もしくは複数のサイトに分散され、通信ネットワークによって相互接続される複数のコンピュータ上で実行されるように展開することができる。
本稿に記載されるプロセスおよび論理フローは、一つまたは複数のコンピュータ・プログラムを実行する一つまたは複数のプログラマブルプロセッサによって実行されて、入力データに対して作用して、出力を生成することによって機能を実行することができる。プロセスおよび論理フローはまた、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)のような特殊目的の論理回路によって実行されることができ、装置もかかる論理回路として実装されることができる。
コンピュータ・プログラムの実行に好適なプロセッサは、たとえば、汎用および専用マイクロプロセッサの両方、および任意の種類のデジタル・コンピュータの任意の一つまたは複数のプロセッサを含む。一般に、プロセッサは、読み出し専用メモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受領する。コンピュータの本質的な要素は、命令を実行するためのプロセッサと、命令およびデータを記憶するための一つまたは複数のメモリデバイスである。一般に、コンピュータはまた、データを記憶するための一つまたは複数の大容量記憶装置、たとえば、磁気ディスク、光磁気ディスク、または光ディスクを含む、またはかかる大容量記憶装置に動作可能に結合されて、かかる大容量記憶装置からデータを受領したり、それらにデータを転送したり、またはその両方をする。しかしながら、コンピュータは、そのような装置を有する必要はない。コンピュータ・プログラム命令およびデータを記憶するのに好適なコンピュータ読み取り可能媒体は、たとえば、EPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体メモリデバイス;磁気ディスク、たとえば、内部ハードディスクまたはリムーバブルディスク;光磁気ディスク;ならびにCD-ROMおよびDVD-ROMディスクを含む、あらゆる形の不揮発性メモリ、媒体およびメモリデバイスを含む。プロセッサおよびメモリは、特殊目的論理回路によって補足されるか、特殊目的論理回路内に組み込まれることができる。
本特許文献は多くの個別事項を含んでいるが、これらは、いずれかの発明の範囲または特許請求されうるものに対する限定としてではなく、特定の発明の特定の実施形態に特有でありうる事項の説明と解釈されるべきである。別々の実施形態の文脈で本特許文献において記載されているある種の事項が、単一の実施形態において組み合わせて実装されることもできる。逆に、単一の実施形態の文脈において記載されているさまざまな事項が、複数の実施形態において別々に、または任意の好適なサブコンビネーションにおいて実装されることもできる。さらに、諸事項が、ある種の組み合わせにおいて作用するものとして上述され、当初はそのように請求項に記載されることさえありうるが、請求項に記載された組み合わせからの一つまたは複数の事項が、場合によっては、組み合わせから切り出されることができ、請求項に記載された組み合わせは、サブコンビネーションまたはサブコンビネーションの変形に向けられてもよい。
同様に、図面には特定の順序で動作が示されているが、これは、所望の結果を達成するために、そのような動作が示される特定の順序で、または逐次順で実行されること、または、示されたすべての動作が実行されることを要求するものとして理解されるべきではない。さらに、この特許文献に記載されている実施形態におけるさまざまなシステム・コンポーネントの分離は、すべての実施形態においてそのような分離を必要とするものとして理解されるべきではない。
若干の実装および例のみが記述されており、本特許文献に記載され、示されている内容に基づいて、他の実装、向上および変形ができる。

Claims (18)

  1. ビデオ・データを符号化する方法であって:
    現在のビデオ・ブロックについての動き情報を導出するステップと;
    前記動き情報に基づき、デコーダ動きベクトル洗練(DMVR)ツールを使って、洗練された動き情報を導出するステップであって、現在のビデオ・ブロックと関係した参照ピクチャーにおける一つまたは複数の領域の各領域におけるサンプルの部分的な集合が、各領域に対応するマッチング・コストを計算するために使用され、前記マッチング・コストは前記洗練された動き情報を決定するために使用され、前記各領域におけるサンプルの部分的な集合は、前記各領域の複数の部分領域の各部分領域の一部のサンプルを含み、前記複数の部分領域は同じサイズをもつ、ステップと;
    前記洗練された動き情報を使って現在のビデオ・ブロックとビットストリームとの間の変換を実行するステップとを含む、
    方法。
  2. 前記各部分領域がサンプルのN行を含み、前記各部分領域におけるサンプルの前記部分的な集合が、前記各部分領域におけるサンプルの少なくとも1つの行を含み、Nは1より大きな整数である、請求項1に記載の方法。
  3. 前記各部分領域におけるサンプルの前記少なくとも1つの行が、前記各部分領域におけるサンプルのi番目の行であり、iの値は前記複数の部分領域について同じであり、iの値は1以上N以下である、請求項2に記載の方法。
  4. iの値があらかじめ定義されている、請求項3に記載の方法。
  5. 前記各部分領域におけるサンプルの前記少なくとも1つの行が、前記各部分領域における最初の行である、請求項2に記載の方法。
  6. Nの値があらかじめ定義されている、請求項2ないし5のうちいずれか一項に記載の方法。
  7. N=2である、請求項2ないし6のうちいずれか一項に記載の方法。
  8. 前記現在のビデオ・ブロックが少なくとも1つのサブブロックを含み、前記現在のビデオ・ブロックについて導出される前記動き情報が各サブブロックの動き情報を含み、前記現在のビデオ・ブロックについて導出される前記洗練された動き情報が各サブブロックの洗練された動き情報を含む、請求項1ないし7のうちいずれか一項に記載の方法。
  9. 前記サブブロックの幅および高さの少なくとも一方が16以下である、請求項8に記載の方法。
  10. 前記現在のビデオ・ブロックのルーマ成分が、前記DMVRツールを使うことによって前記洗練された動き情報を導出するために使用される、請求項1ないし9のうちいずれか一項に記載の方法。
  11. 前記一つまたは複数の領域が、前記現在のビデオ・ブロックについて導出されたもとの動きベクトルに基づいて決定される、請求項1ないし10のうちいずれか一項に記載の方法。
  12. 前記一つまたは複数の領域が、前記参照ピクチャーにおけるもとの動きベクトルに対応するもとの領域に対する少なくとも1つのオフセットに対応する少なくとも1つの領域を含む、請求項1ないし11のうちいずれか一項に記載の方法。
  13. 前記洗練された動き情報に対応する洗練された予測領域が、前記一つまたは複数の領域のうち最小マッチング・コストに対応する領域である、請求項1ないし12のうちいずれか一項に記載の方法。
  14. 前記変換することが、前記現在のビデオ・ブロックをビットストリームにエンコードすることを含む、請求項1ないし13のうちいずれか一項に記載の方法。
  15. 前記変換することが、ビットストリームから前記現在のビデオ・ブロックをデコードすることを含む、請求項1ないし14のうちいずれか一項に記載の方法。
  16. プロセッサおよび命令を備えた非一時的メモリを有する、ビデオ・データを符号化する装置であって、前記命令は、前記プロセッサによって実行されると、前記プロセッサに:
    現在のビデオ・ブロックについての動き情報を導出するステップと;
    前記動き情報に基づき、デコーダ動きベクトル洗練(DMVR)ツールを使って、洗練された動き情報を導出するステップであって、現在のビデオ・ブロックと関係した参照ピクチャーにおける一つまたは複数の領域の各領域におけるサンプルの部分的な集合が、各領域に対応するマッチング・コストを計算するために使用され、前記マッチング・コストは前記洗練された動き情報を決定するために使用され、前記各領域におけるサンプルの部分的な集合は、前記各領域の複数の部分領域の各部分領域の一部のサンプルを含み、前記複数の部分領域は同じサイズをもつ、ステップと;
    前記洗練された動き情報を使って現在のビデオ・ブロックとビットストリームとの間の変換を実行するステップとを実行させるものである、
    装置。
  17. 命令を記憶している非一時的なコンピュータ読み取り可能な記憶媒体であって、前記命令は、プロセッサに:
    現在のビデオ・ブロックについての動き情報を導出するステップと;
    前記動き情報に基づき、デコーダ動きベクトル洗練(DMVR)ツールを使って、洗練された動き情報を導出するステップであって、現在のビデオ・ブロックと関係した参照ピクチャーにおける一つまたは複数の領域の各領域におけるサンプルの部分的な集合が、各領域に対応するマッチング・コストを計算するために使用され、前記マッチング・コストは前記洗練された動き情報を決定するために使用され、前記各領域におけるサンプルの部分的な集合は、前記各領域の複数の部分領域の各部分領域の一部のサンプルを含み、前記複数の部分領域は同じサイズをもつ、ステップと;
    前記洗練された動き情報を使って現在のビデオ・ブロックとビットストリームとの間の変換を実行するステップとを実行させるものである、
    記憶媒体。
  18. ビデオのビットストリームを記憶するための方法であって
    現在のビデオ・ブロックについての動き情報を導出するステップと;
    前記動き情報に基づき、デコーダ動きベクトル洗練(DMVR)ツールを使って、洗練された動き情報を導出するステップであって、現在のビデオ・ブロックと関係した参照ピクチャーにおける一つまたは複数の領域の各領域におけるサンプルの部分的な集合が、各領域に対応するマッチング・コストを計算するために使用され、前記マッチング・コストは前記洗練された動き情報を決定するために使用され、前記各領域におけるサンプルの部分的な集合は、前記各領域の複数の部分領域の各部分領域の一部のサンプルを含み、前記複数の部分領域は同じサイズをもつ、ステップと;
    前記洗練された動き情報を使って現在のビデオ・ブロックから前記ビットストリームを生成するステップと
    前記ビットストリームを非一時的なコンピュータ読み取り可能記録媒体に記憶するステップとを含む、
    方法
JP2020568386A 2018-06-07 2019-06-06 部分的コスト計算 Active JP7096373B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022099377A JP7417670B2 (ja) 2018-06-07 2022-06-21 部分的コスト計算

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862682150P 2018-06-07 2018-06-07
US62/682,150 2018-06-07
PCT/IB2019/054710 WO2019234672A1 (en) 2018-06-07 2019-06-06 Partial cost calculation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022099377A Division JP7417670B2 (ja) 2018-06-07 2022-06-21 部分的コスト計算

Publications (2)

Publication Number Publication Date
JP2021528896A JP2021528896A (ja) 2021-10-21
JP7096373B2 true JP7096373B2 (ja) 2022-07-05

Family

ID=67402974

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020568386A Active JP7096373B2 (ja) 2018-06-07 2019-06-06 部分的コスト計算
JP2022099377A Active JP7417670B2 (ja) 2018-06-07 2022-06-21 部分的コスト計算

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022099377A Active JP7417670B2 (ja) 2018-06-07 2022-06-21 部分的コスト計算

Country Status (8)

Country Link
US (3) US11159816B2 (ja)
EP (2) EP3788788A1 (ja)
JP (2) JP7096373B2 (ja)
KR (2) KR102605638B1 (ja)
CN (8) CN110581999B (ja)
GB (1) GB2589222B (ja)
TW (7) TWI736906B (ja)
WO (7) WO2019234669A1 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210016581A (ko) 2018-06-05 2021-02-16 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Ibc 및 atmvp 간의 상호 작용
WO2019234669A1 (en) 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Signaled mv precision
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
KR102701593B1 (ko) 2018-06-21 2024-08-30 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 칼라 컴포넌트 간의 서브 블록 mv 상속
KR20210021971A (ko) * 2018-06-22 2021-03-02 소니 주식회사 화상 처리 장치 및 방법
CN110662059B (zh) 2018-06-29 2021-04-20 北京字节跳动网络技术有限公司 使用查找表存储先前编码的运动信息并用其编码后续块的方法和装置
CN115134599A (zh) 2018-06-29 2022-09-30 抖音视界有限公司 更新查找表(lut)的条件
CN114845108A (zh) 2018-06-29 2022-08-02 抖音视界(北京)有限公司 查找表的更新:fifo、约束的fifo
KR102646649B1 (ko) 2018-06-29 2024-03-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
WO2020003261A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Selection from multiple luts
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
TWI719519B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 對於dmvr的塊尺寸限制
JP7181395B2 (ja) 2018-07-02 2022-11-30 北京字節跳動網絡技術有限公司 イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
CN117768651A (zh) 2018-09-24 2024-03-26 北京字节跳动网络技术有限公司 处理视频数据的方法、装置、介质、以及比特流存储方法
CN111083484B (zh) 2018-10-22 2024-06-28 北京字节跳动网络技术有限公司 基于子块的预测
CN111093073B (zh) 2018-10-24 2024-04-19 北京字节跳动网络技术有限公司 用于子块运动矢量预测的基于搜索的运动候选推导
EP3861723A4 (en) 2018-11-10 2022-04-20 Beijing Bytedance Network Technology Co., Ltd. ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS
WO2020098643A1 (en) 2018-11-12 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Simplification of combined inter-intra prediction
CN113170093B (zh) 2018-11-20 2023-05-02 北京字节跳动网络技术有限公司 视频处理中的细化帧间预测
CN117319644A (zh) 2018-11-20 2023-12-29 北京字节跳动网络技术有限公司 基于部分位置的差计算
CN113056920B (zh) 2018-11-22 2024-05-24 北京字节跳动网络技术有限公司 基于子块的帧间预测的协调方法
CN111263152B (zh) 2018-11-30 2021-06-01 华为技术有限公司 视频序列的图像编解码方法和装置
WO2020143741A1 (en) 2019-01-10 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Invoke of lut updating
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
WO2020156538A1 (en) 2019-02-03 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Interaction between mv precisions and mv difference coding
CN113424533B (zh) 2019-02-14 2024-09-10 北京字节跳动网络技术有限公司 复杂度降低的解码器侧运动推导
US11190797B2 (en) * 2019-03-01 2021-11-30 Qualcomm Incorporated Constraints on decoder-side motion vector refinement based on weights for bi-predicted prediction
WO2020177756A1 (en) 2019-03-06 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Size dependent inter coding
WO2020184847A1 (ko) * 2019-03-12 2020-09-17 엘지전자 주식회사 Dmvr 및 bdof 기반의 인터 예측 방법 및 장치
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN115190317A (zh) 2019-04-02 2022-10-14 抖音视界有限公司 解码器侧运动矢量推导
EP3942811A4 (en) 2019-04-24 2022-06-15 ByteDance Inc. CONSTRAINTS ON THE REPRESENTATION OF A DIFFERENTIAL MODULATION BY CODED PULSES OF QUANTIFIED RESIDUE FOR A CODED VIDEO
CN117857783A (zh) * 2019-05-01 2024-04-09 字节跳动有限公司 使用量化残差差分脉冲码调制编解码的帧内编解码视频
CN117615130A (zh) 2019-05-02 2024-02-27 字节跳动有限公司 基于编解码树结构类型的编解码模式
EP3949387A4 (en) 2019-05-02 2022-05-18 ByteDance Inc. SIGNALING IN A TRANSFORM JUMP MODE
JP7481430B2 (ja) 2019-08-13 2024-05-10 北京字節跳動網絡技術有限公司 サブブロックに基づくインター予測における動き精度
US11736720B2 (en) * 2019-09-03 2023-08-22 Tencent America LLC Motion vector refinement methods for video encoding
WO2021052505A1 (en) 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Reference picture resampling in video processing
CN111050182B (zh) * 2019-12-27 2022-02-18 浙江大华技术股份有限公司 运动矢量的预测方法、视频编码方法及相关设备、装置
US12113987B2 (en) * 2020-12-22 2024-10-08 Qualcomm Incorporated Multi-pass decoder-side motion vector refinement
CN113014925B (zh) * 2021-01-27 2022-08-23 重庆邮电大学 一种h.266/vvc帧间编码cu快速划分方法及存储介质
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation
EP4320860A1 (en) * 2021-04-09 2024-02-14 InterDigital CE Patent Holdings, SAS Intra block copy with template matching for video encoding and decoding
CN117616756A (zh) * 2021-06-04 2024-02-27 抖音视界有限公司 用于视频处理的方法、设备和介质
US20240275984A1 (en) * 2021-06-04 2024-08-15 Beijing Bytedance Network Technology Co., Ltd. Method, device, and medium for video processing
CN117957837A (zh) * 2021-07-14 2024-04-30 抖音视界有限公司 用于视频处理的方法、装置和介质
WO2023020588A1 (en) * 2021-08-19 2023-02-23 Mediatek Singapore Pte. Ltd. Template matching based motion vector refinement in video coding system
WO2023088473A1 (en) * 2021-11-22 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
CN118592027A (zh) * 2021-11-22 2024-09-03 抖音视界有限公司 用于视频处理的方法、装置和介质
WO2023202569A1 (en) * 2022-04-19 2023-10-26 Mediatek Inc. Extended template matching for video coding
US20240137552A1 (en) * 2022-10-10 2024-04-25 Tencent America LLC Method and apparatus for extended decoder side motion vector refinement
US20240195993A1 (en) * 2022-12-09 2024-06-13 Comcast Cable Communications, Llc Coding unit prediction using template matching costs
WO2024211098A1 (en) * 2023-04-03 2024-10-10 Google Llc Sub-block based motion vector refinement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015142833A1 (en) 2014-03-17 2015-09-24 Qualcomm Incorporated Method for motion estimation of non-natural video data
US20180199057A1 (en) 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
WO2019001786A1 (en) 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
WO2019231706A1 (en) 2018-06-01 2019-12-05 Tencent America LLC Method and apparatus for video coding

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5661524A (en) * 1996-03-08 1997-08-26 International Business Machines Corporation Method and apparatus for motion estimation using trajectory in a digital video encoder
US5987180A (en) * 1997-09-26 1999-11-16 Sarnoff Corporation Multiple component compression encoder motion search method and apparatus
US6876703B2 (en) * 2000-05-11 2005-04-05 Ub Video Inc. Method and apparatus for video coding
CN101448162B (zh) * 2001-12-17 2013-01-02 微软公司 处理视频图像的方法
US7720151B2 (en) * 2003-02-11 2010-05-18 Texas Instruments Incorporated Motion estimation using early decision for goodness of estimation with quick convergence feedback
US7145950B2 (en) * 2003-07-14 2006-12-05 Primax Electronics Ltd. Method of motion vector determination in digital video compression
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7627037B2 (en) 2004-02-27 2009-12-01 Microsoft Corporation Barbell lifting for multi-layer wavelet coding
GB0500174D0 (en) * 2005-01-06 2005-02-16 Kokaram Anil Method for estimating motion and occlusion
EP1835749A1 (en) 2006-03-16 2007-09-19 THOMSON Licensing Method for coding video data of a sequence of pictures
US7672377B2 (en) * 2006-04-21 2010-03-02 Dilithium Holdings, Inc. Method and system for video encoding and transcoding
US8428118B2 (en) * 2006-08-17 2013-04-23 Ittiam Systems (P) Ltd. Technique for transcoding MPEG-2/MPEG-4 bitstream to H.264 bitstream
US8553758B2 (en) * 2007-03-02 2013-10-08 Sony Corporation Motion parameter engine for true motion
US8605786B2 (en) * 2007-09-04 2013-12-10 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US9225996B2 (en) * 2007-12-19 2015-12-29 Vixs Systems, Inc. Motion refinement engine with flexible direction processing and methods for use therewith
US8228990B2 (en) * 2008-01-16 2012-07-24 Sony Corporation Template matching scheme using multiple predictors as candidates for intra-prediction
EP2101504B1 (en) * 2008-03-09 2012-07-25 LG Electronics Inc. Video coding using template matching
US8638395B2 (en) * 2009-06-05 2014-01-28 Cisco Technology, Inc. Consolidating prior temporally-matched frames in 3D-based video denoising
US8520731B2 (en) * 2009-06-05 2013-08-27 Cisco Technology, Inc. Motion estimation for noisy frames based on block matching of filtered blocks
CN105120265B (zh) * 2009-08-12 2019-01-29 汤姆森特许公司 用于改进的帧内色度编码和解码的方法及装置
TWI566586B (zh) * 2009-10-20 2017-01-11 湯姆生特許公司 一序列形象的現時區塊之寫碼方法和重建方法
KR101036552B1 (ko) * 2009-11-02 2011-05-24 중앙대학교 산학협력단 적응적 탐색 영역 및 부분 정합 오차 기반의 고속 움직임 추정 장치 및 방법
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
US9497481B2 (en) * 2010-02-09 2016-11-15 Nippon Telegraph And Telephone Corporation Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof
US8976873B2 (en) * 2010-11-24 2015-03-10 Stmicroelectronics S.R.L. Apparatus and method for performing error concealment of inter-coded video frames
US9380314B2 (en) * 2010-12-20 2016-06-28 Texas Instruments Incorporated Pixel retrieval for frame reconstruction
US9509995B2 (en) * 2010-12-21 2016-11-29 Intel Corporation System and method for enhanced DMVD processing
US8755437B2 (en) * 2011-03-17 2014-06-17 Mediatek Inc. Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate
CN102710934B (zh) * 2011-01-22 2015-05-06 华为技术有限公司 一种运动预测或补偿方法
US9549182B2 (en) 2012-07-11 2017-01-17 Qualcomm Incorporated Repositioning of prediction residual blocks in video coding
KR20150038249A (ko) 2012-09-28 2015-04-08 인텔 코포레이션 계층간 화소 샘플 예측
SG11201500314WA (en) 2012-09-28 2015-02-27 Intel Corp Inter-layer residual prediction
US9294777B2 (en) 2012-12-30 2016-03-22 Qualcomm Incorporated Progressive refinement with temporal scalability support in video coding
US9521425B2 (en) 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9667996B2 (en) 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US10531116B2 (en) * 2014-01-09 2020-01-07 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
EP3139605A4 (en) * 2014-04-28 2017-05-17 Panasonic Intellectual Property Corporation of America Encoding method, decoding method, encoding apparatus, and decoding apparatus
CN104780383B (zh) * 2015-02-02 2017-09-19 杭州电子科技大学 一种3d‑hevc多分辨率视频编码方法
US10958927B2 (en) * 2015-03-27 2021-03-23 Qualcomm Incorporated Motion information derivation mode determination in video coding
WO2016206748A1 (en) * 2015-06-25 2016-12-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Refinement of a low-pel resolution motion estimation vector
MY197611A (en) * 2015-09-25 2023-06-28 Huawei Tech Co Ltd Apparatus and method for video motion compensation
EP3456049B1 (en) * 2016-05-13 2022-05-04 VID SCALE, Inc. Systems and methods for generalized multi-hypothesis prediction for video coding
US10602191B2 (en) * 2016-05-13 2020-03-24 Gopro, Inc. Apparatus and methods for video compression
CA3025488A1 (en) * 2016-05-25 2017-11-30 Arris Enterprises Llc Weighted angular prediction for intra coding
US10944963B2 (en) 2016-05-25 2021-03-09 Arris Enterprises Llc Coding weighted angular prediction for intra coding
EP3264768A1 (en) * 2016-06-30 2018-01-03 Thomson Licensing Method and apparatus for video coding with adaptive motion information refinement
US11638027B2 (en) 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
US10798404B2 (en) * 2016-10-05 2020-10-06 Qualcomm Incorporated Systems and methods of performing improved local illumination compensation
US10750203B2 (en) 2016-12-22 2020-08-18 Mediatek Inc. Method and apparatus of adaptive bi-prediction for video coding
CN110140355B (zh) 2016-12-27 2022-03-08 联发科技股份有限公司 用于视频编解码的双向模板运动向量微调的方法及装置
EP3343925A1 (en) * 2017-01-03 2018-07-04 Thomson Licensing Method and apparatus for encoding and decoding motion information
US10701366B2 (en) 2017-02-21 2020-06-30 Qualcomm Incorporated Deriving motion vector information at a video decoder
US10523964B2 (en) * 2017-03-13 2019-12-31 Qualcomm Incorporated Inter prediction refinement based on bi-directional optical flow (BIO)
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
EP3451664A1 (en) * 2017-09-01 2019-03-06 Thomson Licensing Motion compensation at a finer precision than motion vector differential
CN107483960B (zh) * 2017-09-15 2020-06-02 信阳师范学院 一种基于空间预测的运动补偿帧率上转换方法
US10785494B2 (en) * 2017-10-11 2020-09-22 Qualcomm Incorporated Low-complexity design for FRUC
US11750832B2 (en) 2017-11-02 2023-09-05 Hfi Innovation Inc. Method and apparatus for video coding
KR102387363B1 (ko) 2017-11-30 2022-04-18 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치
US11575925B2 (en) * 2018-03-30 2023-02-07 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium in which bitstream is stored
US20190306502A1 (en) 2018-04-02 2019-10-03 Qualcomm Incorporated System and method for improved adaptive loop filtering
US10779002B2 (en) 2018-04-17 2020-09-15 Qualcomm Incorporated Limitation of the MVP derivation based on decoder-side motion vector derivation
WO2019234669A1 (en) 2018-06-07 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Signaled mv precision
TWI719519B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 對於dmvr的塊尺寸限制
WO2020084461A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Restrictions on decoder side motion vector derivation based on coding information
WO2020084465A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Simplified coding of generalized bi-directional index
CN112997485A (zh) 2018-11-05 2021-06-18 北京字节跳动网络技术有限公司 用于具有细化的帧间预测的插值
JP2022547599A (ja) 2019-09-12 2022-11-14 アリババ グループ ホウルディング リミテッド 映像符号化情報をシグナリングするための方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015142833A1 (en) 2014-03-17 2015-09-24 Qualcomm Incorporated Method for motion estimation of non-natural video data
US20180199057A1 (en) 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding
WO2019001786A1 (en) 2017-06-30 2019-01-03 Huawei Technologies Co., Ltd. MOTION VECTOR REFINEMENT FOR MULTI-REFERENCE PREDICTION
WO2019231706A1 (en) 2018-06-01 2019-12-05 Tencent America LLC Method and apparatus for video coding

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Hongbin Liu, et al.,CE9-related: Simplification of Decoder Side Motion Vector Derivation,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0105-v1,11th Meeting: Ljubljana, SI,2018年07月,pp.1-3
Meng Xu, Xiang Li, Stephan Wenger, and Shan Liu,CE9-related: Memory bandwidth reduction for DMVR,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-K0288,11th Meeting: Ljubljana, SI,2018年07月,pp.1-3
Xiaoyu Xiu, et al.,Description of SDR, HDR, and 360° video coding technology proposal by InterDigital Communications and Dolby Laboratories,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-J0015-v1,10th Meeting: San Diego, US,2018年04月,pp.i,3-7
Xu Chen, Jicheng An, and Jianhua Zheng,Decoder-Side Motion Vector Refinement Based on Bilateral Template Matching,Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-D0029,4th Meeting: Chengdu, CN,2016年10月,pp.1-4

Also Published As

Publication number Publication date
TWI718555B (zh) 2021-02-11
CN110581999A (zh) 2019-12-17
GB2589222B (en) 2023-01-25
CN110582000B (zh) 2022-03-25
KR102605638B1 (ko) 2023-11-22
TW202013967A (zh) 2020-04-01
CN110581998A (zh) 2019-12-17
US20200374543A1 (en) 2020-11-26
EP4351140A1 (en) 2024-04-10
TWI736905B (zh) 2021-08-21
US20220030265A1 (en) 2022-01-27
GB202018865D0 (en) 2021-01-13
JP7417670B2 (ja) 2024-01-18
TW202002652A (zh) 2020-01-01
WO2019234671A1 (en) 2019-12-12
CN110581997A (zh) 2019-12-17
CN110581996B (zh) 2022-03-25
KR20210018896A (ko) 2021-02-18
TWI736907B (zh) 2021-08-21
WO2019234674A1 (en) 2019-12-12
CN110581994B (zh) 2022-07-19
WO2019234676A1 (en) 2019-12-12
CN110581992B (zh) 2022-06-14
CN110581997B (zh) 2021-10-12
US20200374544A1 (en) 2020-11-26
GB2589222A (en) 2021-05-26
CN110581996A (zh) 2019-12-17
KR20230161539A (ko) 2023-11-27
US11159816B2 (en) 2021-10-26
CN110581994A (zh) 2019-12-17
TW202013966A (zh) 2020-04-01
TWI707579B (zh) 2020-10-11
TWI736906B (zh) 2021-08-21
CN110581999B (zh) 2022-03-25
WO2019234669A1 (en) 2019-12-12
CN110581992A (zh) 2019-12-17
WO2019234673A1 (en) 2019-12-12
CN110582000A (zh) 2019-12-17
TW202019180A (zh) 2020-05-16
WO2019234668A1 (en) 2019-12-12
TW202013979A (zh) 2020-04-01
CN114827626A (zh) 2022-07-29
TWI711299B (zh) 2020-11-21
CN110581998B (zh) 2023-04-14
JP2022123085A (ja) 2022-08-23
JP2021528896A (ja) 2021-10-21
TWI727338B (zh) 2021-05-11
TW202005383A (zh) 2020-01-16
EP3788788A1 (en) 2021-03-10
TW202002637A (zh) 2020-01-01
US12075084B2 (en) 2024-08-27
WO2019234672A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
JP7096373B2 (ja) 部分的コスト計算
US11876932B2 (en) Size selective application of decoder side refining tools
CN113170181A (zh) 块内拷贝模式中的仿射继承方法
JP2022505886A (ja) インター予測のためのバンド幅制御方法
JP2022506119A (ja) インター-イントラ複合予測モードにおける重み
JP7322277B2 (ja) 参照ピクチャタイプに従ったツールの使用制限
CN110858901A (zh) 使用时域邻居的重叠块运动补偿
CN113557720B (zh) 视频处理方法、装置以及非暂态计算机可读介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150