JP2024029161A - デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置 - Google Patents

デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置 Download PDF

Info

Publication number
JP2024029161A
JP2024029161A JP2023222829A JP2023222829A JP2024029161A JP 2024029161 A JP2024029161 A JP 2024029161A JP 2023222829 A JP2023222829 A JP 2023222829A JP 2023222829 A JP2023222829 A JP 2023222829A JP 2024029161 A JP2024029161 A JP 2024029161A
Authority
JP
Japan
Prior art keywords
motion vector
block
unrefined
refined
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023222829A
Other languages
English (en)
Inventor
シウ、シャオユウ
フ、ユーウェン
ユー、ヤン
Original Assignee
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2024029161A publication Critical patent/JP2024029161A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】DMVRにより生じるコーディング待ち時間を低減させるビデオコーディングシステムおよび方法が提案される。【解決手段】双予測を使用して、サンプルの第1のブロック(例えば、第1のコーディングユニット)をコーディングするための2つのリファインされていない動きベクトルが識別される。サンプルの第2のブロック(例えば、第2のコーディングユニット)に対する動き情報を予測するために、リファインされていない動きベクトルの一方または両方が使用される。2つのリファインされていない動きベクトルは、DMVRを使用してリファインされ、サンプルの第1のブロックの予測信号を生成するために、リファインされた動きベクトルが使用される。そのような実施形態は、第1のブロック上でのDMVRの完了を待機することなく、サンプルの第2のブロックが第1のブロックと実質的に並列してコーディングされることを可能にする。【選択図】図13

Description

関連出願の相互参照
本出願は、その全体を参照することによって本明細書に組み込まれる、「Methods and Apparatus for Reducing the Coding Latency of Decoder-Side Motion Refinement」と題する米国仮特許出願第62/690,507号(2018年6月27日に出願された)からの特許出願であり、その利益を主張する。
デジタルビデオ信号を圧縮して、そのような信号の記憶の必要性および/または伝送帯域幅を低減させるために、ビデオコーディングシステムが広範囲に使用されている。ブロックベースシステム、ウェーブレットベースシステム、およびオブジェクトベースシステム、最近ではブロックベースハイブリッドビデオコーディングシステムなど、様々なタイプのビデオコーディングシステムが、最も広く使用および開発されている。ブロックベースビデオコーディングシステムの例は、MPEG1/2/4 part2、H.264/MPEG-4 part10 AVC、VC-1、ならびにITU-T/SG16/Q.6/VCEGおよびISO/IEC/MPEGのJCT-VC(Joint Collaborative Team on Video Coding)によって開発されたHigh Efficiency video Coding(HEVC)と称される最新のビデオコーディング標準などの国際ビデオコーディング標準を含む。
HEVC標準の最初のバージョンは、2013年10月に完成され、前の世代のビデオコーディング標準H.264/MPEG AVCと比較して、おおよそ50%ビットレートの節約または同等の知覚品質をもたらす。HEVC標準は、その先行するものよりも著しいコーディング改善をもたらすが、HEVCよりも優れたコーディング効率を追加のコーディングツールにより達成することができる証拠が存在する。そのことに基づいて、VCEGおよびMPEGの両方は、後のビデオコーディング標準化に対する新たなコーディング技術の追求作業を開始している。コーディング効率の著しい強化を可能にする、進化した技術の重要な研究を開始するよう、ITU-TVECGおよびISO/IECMPEGによってJoint Video Exploration Team(JVET)が2015年10月に結成されている。HEVCテストモデル(HM)の上位でいくつかの追加のコーディングツールを統合することによって、ジョイント探索モデル(JVET)と称される参照ソフトウェアがJVETによって維持されている。
2017年10月に、HEVCを上回る能力を有するビデオ圧縮に対する提案に対する共同要求(CfP)がITU-TおよびISO/IECによって発行された。2018年4月に、HEVCよりも約40%の圧縮効率を得ることを証明すると共に、10回目のJVETミーティングにおいて23 CfP回答が受けられおよび評価されている。そのような評価結果に基づいて、JVETは、バーサタイルビデオコーディング(VVC)と称される新世代のビデオコーディング標準を開発する新たなプロジェクトを開始した。同月に、VVC標準の参照の実装を証明するための、VVCテストモデル(VTM)と称される参照ソフトウェアコードベースが確立されている。初期のVTM-1.0について、イントラ予測、インター予測、変換/逆変換、および量子化/逆量子化、ならびにインループフィルタを含むコーディングモジュールのほとんどは、マルチタイプツリベースブロック区画化構造がVTMにおいて使用されることを除き、既存のHEVC設計に準拠する。その一方で、新たなコーディングツールの評価を促進するために、ベンチマークセット(BMS)と称される別の参照ソフトウェアベースも生成されている。BMSコードベースでは、より高いコーディング効率および適度な実装の複雑性をもたらす、JEMから継承されたコーディングツールのリストは、VTMの上位に含まれ、VVC標準化工程の間に同様のコーディング技術を評価するときのベンチマークとして使用される。BMS-1.0に統合されたJEMコーディングツールは、65の角度イントラ予測方向、修正された係数コーディング、進化型複数変換(AMT)+4×4の非分離二次変換(NSST)、アフィン動きモデル、一般化適応的ループフィルタ(GALF)、進化型時間動きベクトル予測(ATMVP:advanced temporal motion vector prediction)、適応的動きベクトル精度、デコーダ側動きベクトルリファインメント(DMVR:advanced temporal motion vector prediction)、およびLMクロマモードを含む。
いくつかの実施形態は、ビデオ符号化および復号(総称して「コーディング」)において使用される方法を含む。ブロックベースビデオコーディング方法のいくつかの実施形態は、第1のブロックにおいて、第1のリファインされた動きベクトル(refined motion vector)および第2のリファインされた動きベクトルを生成するよう、第1のリファインされていない動きベクトル(non-refined motion vector)および第2のリファインされていない動きベクトルをリファインするステップと、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルのうちの一方または両方を使用して、第2のブロックの動き情報を予測するステップであって、第2のブロックは、第1のブロックの空間隣接である、ステップと、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを使用して、双予測により第1のブロックを予測するステップと、を含む。
ビデオコーディング方法の実施例では、第1のブロックと関連付けられた第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが識別される。第1のブロックに隣接した第2のブロックの動き情報は、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルのうちに一方または両方を使用して予測される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、例えば、デコーダ側動きベクトルリファインメント(DMVR)を使用してリファインされる。リファインされた動きベクトルは、第1のブロックの双予測に対して使用することができる、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するために使用される。第2のブロックの動き情報を予測するために、リファインされていない動きベクトル(複数可)を使用することは、空間進化型動きベクトル予測(AMVP:advanced motion vector prediction)、時間動きベクトル予測(TMVP:temporal motion vector prediction)、進化型時間動きベクトル予測(TMVP)などの1つまたは複数の技術を使用して、およびリファインされていない動きベクトル(複数可)を空間マージ候補として使用して実行される。空間予測のケースでは、第2のブロックは、第1のブロックの空間隣接であってもよく、時間予測のケースでは、第2のブロックは、後続にコーディングされるピクチャの併置ブロックであってもよい。いくつかの実施形態では、第1のブロックに対するデブロッキングフィルタ強度は、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルの少なくとも一部に基づいて判定される。
ビデオコーディング方法の別の実施例では、第1のブロックと関連付けられた第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが識別される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、例えば、DMVRを使用して、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するようリファインされる。第2のブロックの動き情報は、空間動き予測または時間動き予測のいずれかを使用して予測され、(i)空間動き予測が使用される場合、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルの一方または両方が動き情報を予測するために使用され、(ii)時間動き予測が使用される場合、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルの一方または両方が動き情報を予測するために使用される。
ビデオコーディング方法の別の実施例では、カレントブロックの動き情報を予測するための少なくとも1つの予測子が選択される。選択は、利用可能な予測子の組の中から行われ、利用可能な予測子は、カレントブロックの空間的な隣接ブロックからの少なくとも1つのリファインされていない動きベクトルおよび(ii)カレントブロックの併置ブロックからの少なくとも1つのリファインされた動きベクトルを含む。
ビデオコーディング方法の別の実施例では、スライス内の少なくとも2つの重複しない領域が判定される。第1の領域内の第1のブロックと関連付けられた第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが識別される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するようリファインされる。第1のブロックに隣接した第2のブロックの動き情報が第1のブロックの動き情報を使用して予測されるとの判定に応答して、第2のブロックの動き情報は、(i)第1のブロックが第1の領域の下側境界または右側境界上にない場合に、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルの一方または両方を使用して予測され、(ii)第1のブロックが第1の領域の下側境界または右側境界上にある場合に、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルの一方または両方を使用して予測される。
ビデオコーディング方法の別の実施例では、スライス内の少なくとも2つの重複しない領域が判定される。第1の領域内の第1のブロックと関連付けられた第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが識別される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するようリファインされる。第1のブロックに隣接した第2のブロックの動き情報が第1のブロックの動き情報を使用して予測されるとの判定に応答して、第2のブロックの動き情報は、(i)第2のブロックが第1の領域内にある場合に、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルの一方または両方を使用して予測され、(ii)第2のブロックが第1の領域内にない場合に、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルの一方または両方を使用して予測される。
ビデオコーディング方法の別の実施例では、スライス内の少なくとも2つの重複しない領域が判定される。第1の領域内の第1のブロックと関連付けられた第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが識別される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するようリファインされる。第2のブロックの動き情報は、空間動き予測または時間動き予測のいずれかを使用して予測され、(i)第1のブロックが第1の領域の下側境界または右側境界上にない場合、および空間動き予測が使用される場合に、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルの一方または両方が、動き情報を予測するために使用され、(ii)第1のブロックが第1の領域の下側境界または右側境界上にある場合、および時間動き予測が使用される場合に、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルの一方または両方が、動き情報を予測するために使用さる。
ビデオコーディング方法の別の実施例では、少なくとも2つの重複しない領域がスライス内で定義される。第1の領域内のカレントブロックの動き情報の予測に対する利用可能な予測子の組が判定され、利用可能な予測子の組は、第1の領域とは異なる第2の領域内のいずれかのブロックの動き情報を含まないよう制約される。
いくつかの実施形態は、動きベクトルをリファインする方法に関する。一実施例では、カレントブロックに対する第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが判定される。第1の予測I(0)は、第1のリファインされていない動きベクトルを使用して生成され、第2の予測I(1)は、第2のリファインされていない動きベクトルを使用して生成される。カレントブロックに対する動きリファインメント
Figure 2024029161000002
を判定するために、オプティカルフローモデルが使用される。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、動きリファインメントを使用してリファインされる。カレントブロックは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを使用して、双予測により予測される。
ビデオコーディング方法の別の実施例では、カレントブロックに対する第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルが判定される。第1の予測I(0)は、第1のリファインされていない動きベクトルを使用して生成され、第2の予測I(1)は、第2のリファインされていない動きベクトルを使用して生成される。カレントブロックに対する動きリファインメント
Figure 2024029161000003
が判定され、
Figure 2024029161000004
であり、θは、カレントブロック内の全てのサンプルの座標の組であり、
Figure 2024029161000005
である。第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、動きリファインメントを使用してリファインされる。カレントブロックは、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを使用して、双予測により予測される。
ビデオコーディング方法の別の実施例では、カレントブロックに対する第1の動きベクトルおよび第2の動きベクトルが判定される。第1の動きベクトルおよび第2の動きベクトルは、
(a)第1の動きベクトルを使用して第1の予測P0を生成し、第2の動きベクトルを使用して第2の予測P1を生成することと、
(b)第1の予測P0および第2の予測P1を平均化することによって、双予測テンプレート信号Ptmpを生成することと、
(c)テンプレート信号Ptmpに基づいて、第1の動きベクトルに対する第1の動きリファインメント(Δx,Δy)* 0および第2の動きベクトルに対する第2の動きリファインメント(Δx,Δy)* 1を判定するために、オプティカルフローモデルを使用することと、
(d)第1の動きリファインメント(Δx,Δy)* 0を使用して第1の動きベクトルをリファインし、第2の動きリファインメント(Δx,Δy)* 1を使用して第2の動きベクトルをリファインすることと、
を含むステップを反復的に実行することによってリファインされる。
更なる実施形態は、本明細書で説明される方法を実行するように構成されたエンコーダおよびデコーダ(集合的に「コーデック」)システムを含む。そのようなシステムは、プロセッサおよび非一時的コンピュータ記憶媒体を含んでもよく、非一時的コンピュータ記憶媒体は、プロセッサ上で実行されるとき、本明細書で説明される方法を実行するよう動作可能な命令を記憶している。追加の実施形態は、本明細書で説明される方法を使用して符号化されたビデオを記憶した非一時的コンピュータ可読媒体を含む。
1つまたは複数の開示される実施形態を実装することができる、実施例の通信システムを例示したシステム図である。 実施形態に従った、図1Aに例示された通信システム内で使用することができる実施例の無線送信/受信ユニット(WTRU)を例示したシステム図である。 VVCに対して使用されるエンコーダなどのブロックベースビデオエンコーダ(block-based video encoder)の機能的ブロック図である。 マルチタイプツリー構造におけるブロック区画、四分区画(quaternary partition)を示す。 マルチタイプツリー構造におけるブロック区画、垂直二分区画(vertical binary partition)を示す。 マルチタイプツリー構造におけるブロック区画、水平二分区画(horizontal binary partition)を示す。 マルチタイプツリー構造におけるブロック区画、垂直三分区画(vertical ternary partition)を示す。 マルチタイプツリー構造におけるブロック区画、水平三分区画(horizontal ternary partition)を示す。 VVCに対して使用されるデコーダなどのブロックベースビデオデコーダ(block-based video decoder)の機能的ブロック図である。 空間動きベクトル予測の実施例を例示する。 時間動きベクトル予測(TMVP)の実施例を例示する。 進化型時間動きベクトル予測(ATMVP)の実施例を例示する。 デコーダ側動きベクトルリファインメント(DMVR)の実施例を例示する。 デコーダ側動きベクトルリファインメント(DMVR)の実施例を例示する。 VTM-1.0に対する並列復号を例示する。 DMVRによって生じる復号待ち時間を例示する。 DMVRからのリファインされたMVが双予測信号を生成するためのみに使用される実施形態を例示する。 DMVRからのリファインされたMVが時間動き予測およびデブロックキングに対して使用され、リファインされていないMVが空間動き予測に対して使用される実施形態を例示する。 DMVRからのリファインされたMVが時間動き予測に対して使用され、リファインされていないMVが空間動き予測およびデブロックキングに対して使用される実施形態を例示する。 いくつかの実施形態に従った、DMVRに対して待ち時間除去方法を適用した後の並列復号を例示する。 空間動き予測およびデブロックキングに対してピクチャセグメント内部のDMVRブロックに対するリファインされていないMVを使用する実施形態を例示する。 カレントピクチャが複数のセグメントに分割され、コーディング待ち時間が各々のセグメント内部のブロックに対して低減される実施形態を例示する。 カレントピクチャが複数のセグメントに分割され、コーディング待ち時間が異なるセグメントからのブロックに対して低減される実施形態を例示する。 いくつかの実施形態に従った、オプティカルフローを使用した動きリファインメント処理のフローチャートである。
実施形態の実装態様に対する実施例のネットワーク
図1Aは、1つまたは複数の開示される実施形態を実装することができる、例示的な通信システム100を示す図である。通信システム100は、音声、データ、ビデオ、メッセージング、放送などのコンテンツを複数の無線ユーザに提供する、多元接続システムであってもよい。通信システム100は、複数の無線ユーザが、無線帯域幅を含むシステムリソースの共用を通じて、そのようなコンテンツにアクセスすることを可能にすることができる。例えば、通信システム100は、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、シングルキャリアFDMA(SC-FDMA)、ゼロテールユニークワード離散フーリエ変換拡散OFDM(ZT UW DTS-S-OFDM)、ユニークワードOFDM(UW-OFDM)、リソースブロックフィルタードOFDM、およびフィルタバンクマルチキャリア(FBMC)など、1つまたは複数のチャネルアクセス方法を利用してもよい。
図1Aに示されるように、通信システム100は、無線送信/受信ユニット(WTRU)102a、102b、102c、102dと、RAN104/113と、CN106と、公衆交換電話網(PSTN)108と、インターネット110と、他のネットワーク112とを含んでもよいが、開示される実施形態は、いずれかの数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を考慮していることが認識されよう。WTRU102a、102b、102c、102dの各々は、無線環境において動作および/または通信するように構成されたいずれかのタイプのデバイスであってもよい。例として、そのいずれかが、「局」および/または「STA」と称されてもよい、WTRU102a、102b、102c、102dは、無線信号を送信および/または受信するように構成されてもよく、ユーザ機器(UE)、移動局、固定または移動加入者ユニット、サブスクリクションベースのユニット、ページャ、セルラ電話、パーソナルデジタルアシスタント(PDA)、スマートフォン、ラップトップ、ネットブック、パーソナルコンピュータ、無線センサ、ホットスポットまたはMi-Fiデバイス、モノのインターネット(IoT)デバイス、ウォッチまたは他のウェアラブル、ヘッドマウントディスプレイ(HMD)、車両、ドローン、医療用デバイスおよびアプリケーション(例えば、遠隔手術)、工業用デバイスおよびアプリケーション(例えば、工業用および/または自動化された処理チェーン状況において動作するロボットおよび/または他の無線デバイス)、家電デバイス、ならびに商業用および/または工業用無線ネットワーク上において動作するデバイスなどを含んでもよい。WTRU102a、102b、102c、102dのいずれも、交換可能にUEと称されてもよい。
通信システム100はまた、基地局114aおよび/または基地局114bを含んでもよい。基地局114a、114bの各々は、CN106、インターネット110、および/または他のネットワーク112など、1つまたは複数の通信ネットワークへのアクセスを容易にするために、WTRU102a、102b、102c、102dのうちの少なくとも1つと無線でインタフェースをとるように構成されたいずれかのタイプのデバイスであってもよい。例として、基地局114a、114bは、基地送受信機局(BTS)、NodeB、eNodeB、ホームNodeB、ホームeNodeB、gNB、NR NodeB、サイトコントローラ、アクセスポイント(AP)、および無線ルータなどであってもよい。基地局114a、114bは、各々が、単一の要素として表されているが、基地局114a、114bは、任意の数の相互接続された基地局および/またはネットワーク要素を含んでもよいことが理解されよう。
基地局114aは、RAN104/113の一部であってもよく、RAN104/113は、他の基地局、および/または基地局コントローラ(BSC)、無線ネットワークコントローラ(RNC)、中継ノードなどのネットワーク要素(図示されず)も含んでもよい。基地局114aおよび/または基地局114bは、セル(図示されず)と称されてもよい、1つまたは複数のキャリア周波数上において、無線信号を送信および/または受信するように構成されてもよい。これらの周波数は、認可スペクトル、非認可スペクトル、または認可スペクトルと非認可スペクトルとの組み合わせの中にあってもよい。セルは、相対的に固定であってもよくまたは時間とともに変化してもよい特定の地理的エリアに、無線サービス用のカバレージを提供してもよい。セルは、更に、セルセクタに分割されてもよい。例えば、基地局114aと関連付けられたセルは、3つのセクタに分割されてもよい。したがって、一実施形態では、基地局114aは、送受信機を3つ、すなわち、セルの各セクタに対して1つずつ含んでよい。実施形態では、基地局114aは、多入力多出力(MIMO)技術を利用してもよく、セルの各セクタに対して複数の送受信機を利用してもよい。例えば、所望の空間的方向において信号を送信および/または受信するために、ビームフォーミングが使用されてもよい。
基地局114a、114bは、エアインタフェース116上において、WTRU102a、102b、102c、102dのうちの1つまたは複数と通信してもよく、エアインタフェース116は、いずれかの適切な無線通信リンク(例えば、無線周波(RF)、マイクロ波、センチメートル波、マイクロメートル波、赤外線(IR)、紫外線(UV)、可視光など)であってもよい。エアインタフェース116は、任意の適切な無線アクセス技術(RAT)を使用して確立されてもよい。
より具体的には、上述されたように、通信システム100は、多元接続システムであってもよく、CDMA、TDMA、FDMA、OFDMA、およびSC-FDMAなど、1つまたは複数のチャネルアクセス方式を採用してもよい。例えば、RAN104/113内の基地局114aと、WTRU102a、102b、102cとは、広帯域CDMA(WCDMA)を使用して、エアインタフェース116を確立してもよい、ユニバーサル移動体通信システム(UMTS)地上無線アクセス(UTRA)などの無線技術を実装してもよい。WCDMAは、高速パケットアクセス(HSPA)および/または進化型HSPA(HSPA+)などの通信プロトコルを含んでよい。HSPAは、高速ダウンリンク(DL)パケットアクセス(HSDPA)、および/または高速アップリンク(UL)パケットアクセス(HSUPA)を含んでもよい。
実施形態では、基地局114a、およびWTRU102a、102b、102cは、ロングタームエボリューション(LTE)、および/またはLTEアドバンスト(LTE-A)、および/またはLTEアドバンストプロ(LTE-A Pro)を使用して、エアインタフェース116を確立してもよい、進化型UMTS地上無線アクセス(E-UTRA)などの無線技術を実装してもよい。
実施形態では、基地局114a、およびWTRU102a、102b、102cは、ニューラジオ(NR)を使用して、エアインタフェース116を確立してもよい、NR無線アクセスなどの無線技術を実装してもよい。
実施形態では、基地局114a、およびWTRU102a、102b、102cは、複数の無線アクセス技術を実装してもよい。例えば、基地局114a、およびWTRU102a、102b、102cは、例えば、デュアルコネクティビティ(DC)原理を使用して、LTE無線アクセスおよびNR無線アクセスを共に実装してもよい。したがって、WTRU102a、102b、102cによって利用されるエアインタフェースは、複数のタイプの無線アクセス技術、ならびに/または複数のタイプの基地局(例えば、eNBおよびgNB)に送信される/そこから送信される送信によって特徴付けられてもよい。
他の実施形態では、基地局114a、およびWTRU102a、102b、102cは、IEEE802.11(すなわち、ワイヤレスフィデリティ(WiFi))、IEEE802.16(すなわち、Worldwide Interoperability for Microwave Access(WiMAX))、CDMA2000、CDMA2000 1X、CDMA2000 EV-DO、暫定標準2000(IS-2000)、暫定標準95(IS-95)、暫定標準856(IS-856)、移動体通信用グローバルシステム(GSM)、GSMエボリューション用高速データレート(EDGE)、およびGSM EDGE(GERAN)などの無線技術を実装してもよい。
図1Aにおける基地局114bは、例えば、無線ルータ、ホームNodeB、ホームeNodeB、またはアクセスポイントであってもよく、事業所、自宅、車両、キャンパス、産業用施設、(例えば、ドローンによって使用される)エアコリド、および車道など、局所化されたエリアにおける無線接続性を容易にするために、任意の適切なRATを利用してもよい。一実施形態では、基地局114bと、WTRU102c、102dとは、IEEE802.11などの無線技術を実装して、無線ローカルエリアネットワーク(WLAN)を確立してもよい。実施形態では、基地局114bと、WTRU102c、102dとは、IEEE802.15などの無線技術を実装して、無線パーソナルエリアネットワーク(WPAN)を確立してもよい。また別の実施形態では、基地局114bと、WTRU102c、102dとは、セルラベースのRAT(例えば、WCDMA、CDMA2000、GSM、LTE、LTE-A、LTE-A Pro、NRなど)を利用して、ピコセルまたはフェムトセルを確立してもよい。図1Aに示されるように、基地局114bは、インターネット110への直接的な接続を有してもよい。したがって、基地局114bは、CN106/115を介してインターネット110にアクセスする必要がないことがある。
RAN104/113は、CN106/115と通信してもよく、CN106/115は、音声、データ、アプリケーション、および/またはボイスオーバインターネットプロトコル(VoIP)サービスを、WTRU102a、102b、102c、102dのうちの1つまたは複数に提供するように構成された任意のタイプのネットワークであってもよい。データは、異なるスループット要件、遅延要件、エラー耐性要件、信頼性要件、データスループット要件、およびモビリティ要件など、様々なサービス品質(QoS)要件を有してもよい。CN106/115は、呼制御、ビリングサービス、モバイルロケーションベースのサービス、プリペイド発呼、インターネット接続性、ビデオ配信などを提供してもよく、および/またはユーザ認証など、高レベルセキュリティ機能を実行してもよい。図1Aには示されていないが、RAN104/113および/またはCN106/115は、RAN104/113と同じRATまたは異なるRATを利用する他のRANと直接的または間接的通信を行ってもよいことが理解されよう。例えば、NR無線技術を利用していることがあるRAN104/113に接続されていることに加えて、CN106/115は、GSM、UMTS、CDMA2000、WiMAX、E-UTRA、またはWiFi無線技術を利用する別のRAN(図示されず)とも通信してもよい。
CN106/115は、WTRU102a、102b、102c、102dが、PSTN108、インターネット110、および/または他のネットワーク112にアクセスするためのゲートウェイとしての役割も果たしてもよい。PSTN108は、基本電話サービス(POTS)を提供する、回線交換電話網を含んでよい。インターネット110は、TCP/IPインターネットプロトコルスイート内の送信制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、および/またはインターネットプロトコル(IP)など、共通の通信プロトコルを使用する、相互接続されたコンピュータネットワークおよびデバイスからなる地球規模のシステムを含んでよい。ネットワーク112は、他のサービスプロバイダによって所有および/または運営される、有線および/または無線通信ネットワークを含んでもよい。例えば、ネットワーク112は、RAN104/113と同じRATまたは異なるRATを利用してもよい1つまたは複数のRANに接続された、別のCNを含んでもよい。
通信システム100内のWTRU102a、102b、102c、102dのうちのいくつかまたは全ては、マルチモード機能を含んでよい(例えば、WTRU102a、102b、102c、102dは、異なる無線リンク上において、異なる無線ネットワークと通信するための、複数の送受信機を含んでよい)。例えば、図1Aに示されるWTRU102cは、セルラベースの無線技術を採用してもよい基地局114aと通信するように、またIEEE802無線技術を利用してもよい基地局114bと通信するように構成されてもよい。
図1Bは、例示的なWTRU102を示すシステム図である。図1Bに示されるように、WTRU102は、とりわけ、プロセッサ118、送受信機120、送信/受信要素122、スピーカ/マイクロフォン124、キーパッド126、ディスプレイ/タッチパッド128、非リムーバブルメモリ130、リムーバブルメモリ132、電源134、全地球測位システム(GPS)チップセット136、および/または他の周辺機器138を含んでよい。WTRU102は、実施形態との整合性を維持しながら、上記の要素の任意のサブコンビネーションを含んでよいことが理解されよう。
プロセッサ118は、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、他の任意のタイプの集積回路(IC)、および状態機械などであってもよい。プロセッサ118は、信号コーディング、データ処理、電力制御、入力/出力処理、および/またはWTRU102が無線環境において動作することを可能にする他の任意の機能性を実行してもよい。プロセッサ118は、送受信機120に結合されてもよく、送受信機120は、送信/受信要素122に結合されてもよい。図1Bは、プロセッサ118と送受信機120を別個の構成要素として表しているが、プロセッサ118と送受信機120は、電子パッケージまたはチップ内に共に統合されてもよいことが理解されよう。
送信/受信要素122は、エアインタフェース116上において、基地局(例えば、基地局114a)に信号を送信し、または基地局から信号を受信するように構成されてもよい。例えば、一実施形態では、送信/受信要素122は、RF信号を送信および/または受信するように構成されたアンテナであってもよい。実施形態では、送信/受信要素122は、例えば、IR、UV、または可視光信号を送信および/または受信するように構成された放射器/検出器であってもよい。また別の実施形態では、送信/受信要素122は、RF信号および光信号の両方を送信および/または受信するように構成されてもよい。送信/受信要素122は、無線信号の任意の組み合わせを送信および/または受信するように構成されてもよいことが理解されよう。
図1Bにおいては、送信/受信要素122は、単一の要素として表されているが、WTRU102は、任意の数の送信/受信要素122を含んでよい。より具体的には、WTRU102は、MIMO技術を利用してもよい。したがって、一実施形態では、WTRU102は、エアインタフェース116上において無線信号を送信および受信するための2つ以上の送信/受信要素122(例えば、複数のアンテナ)を含んでよい。
送受信機120は、送信/受信要素122によって送信されることになる信号を変調し、送信/受信要素122によって受信された信号を復調するように構成されてもよい。上で言及されたように、WTRU102は、マルチモード機能を有してもよい。したがって、送受信機120は、WTRU102が、例えば、NRおよびIEEE802.11など、複数のRATを介して通信することを可能にするための、複数の送受信機を含んでよい。
WTRU102のプロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128(例えば、液晶表示(LCD)ディスプレイユニットもしくは有機発光ダイオード(OLED)ディスプレイユニット)に結合されてもよく、それらからユーザ入力データを受信してもよい。プロセッサ118は、スピーカ/マイクロフォン124、キーパッド126、および/またはディスプレイ/タッチパッド128にユーザデータを出力してもよい。加えて、プロセッサ118は、非リムーバブルメモリ130および/またはリムーバブルメモリ132など、任意のタイプの適切なメモリから情報を入手してもよく、それらにデータを記憶してもよい。非リムーバブルメモリ130は、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ハードディスク、または他の任意のタイプのメモリ記憶デバイスを含んでよい。リムーバブルメモリ132は、加入者識別モジュール(SIM)カード、メモリスティック、およびセキュアデジタル(SD)メモリカードなどを含んでよい。他の実施形態では、プロセッサ118は、サーバまたはホームコンピュータ(図示されず)上などに配置された、WTRU102上に物理的に位置していないメモリから情報にアクセスしてもよく、それらにデータを記憶してもよい。
プロセッサ118は、電源134から電力を受信してもよく、WTRU102内の他の構成要素に電力を分配するように、および/またはそれらへの電力を制御するように構成されてもよい。電源134は、WTRU102に給電するための任意の適切なデバイスであってもよい。例えば、電源134は、1つまたは複数の乾電池(例えば、ニッケル-カドミウム(NiCd)、ニッケル-亜鉛(NiZn)、ニッケル水素(NiMH)、リチウム-イオン(Li-ion)など)、太陽電池、および燃料電池などを含んでよい。
プロセッサ118は、GPSチップセット136にも結合されてもよく、GPSチップセット136は、WTRU102の現在の位置に関する位置情報(例えば、経度および緯度)を提供するように構成されてもよい。GPSチップセット136からの情報に加えて、またはそれの代わりに、WTRU102は、基地局(例えば、基地局114a、114b)からエアインタフェース116上において位置情報を受信してもよく、および/または2つ以上の近くの基地局から受信されている信号のタイミングに基づいて、自身の位置を決定してもよい。WTRU102は、実施形態との整合性を維持しながら、任意の適切な位置決定方法を用いて、位置情報を取得してもよいことが理解されよう。
プロセッサ118は更に、他の周辺機器138に結合されてもよく、他の周辺機器138は、追加の特徴、機能性、および/または有線もしくは無線接続性を提供する、1つまたは複数のソフトウェアモジュールおよび/またはハードウェアモジュールを含んでよい。例えば、周辺機器138は、加速度計、eコンパス、衛星送受信機、(写真および/またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、バイブレーションデバイス、テレビ送受信機、ハンズフリーヘッドセット、Bluetooth(登録商標)モジュール、周波数変調(FM)ラジオユニット、デジタル音楽プレーヤ、メディアプレーヤ、ビデオゲームプレーヤモジュール、インターネットブラウザ、仮想現実および/または拡張現実(VR/AR)デバイス、ならびにアクティビティトラッカなどを含んでよい。周辺機器138は、1つまたは複数のセンサを含んでよく、センサは、ジャイロスコープ、加速度計、ホール効果センサ、磁力計、方位センサ、近接センサ、温度センサ、時間センサ、ジオロケーションセンサ、高度計、光センサ、タッチセンサ、磁力計、気圧計、ジェスチャセンサ、バイオメトリックセンサ、および/または湿度センサのうちの1つまたは複数であってもよい。
WTRU102は、(例えば、(例えば、送信用の)ULと(例えば、受信用の))ダウンリンクの両方のための特定のサブフレームと関連付けられた信号のいくつかまたは全ての送信および受信が、並列および/または同時であってもよい、全二重無線機を含んでよい。全二重無線機は、ハードウェア(例えば、チョーク)を介して、またはプロセッサ(例えば、別個のプロセッサ(図示されず)もしくはプロセッサ118)を介する信号処理を介して、自己干渉を低減させ、および/または実質的に除去するために、干渉管理ユニット139を含んでよい。実施形態では、WTRU102は、(例えば、(例えば、送信用の)ULまたは(例えば、受信用の)ダウンリンクのどちらかのための特定のサブフレームと関連付けられた)信号のいくつかまたは全ての送信および受信のための、半二重無線を含んでよい。
図1A乃至1Bにおいては、WTRUは、無線端末として説明されるが、ある代表的な実施形態では、そのような端末は、通信ネットワークとの有線通信インタフェースを(例えば、一時的または永続的に)使用することができることが企図されている。
代表的な実施形態では、他のネットワーク112は、WLANであってもよい。
図1A乃至1Bおよび対応する説明に鑑みて、本明細書において説明される機能の1つもしくは複数または全ては、1つまたは複数のエミュレーションデバイス(図示されず)によって実行されてもよい。エミュレーションデバイスは、本明細書において説明される機能の1つもしくは複数または全てをエミュレートするように構成された、1つまたは複数のデバイスであってもよい。例えば、エミュレーションデバイスは、他のデバイスをテストするために、ならびに/またはネットワークおよび/もしくはWTRU機能をシミュレートするために、使用されてもよい。
エミュレーションデバイスは、実験室環境において、および/またはオペレータネットワーク環境において、他のデバイスの1つまたは複数のテストを実施するように設計されてもよい。例えば、1つまたは複数のエミュレーションデバイスは、通信ネットワーク内の他のデバイスをテストするために、有線および/または無線通信ネットワークの一部として、完全または部分的に実施および/または展開されながら、1つもしくは複数または全ての機能を実行してもよい。1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として、一時的に実施/展開されながら、1つもしくは複数または全ての機能を実行してもよい。エミュレーションデバイスは、テストの目的で、別のデバイスに直接的に結合されてもよく、および/またはオーバジエア無線通信を使用して、テストを実行してもよい。
1つまたは複数のエミュレーションデバイスは、有線および/または無線通信ネットワークの一部として実施/展開されずに、全ての機能を含む、1つまたは複数の機能を実行してもよい。例えば、エミュレーションデバイスは、1つまたは複数の構成要素のテストを実施するために、テスト実験室、ならびに/または展開されていない(例えば、テスト)有線および/もしくは無線通信ネットワークにおける、テストシナリオにおいて利用されてもよい。1つまたは複数のエミュレーションデバイスは、テスト機器であってもよい。データを送信および/または受信するために、直接RF結合、および/または(例えば、1つもしくは複数のアンテナを含んでよい)RF回路を介した無線通信が、エミュレーションデバイスによって使用されてもよい。
ブロックベースビデオコーディング
HEVCのように、VVCは、ブロックベースハイブリッドビデオコーディングフレームワーク上で構築される。図2は、ブロックベースハイブリッドビデオ符号化システムの実施例の機能的ブロック図である。入力ビデオ信号103は、ブロックごとに処理される。ブロックは、コーディングユニット(CU)と称されてもよい。VTM-1.0では、CUは、最大で128×128画素であってもよい。しかしながら、四分木のみに基づいてブロックを区画化するHEVCと比較して、VTM-1.0では、コーディングツリーユニット(CTU)は、四分/二分/三分木に基づいて、変化する特性に適合するようCUに分割されてもよい。加えて、HEVCにおける複数の区画ユニットタイプの概念は排除されることがあり、その結果、VVCでは、CU、予測ユニット(PU)、および変換ユニット(TU)の分離は使用されず、代わりに、各々のCUは、更なる区画なしに予測および変換の両方のための基本単位として使用されることがある。マルチタイプツリー構造では、CTUは、四分木構造によって最初に区画化される。次いで、各々の四分木リーフノードは更に、二分木および三分木構造によって区画化されてもよい。図3A~3Eに示されるように、5つの分岐タイプ、四分区画化(quaternary partitioning)、水平二分区画化(horizontal binary partitioning)、垂直二分区画化(vertical binary partitioning)、水平三分区画化(horizontal ternary partitioning)、および垂直三分区画化(vertical ternary partitioning)が存在してもよい。
図2では、空間予測(161)および/または時間予測(163)が実行されてもよい。空間予測(または、「イントラ予測」)は、カレントビデオブロックを予測するために、同一のビデオピクチャ/スライス内の既にコーディングされた隣接ブロック(参照サンプルと称される)のサンプルからの画素を使用する。空間予測は、ビデオ信号に内在する空間的冗長性を低減させる。時間予測(「インター予測」または「動き補償された予測」と称される)は、カレントビデオブロックを予測するために、既にコーディングされたビデオピクチャからの構築されていない画素を使用する。時間予測は、ビデオ信号に内在する時間的冗長性を低減させる。所与のCUに対する時間予測信号は通常、1つまたは複数の動きベクトル(MV)によってシグナリングされ、1つまたは複数の動きベクトル(MV)は、カレントCUとその時間参照(temporal reference)との間の動きの量および動きの方向を示す。また、複数の参照ピクチャがサポートされる場合、加えて、参照ピクチャストア(165)内のどの参照ピクチャから時間予測信号が到来するかを識別するために使用される、参照ピクチャインデックスが送信される。
空間予測および/または時間予測の後、エンコーダにおけるモード決定ブロック(181)は、例えば、レート歪みの最適化法に基づいて、最良の予測モードを選択する。予測ブロックは次いで、カレントビデオブロック(117)から差し引かれ、予測残差は、変換(105)を使用して非相関化され(de-correlated)、量子化される(107)。量子化された残差係数は、再構築された残差を形成するよう、逆量子化され(111)、逆変換され(113)、再構築された残差は次いで、CUの再構築された信号を形成するよう、予測ブロック(127)に再度追加される。更に、デブロッキングフィルタなどのインループフィルタリングは、参照ピクチャストア(165)に置く前に、再構築されたCUに対して適用されてもよく、後のビデオブロックをコーディングするために使用されてもよい。出力ビデオビットストリーム121を形成するために、コーディングモード(インターまたはイントラ)、予測モード情報、動き情報、および量子化された残差係数は全て、更に圧縮およびパックされてビットストリームを形成するよう、エントロピコーディングユニット(109)に送信される。
図4は、ブロックベースビデオデコーダの機能的ブロック図である。ビデオビットストリーム202は、エントロピ復号ユニット208においてアンパックされ、およびエントロピ復号される。コーディングモードおよび予測情報は、予測ブロックを形成するよう、空間予測ユニット260(イントラコーディングされる場合)または時間予測ユニット262(インターコーディングされる場合)のいずれかに送信される。残差変換係数は、残差ブロックを再構築するよう、逆量子化ユニット210および逆変換ユニット212に送信される。予測ブロックおよび残差ブロックは次いで、226において共に追加される、再構築されたブロックは更に、参照ピクチャストア264に記憶される前に、インループフィルタリングを通過する。参照ピクチャストア内の再構築されたビデオは次いで、後のビデオブロックを予測するために使用されると共に、ディスプレイデバイスを駆動するよう送出される。
前に言及されたように、BMS-1.0は、図2および図4に示されるように、VTM-1.0の同一の符号化/復号ワークフローに準拠する。しかしながら、特に時間予測と関連付けられたいくつかのコーディングモジュールは更に、拡張および強化される。以下では、BMS-1.0または前のJEMに含まれるいくつかのインターツールが簡潔に説明される。
動きベクトル予測
HEVCのように、動き情報をシグナリングするオーバヘッドを低減させるために、VTMおよびBMSの両方は、各々のCUの動き情報をコーディングする2つのモード、すなわち、マージモードおよび非マージモードを含む。マージモードでは、カレントCUの動き情報は、空間隣接ブロックおよび時間隣接ブロックから直接導出され、競合ベーススキーム(competition-based scheme)は、全ての利用可能な候補の中から最良の隣接ブロックを選択するために適用され、それに対応して、最良の候補のインデックスのみが、デコーダにおいてCUの動き情報を再構築するために送信される。インターコーディングされたPUが非マージモードにおいてコーディングされる場合、MVは、進化型動きベクトル予測(AMVP)技術から導出されたMV予測子を使用して異なってコーディングされる。マージモードのように、AMVPは、空間隣接候補および時間隣接候補からMV予測子を導出する。次いで、MV予測子と実際のMVとの間の差、および予測子のインデックスがデコーダに送信される。
図5は、空間MV予測に対する実施例を示す。コーディングされることになるカレントピクチャ(CurrPic)では、正方形のCurrCUがカレントCUであり、参照ピクチャ(CurrRefPic)内で最良の一致するブロック(CurrRefCU)を有する。CurrCUのMV、すなわち、MV2が予測されることになる。カレントCUの空間隣接は、カレントCUの上方に隣接したCU、左に隣接したCU、上左に隣接したCU、下左に隣接したCU、上右に隣接したCUである。図5では、隣接CUは、上方に隣接したCU、NeighbCUとして示される。NeighbCUがCurrCUの前にコーディングされていたことを理由に、NeighbCUの参照ピクチャ(NeighbRefPic)およびMV(MV1)の両方が既知である。
図6は、時間MV予測(TMVP)に対する実施例を示す。4つのピクチャ(ColRefPic、CurrRefPic、ColPic、CurrPic)が図6に示される。コーディングされることになるカレントピクチャ(CurrPic)では、正方形のCurrCUがカレントCUであり、参照ピクチャ(CurrRefPic)内で最良の一致するブロック(CurrRefCU)を有する。CurrCUのMV、すなわち、MV2が予測されることになる。カレントCUの時間隣接は、隣接ピクチャ(ColPic)内の併置(collocated)CU(ColCU)として指定される。ColPicがCurrPicの前にコーディングされていたことを理由に、ColCUの参照ピクチャ(ColRefPic)およびMV(MV1)の両方が既知である。
空間動きベクトル予測および時間動きベクトル予測に対し、時間および空間が制限されることを仮定して、異なるブロックの間のMVは、均一の速度により並進的(translational)であるとして扱われる。図5および6の実施例では、CurrPicとCurrRefPicとの間の時間距離は、TBであり、図5におけるCurrPicとNeighbRefPicとの間の時間距離、または図6におけるColPicとColRefPicとの間の時間距離は、TDである。スケーリングされたMV予測子は、式(1)として計算されてもよい。
Figure 2024029161000006
VTM-1.0では、各々のマージブロックは、各々の予測方向L0およびL1に対する動きパラメータの最大で1つのセット(1つの動きベクトルおよび1つの参照ピクチャインデックス)を有する。対照的に、進化型時間動きベクトル予測(ATMVP)に基づいた追加のマージ候補は、サブブロックレベルにおける動き情報の導出を可能にするようBMS-1.0に含まれる。そのようなモードを使用して、時間動きベクトル予測は、CUがCU内のサブブロックに対する複数のMVを導出することを可能にすることによって改善される。概して、ATMVPは、図7に示されるように、2つのステップにおいてカレントCUの動き情報を導出する。第1のステップは、時間参照ピクチャ内のカレントブロック(併置ブロックと称される)の対応するブロックを識別することである。選択された時間参照ピクチャは、併置ピクチャと称される。第2のステップは、カレントブロックをサブブロックに分割し、併置ピクチャ内の対応するスモールブロックから各々のサブブロックの動き情報を導出することである。
第1のステップでは、併置ブロックおよび併置ピクチャは、カレントブロックの空間隣接ブロックの動き情報によって識別される。現在の設計では、マージ候補リスト内の第1の利用可能な候補が考慮される。図7は、この処理を例示する。特に、図7の実施例では、ブロックAは、マージ候補リストの走査順序に基づいて、カレントブロックの第1の利用可能なマージ候補として識別される。次いで、ブロックAの対応する動きベクトル(MVA)と共に、その参照インデックスは、併置ピクチャおよび併置ブロックを識別するために使用される。併置ピクチャ内の併置ブロックの位置は、ブロックAの動きベクトル(MVA)をカレントブロックの座標に追加することによって判定される。
第2のステップでは、カレントブロック内の各々のサブブロックに対し、併置ブロック内のその対応するスモールブロック(図7における小さい矢印によって示される)の動き情報は、サブブロックの動き情報を導出するために使用される。特に、併置ブロック内の各々のスモールブロックの動き情報が識別された後、それは、TMVPと同一の方式において、カレントブロック内の対応するサブブロックの動きベクトルおよび参照インデックスに変換される。
デコーダ側動きベクトルリファインメント(DMVR)
VTMにおけるマージモードに対し、選択されたマージ候補が双予測されるとき、カレントCUの予測信号は、候補の参照リストL0およびL1と関連付けられた2つのMVを使用して、2つの予測ブロックを平均化することによって形成される。しかしながら、マージ候補の動き情報(カレントCUの空間隣接または空間隣接のいずれかから導出される)は、カレントCUの真の動きを表すのに十分に正確でないことがあり、したがって、インター予測の効率性を悪化させることがある。マージモードのコーディング性能を更に改善するために、デコーダ側動きベクトルリファインメント(DMVR)方法は、マージモードのMVをリファインするためにBMS-1.0において適用される。特に、選択されたマージ候補が双予測されるとき、双予測テンプレートは、参照リストL0およびL1のそれぞれからのMVに基づいて、2つの予測信号の平均として最初に生成される。次いで、ブロックマッチングベース動きリファインメント(block-matching based motion refinement)は、以下に説明されるように、ターゲットとして双予測テンプレートを使用して、初期MVの周りで局所的に実行される。
図8Aは、DMVRにおいて適用される動きリファインメント処理を示す。概して、DMVRは、以下の2つのステップによって、マージ候補のMVをリファインする。図8Aに示されるように、第1のステップにおいて、マージ候補のL0およびL1における初期MV(すなわち、MV0およびMV1)を使用して2つの予測ブロックを平均化することによって、双予測テンプレートが生成される。次いで、各々の参照リスト(すなわち、L0またはL1)に対し、初期MVの周りの局所的領域内でブロックマッチングベース動き動き探索(block-matching based motion search)が実行される。各々のMVに対し、すなわち、対応する参照リスト内の初期MVの周りのそのリストのMV0またはMV1に対し、双予測テンプレートとその動きベクトルを使用する対応する予測ブロックとの間のコスト値(例えば、絶対差の合計(SAD:sum of absolute difference))が測定される。2つの予測方向の各々に対し、その予測方向におけるテンプレートを最小化するMVは、マージ候補の参照リスト内の最終MVとして考えられる。現在のBMS-1.0では、各々の予測方向に対し、初期MVを囲む8個の隣接MV(1つの整数サンプルオフセットを有する)は、動きリファインメント処理の間に考慮される。最終的に、2つのリファインされたMV(図8Aに示されるMV0’およびMV1’)は、カレントCUの最終双予測信号を生成するために使用される。加えて、従来のDMVRでは、コーディング効率を更に改善するために、DMVRブロックのリファインされたMVは、その空間隣接ブロックおよび時間隣接ブロックの動き情報を予測するために(例えば、空間AMVP、空間マージ候補、TMVP、およびATMVPに基づいて)、ならびにカレントCUに適用されるデブロッキングフィルタの境界強度値(boundary strength value)を計算するために使用される。図8Bは、DMVR処理の実施例のフローチャートであり、「空間AMVP」および「空間マージ候補」は、カレントピクチャ内にあり、CUのコーディング順序(coding order)ごとにカレントCUの後にコーディングされる、空間隣接CUに対する空間MV予測処理を指し、「TMVP」および「ATMVP」は、後続のピクチャ(ピクチャコーディング順序に基づいてカレントピクチャの後にコーディングされるピクチャ)内の後のCUに対する時間MV予測処理を指し、「デブロッキング」は、カレントブロックおよびその空間隣接ブロックの両方のデブロッキングフィルタリング処理を指す。
図8Bに示される方法では、802において双予測テンプレートが生成される。804において、L0動きベクトルに対して動きリファインメントが実行され、806において、L1動きベクトルに対して動きリファインメントが実行される。808において、リファインされたL0およびL1動きベクトルを使用して、最終双予測が生成される。図8Bの方法では、後続でコーディングされるブロックの動きを予測するために、リファインされた動きベクトルが使用される。例えば、リファインされた動きベクトルは、空間AMVP(810)、TMVP(814)、およびATMVP(816)に対して使用される。リファインされた動きベクトルはまた、空間マージ候補(812)として、及びカレントCU(818)に適用されるデブロッキングフィルタの境界強度値を計算するために使用される。
双方向オプティカルフロー
VTM/BMS-1.0における双予測は、平均化を使用して既に再構築された参照ピクチャから取得された2つの時間予測ブロックの組み合わせである。しかしながら、ブロックベース動き補償の制限に起因して、それらは、2つの予測ブロックの間で取得することができる残りの小さな動きであることがあり、よって、動き補償された予測の効率性を低減させる。この問題に対処するために、ブロック内部のサンプルごとにそのような動きを補償するために、JEMにおいて双方向オプティカルフロー(BIO)が使用されている。特に、BIOは、双予測が使用されるときのブロックベース動き補償された予測の上位で実行される、サンプルごとの動きリファインメントである。1つのブロック内の各々のサンプルに対するリファインされた動きベクトルの導出は、古典的なオプティカルフローモデルに基づいている。I(k)(x,y)が参照ピクチャリストk(k=0,1)から導出される予測ブロックの行列(x,y)におけるサンプル値であり、∂I(k)(x,y)/∂xおよび∂I(k)(x,y)/∂yが、サンプルの水平勾配および垂直勾配であるとする。BIOによって修正された双予測信号は、式(2)として取得される。
Figure 2024029161000007
τ0およびτ1は、カレントピクチャへのI(0)およびI(1)と関連付けられた参照ピクチャRef0およびRef1の時間距離である。更に、サンプル位置(x,y)における動きリファインメント(vx,vy)は、式(3)として示されるように、動きリファインメント補償の後にサンプルの値の間の差Δを最小化することによって計算される。
Figure 2024029161000008
加えて、導出された動きリファインメントの規則性をもたらすために、動きリファインメントが(x,y)において中心となる局所的周囲エリア(local surrounding area)内で一貫することが想定され、したがって、式(4)として、(x,y)におけるカレントサンプルの周りの5×5のウインドウΩ内部のオプティカルフロー誤差メトリックΔを最小化することによって、(vx,vy)の値が導出される。
Figure 2024029161000009
DMVRとは異なり、BIOによって導出される動きリファインメント(vx,vy)は、双予測信号を強化するためにのみ適用され、カレントCUの動き情報を修正するためには適用されないことに留意されるべきである。言い換えると、空間隣接ブロックおよび時間隣接ブロックのMVを予測し、カレントCUのデブロッキング境界強度を決定するために使用されるMVはなお、元のMVである(すなわち、BIOが適用される前にブロックベース動き補償信号I(0)(x,y)およびI(1)(x,y)を生成するために使用されるMV)。
DMVRコーディング待ち時間
HEVCおよびそれに先行したもののように、VTM-1.0は、ピクチャの間の時間的冗長性を効率的に低減させるために、動き補償された予測(MCP:motion compensated prediction)を採用し、よって、高いインターコーディング効率を達成する。1つのCUの予測信号を生成するために使用されるMVがビットストリームにおいてシグナリングされ、またはその空間/時間隣接から継承されるかのいずれかであることを理由に、空間隣接CUのMCPの間の依存性は存在しない。結果として、同一のピクチャ/スライス内の全てのインターブロックのMCP処理は、相互に独立している。よって、VTM-1.0およびHEVCに対し、複数のインターブロックの復号処理を並列して行うことができ、例えば、それらは、並列性を利用するために、異なるスレッドに割り当てられてもよい。
上記説明されたように、DMVRツールは、BMS-1.0において適用される。余分なシグナリングオーバヘッドを生じさせることを回避するために、CUの元のL0およびL1 MVと関連付けられた2つの予測信号を使用して、動きリファインメントが導出される。よって、DMVRによってコーディングされるその空間隣接の1つから、CUの動き情報が予測されるとき(例えば、AMVPおよびマージモード)によって)、その復号処理は、隣接ブロックのMVがDMVRによって完全に再構築されるまで待機する。これは、特にデコーダ側おけるパイプライン設計を著しく複雑にし、したがって、ハードウェアの実装態様に対する著しい複雑性の増大につながる。
DMVRによって生じるコーディング待ち時間を示すために、図9および図10は、VTM-1.0およびBMS-1.0の復号処理を比較する例を示す。説明を容易にするために、等しいブロックサイズの4個のCUが存在し、全ての4個のCUがDMVRによってコーディングされ、その各々が別個の復号スレッドによって復号され、各々の個々の復号モジュール(例えば、MCP、DMVR、逆量子化、および逆変換)の復号の複雑性が4個のCUに対して同一であると推定される、ケースが説明される。図9に示されるように、4個のCUを並列して復号することができることを理由に、VTM-1.0の総復号時間は、1つのCUの復号時間、すなわち、TMCP+Tde-quant+Tinv-transに等しい。DMVRによって導入される依存性に起因して、BMS-1.0の復号処理(図10に示され)に対して、その空間隣接ブロックのDMVRが完全に終了するまで、各々の個々のコーディングブロックの復号を呼び出すことができない。よって、BMS-1.0に対する4個のCUの総復号時間は、Ttotal=4×(TMCP+TDMVR)+Tde-quant+Tinv-transに等しい。理解することができるように、DMVRによって動き情報をリファインするための予測サンプルの使用は、隣接インターブロックの中で依存性を導入し、したがって、符号化処理および復号処理の両方に対して待ち時間を著しく増大させる。
待ち時間低減方法のオーバビュー
DMVRの符号化/復号待ち時間を除去または低減させると共に、その主要なコーディング性能を保持する方法が本開示において提案される。特に、開示の様々な実施形態は、以下の態様のうちの1つまたは複数を含む。
その空間/時間隣接ブロックの動きを予測し、デブロッキングフィルタ構造を導出するために1つのブロックのリファインされたDMVR動きが常に使用される、BMS-1.0における現在のDMVR方法にあるのとは異なり、いくつかの実施形態では、MV予測およびデブロッキング処理に対してDMVRブロックのリファインされていないMV(元の双予測信号を生成するためにしようされるMV)を完全にまたは部分的に使用することが提案される。DMVRなしに構文解析および動きベクトル再構築(動きベクトル予測子に加え構文解析された動きベクトル差)から元のMVを直接取得することができると仮定して、隣接ブロックの間の依存性が存在せず、複数のインターCUの復号処理を並列して行うことができる。
リファインされていないMVがリファインされたMVよりも精度が劣ることがあるので、これは、何らかのコーディング性能の劣化をもたらすことがある。そのような損失を低減させるために、いくつかの実施形態では、ピクチャ/スライスを複数の領域に分割することが提案される。その上、いくつかの実施形態では、同一の領域内部の複数のCUの復号または異なる領域からの複数のCUの復号を独立して実行することができるように、追加の制約が提案される。
いくつかの実施形態では、各々のDMVR CUの動きリファインメントを計算するためのブロックマッチングベース動き探索を置き換える、オプティカルフローに基づいた動き導出方法が提案される。小型ローカルウインドウ内で動き探索を実行するブロックマッチングベース方法と比較して、いくつかの実施形態は、空間サンプル導関数(derivative)および時間サンプル導関数に基づいて、動きリファインメントを直接計算する。これは、導出されたリファインされた動きの値が探索ウインドウに制限されないことを理由に、計算上の複雑性を低減させることができるだけでなく、動きリファインメント精度を増大させることもできる。
DMVR待ち時間低減に対するリファインされていない動きベクトルの使用
上記指摘されたように、カレントブロックのリファインされたMVがDMVRを通じて完全に再構築されるまで隣接ブロックの符号化/復号が実行されないことを理由に、1つのDMVRブロックのリファインされたMVを、その隣接ブロックのMV予測子として使用することは、真のCODEC設計に対する並列符号化/復号に対して不適切である。そのような分析に基づいて、この章では、DMVRによって生じるコーディング待ち時間を除去する方法が提案される。いくつかの実施形態では、DMVRのコア設計(例えば、ブロックマッチングベース動きリファインメント)は、既存の設計と同一のままである。しかしながら、MV予測(例えば、AMVP、マージ、TMVP、およびATMVP)ならびにデブロッキングを実行するために使用されるDMVRブロックのMVは、DMVRによって生じる隣接ブロックの間の依存性を除去することができるように修正される。
空間動き予測および時間動き予測に対するリファインされていない動きベクトルの使用
いくつかの実施形態では、リファインされた動きを使用する代わりに、DMVRブロックのリファインされていない動きを使用してMV予測およびデブロッキングを常に実行することが提案される。図11は、そのような方法が適用された後の修正されたDMVR処理を示す。図11に示されるように、リファインされたMVを使用する代わりに、MV予測子を導出し、デブロッキングフィルタの境界強度を判定するために、リファインされていないMV(DMVRの前の元のMV)が使用される。ブロックの最終双予測信号を生成するために、リファインされたMVのみが使用される。カレントブロックのリファインされたMVとその隣接ブロックの復号との間の依存性が存在しないことを理由に、DMVRの符号化/復号待ち時間を除去するために、そのような実施形態が使用されてもよい。
空間動き予測に対するリファインされていない動きベクトルの使用
図11の実施例では、TMVPおよびATMVPを通じて後のピクチャ内の併置ブロックに対する時間動き予測子を導出し、カレントブロックとその空間隣接との間のデブロッキングフィルタに対する境界強度を計算するために、DMVRブロックのリファインされていないMVが使用される。リファインされていないMVがリファインされたMVよりも精度が劣ることがあることを理由に、これは、何らかのコーディング性能損失につながることがある。一方で、時間動き予測(TMVPおよびATMVP)は、前に復号されたピクチャ(特に、併置ピクチャ)のMVを使用して、カレントピクチャ内のMVを予測する。したがって、カレントピクチャに対して時間動き予測を実行する前に、併置ピクチャ内のDMVR CUのリファインされたMVは、既に再構築されている。同様の状況もデブロッキングフィルタ処理に適用可能であり、デブロッキングフィルタが再構築された再構築されたサンプルに適用されることを理由に、カレントブロックのサンプルがMC(DMVRを含む)、逆量子化、および逆変換を通じて完全に再構築された後にのみ、それを起動することができる。したがって、デブロッキングがDMVRブロックに適用される前に、リファインされたMVが既に利用可能である。
図11に示される方法では、1100において、第1のブロックに対するリファインされていない動きベクトルが識別される。様々な利用可能なMVシグナリング技術のいずれかを使用して、リファインされていない動きベクトルが第1のブロックに対してシグナリングされていてもよい。1102において、双予測テンプレートを生成するために、リファインされていない動きベクトルが使用される。1104において、L0動きベクトルに対して動きリファインメントが実行され、1106において、L1動きベクトルに対して動きリファインメントが実行される。1108において、リファインされたL0およびL1動きベクトルを使用して、第1のブロックの最終双予測が生成される。図11の方法では、後続にコーディングされるブロック(例えば、第2のブロック)の動きを予測するために、リファインされていない動きベクトルが使用される。例えば、リファインされていない動きベクトルは、空間AMVP(1110)、TMVP(1114)、およびATMVP(1116)に対して使用される。リファインされていない動きベクトルも、空間マージ候補(1112)として、およびデブロッキングフィルタ(1118)の境界強度値を計算するために使用される。
別の実施形態では、それらの問題に対処し、より良好なコーディング性能を達成するために、空間動き予測、時間動き予測、およびデブロッキングフィルタに対してDMVRブロックの異なるMV(リファインされていないMVおよびリファインされたMV)を使用することが提案される。特に、この実施形態では、空間動き予測(例えば、空間AMVPおよび空間マージ候補)に対してMV予測子を導出するために、リファインされていないMVのみが使用され、ブロックの最終予測を導出するだけでなく、時間動き予測(TMVPおよびATMVP)に対するMV予測子を生成し、デブロッキングフィルタの境界強度パラメータを計算するためにも、リファインされたMVが使用される。図12は、この第2の実施形態に従ったDMVR処理を示す。
図12に示される方法では、1200において、第1のブロックに対するリファインされていない動きベクトルが識別される。様々な利用可能なMVシグナリング技術のいずれかを使用して、リファインされていない動きベクトルが第1のブロックに対してシグナリングされていてもよい。1202において、双予測テンプレートを生成するために、リファインされていない動きベクトルが使用される。1204において、L0動きベクトルに対して動きリファインメントが実行され、1206において、L1動きベクトルに対して動きリファインメントが実行される。1208において、リファインされたL0およびL1動きベクトルを使用して、第1のブロックの最終双予測が生成される。図12の方法では、第1のブロックと同一のピクチャ内の後続にコーディングされるブロック(例えば、第2のブロック)の動きを予測するために、リファインされていない動きベクトルが使用される。例えば、リファインされていない動きベクトルは、空間AMVP(1110)に対して、および空間マージ候補(1212)として使用される。例えば、TMVP(1214)またはATMVP(1216)を使用して、他のピクチャ内の後続にコーディングされるブロック(例えば、第3のブロック)の動きを予測するために、リファインされた動きベクトルが使用される。リファインされた動きベクトルも、デブロッキングフィルタ(1218)の境界強度値を計算するために使用される。
空間動き予測およびデブロッキングに対するリファインされていない動きベクトルの使用
図12の実施例では、空間動き予測およびデブロッキングフィルタに対してDMVRブロックの異なるMVが使用される。一方で、時間動き予測に対して使用されるMV(外部メモリに記憶された)とは異なり、空間動き予測およびデブロッキングに対して使用されるMVは、データアクセス速度を増大させるために、実用的なCODEC設計に対してオンチップメモリを使用して記憶されることが多い。したがって、図12の方法のいくつかの実装態様は、2つの異なるオンチップメモリが、各々のDMVRブロックに対してリファインされていないMVおよびリファインされたMVの両方を記憶することを要求する。これは、MVをキャッシュするために使用されるラインバッファサイズを二倍にすることがあり、ハードウェアの実装態様に対して望ましくないことがある。MVの記憶の総オンチップメモリサイズをVTM-1.0にあるのと同一に維持するために、更なる実施形態では、デブロッキング処理に対してDMVRブロックのリファインされていないMVを使用することが提案される。図13は、この実施形態に従ったDMVR処理の実施例を示す。特に、図12における方法のように、最終双予測信号の生成に加え、TMVPおよびATMVPを通じて時間動き予測子を生成するために、リファインされたDMVR MVも使用される。しかしながら、図13の実施形態では、空間動き予測子(空間AMVPおよび空間マージ)を導出するだけでなく、カレントブロックのデブロッキングフィルタに対する境界強度を判定するためにも、リファインされていないMVが使用される。
図13に示される方法では、1300において、第1のブロックに対するリファインされていない動きベクトルが識別される。様々な利用可能なMVシグナリング技術のいずれかを使用して、リファインされていない動きベクトルが第1のブロックに対してシグナリングされていてもよい。1302において、双予測テンプレートを生成するために、リファインされていない動きベクトルが使用される。1304において、L0動きベクトルに対して動きリファインメントが実行され、1306において、L1動きベクトルに対して動きリファインメントが実行される。1308において、リファインされたL0およびL1動きベクトルを使用して、第1のブロックの最終双予測が生成される。図13の方法では、第1のブロックと同一のピクチャ内の後続にコーディングされるブロック(例えば、第2のブロック)の動きを予測するために、リファインされていない動きベクトルが使用される。例えば、リファインされていない動きベクトルは、空間AMVP(1310)に対して、および空間マージ候補(1312)として使用される。例えば、TMVP(1314)またはATMVP(1318)を使用して、他のピクチャ内の後続にコーディングされるブロック(例えば、第3のブロック)の動きを予測するために、リファインされた動きベクトルが使用される。
図11乃至13の実施形態は、その空間隣接DMVRブロックのリファインされたMVの再構築に対する1つのブロックの復号の依存性がそれらの実施形態に存在しないと仮定して、DMVRによって生じる符号化/復号待ち時間を低減させまたは除去することができる。図10における同一の実施例に基づいて、図14は、図11乃至13の方法の1つが適用されるときの並列復号処理の実施例を示す。図14に示されるように、複数のDMVRブロックの復号を並列に実行することができることを理由に、隣接ブロックの間の復号待ち時間が存在しない。それに対応して、総復号時間が1つのブロックの復号に等しいことがあり、それは、TMCP+TDMVR+Tde-quant+Tinv-transとして表されてもよい。
DMVR待ち時間低減に対するセグメントベース方法
上記指摘されたように、DMVRに対する符号化/復号待ち時間の1つの原因は、空間動き予測(例えば、空間AMVPおよび空間マージモード)によって被られる、DMVRブロックのリファインされたMVの再構築とその隣接ブロックの復号との間の依存性である。図11乃至13の方法などの方法は、DMVRのコーディング待ち時間を除去または低減させることができるが、この低減した待ち時間は、精度が劣るリファインされていないMVが空間動き予測に対して使用されることに起因して、コーディング効率が劣化することの犠牲となることがある。一方で、図10に示されるように、DMVRによって生じる最悪のケースの符号化/復号待ち時間は、DMVRモードによってコーディングされる最大数の連続ブロックに直接関連する。それらの問題に対処するために、いくつかの実施形態では、符号化/復号待ち時間を低減させると共に、空間動き予測に対してリファインされていないMVを使用することによって生じるコーディング損失を低減させるために、領域ベース方法(region-based method)が使用される。
特に、いくつかの実施形態では、ピクチャは、複数の重複しないセグメントに分割され、セグメント内の各々のDMVRブロックのリファインされていないMVは、同一のセグメント内のその隣接ブロックのMVを予測するための予測子として使用される。しかしながら、DMVRブロックがセグメントの右側境界または下側境界上に位置するとき、そのリファインされていないMVが使用されず、代わりに、ブロックのリファインされたMVが、より良好な空間動き予測の効率性のために、隣接セグメントからのブロックのMVを予測するための予測子として使用される。
図15は、一実施形態に従った、DMVR処理の実施例を示し、図16は、ブランクブロックが、空間動き予測、空間マージ、およびデブロッキングに対してリファインされていないMVを使用するDMVRブロックを表し、パターン化されたブロックが、空間動き予測、空間マージ、およびデブロッキングに対してリファインされたMVを使用するDMVRブロックを表す実施例を示す。図16の実施例では、同一のセグメント内部の異なるインターブロックの符号化/復号は、相互に独立して実行されてもよく、異なるセグメントからのブロックの復号はなお依存している。例えば、セグメント#2の左側境界上のブロックがセグメント#1内の隣接DMVRブロックのリファインされたMVを空間MV予測子として使用することができることを理由に、セグメント#1内のそれらの隣接ブロックのDMVRが完全に行われるまで、それらの復号処理を開始することができない。加えて、図15に示されるように、図13における方法と同様に、1つのDMVRブロックの同一のMVは、MVを記憶するためのオンチップメモリを増大させることを回避するために、空間動き予測およびデブロッキングフィルタに対して使用される。別の実施形態では、デブロッキング処理に対してリファインされたMVを常に使用することが提案される。
図15に示される方法では、1502において、第1のブロックに対するリファインされていない動きベクトルが識別される。様々な利用可能なMVシグナリング技術のいずれかを使用して、リファインされていない動きベクトルが第1のブロックに対してシグナリングされていてもよい。1504において、双予測テンプレートを生成するために、リファインされていない動きベクトルが使用される。1506において、L0動きベクトルに対して動きリファインメントが実行され、1508において、L1動きベクトルに対して動きリファインメントが実行される。1510において、リファインされたL0およびL1動きベクトルを使用して、第1のブロックの最終双予測が生成される。
1512において、第1のブロックが右側セグメント境界または下側セグメント境界上に位置するかどうかの判定が行われる。第1のブロックが右側セグメント境界または下側セグメント境界上に位置しない場合、次いで、第1のブロックと同一のピクチャ内の後続にコーディングされるブロック(例えば、第2のブロック)の動きを予測するために、リファインされていない動きベクトルが使用される。例えば、リファインされていない動きベクトルは、空間AMVP(1514)に対して、および空間マージ候補(1516)として使用される。リファインされていない動きベクトルも、デブロッキングフィルタ(1518)の境界強度値を計算するために使用される。一方で、第1のブロックが右側セグメント境界または下側セグメント境界上に位置する場合、次いで、第1のブロックと同一のピクチャ内の後続にコーディングされるブロック(例えば、第2のブロック)の動きを予測するために(例えば、AMVP1514および空間マージ候補1516により)、リファインされた動きベクトルが使用され、リファインされた動きベクトルも、デブロッキングフィルタ(1518)の境界強度値を計算するために使用される。1512における判定の結果に関わらず、例えば、TMVP(1520)またはATMVP(1522)を使用して、他のピクチャ内の後続にコーディングされるブロック(例えば、第3のブロック)の動きを予測するために、リファインされた動きベクトルが使用される。
図16の実施形態では、リファインされたMVのみが、1つのピクチャ内部のセグメントの左側/上側境界上に存在するブロックの空間動き予測に対して有効にされる。しかしながら、セグメントサイズに応じて、リファインされたMVを空間動き予測に対して適用することができるブロックの全体割合は、相対的に小さいことがある。結果はなお、空間動き予測に対して無視できない性能低下となることがある。性能を更に改善するために、いくつかの実施形態では、1つのセグメント内部のDMVRブロックのリファインされたMVが、同一のセグメント内部の隣接ブロックのMVを予測することを可能にすることが提案される。しかしながら、結果として、1つのセグメント内部の複数のブロックの復号を並列して行うことができない。符号化/復号並列性を改善するために、この方法では、カレントブロックが、空間動き予測(例えば、空間AMVPおよび空間マージ)に対して、別のセグメントからである隣接ブロックのMV(リファインされていないMVまたはリファインされたMVのいずれか)を予測子として使用することを禁止することも提案される。特に、そのような方法によって、隣接ブロックが異なるセグメントからカレントブロックへとある場合、それは、空間動きベクトル予測に対して使用可能でないとして扱われる。
1つのそのような実施形態が図17に示される。図17では、ブランクブロックは、空間動き予測に対して隣接MVを使用することを許可されたCUを表し(隣接MVは、隣接ブロックが1つのDMVRブロックである場合にリファインされたMVであり、またはそうでない場合、リファインされていないMVである)、パターン化されたブロックは、空間動き予測に対して異なるセグメントからのその隣接ブロックのMVを使用することが防止されたCUを表す。図17に従った実施形態は、1つのセグメント内にないが、セグメントにまたがったインターブロックの並列化された復号を可能にする。
概して、DMVRのみが、前方予測信号および後方予測信号の両方を有する双方向予測されたCUに対して有効にされる。特に、DMVRは、一方がより小さいピクチャオーダカウント(POC:picture order count)を有し、もう一方がカレントピクチャのPOCよりも大きいPOCを有する、2つの参照ピクチャの使用を要求する。対照的に、低遅延(LD)ピクチャは、その両方が表示順序においてカレントピクチャよりも先行する、カレントピクチャのPOCよりも小さいL0およびL1における全ての参照ピクチャのPOCを有する参照ピクチャから予測される。したがって、DMVRをLDピクチャに適用することができず、DMVRによって生じるコーディング待ち時間は、LDピクチャに存在しない。そのような分析に基づいて、いくつかの実施形態では、DMVRが適用されるとき、非LDピクチャに対して上記DMVR並列性制約(セグメント境界にまたがって空間動き予測を無効にすること)のみを適用することが提案される。LDピクチャに対し、制約が適用されず、別のセグメントからのその空間隣接のMVに基づいて、カレントブロックのMVを予測することがなおも許容される。更なる実施形態では、エンコーダ/デコーダは、追加のシグナリングなしに、L0およびL1における全ての参照ピクチャのPOCを検査することに基づいて、制約が適用されるか否かを判定する。別の実施形態では、DMVR並列性制約がカレントピクチャ/スライスに適用されるか否かを示すよう、ピクチャ/スライス-レベルフラグを追加することが提案される。
いくつかの実施形態では、ピクチャ/スライス内部のセグメントの数および各々のセグメントの位置は、エンコーダによって選択され、デコーダにシグナリングされる。シグナリングは、HEVCおよびJEMにおける他の並列性ツール(例えば、スライス、タイル、およびウェーブフロント並列処理(WPP))に同様に実行されてもよい。様々な選択は、コーディング性能と符号化/復号並列性との間の異なるトレードオフにつながることがある。一実施形態では、1つのCTUのサイズに等しい各々のセグメントのサイズを設定することが提案される。シグナリングの観点では、シーケンスレベルおよび/またはピクチャレベルにおいてシンタックス要素が追加されてもよい。例えば、各々のセグメント内のCTUの数は、シーケンスパラメータセット(SPS)および/もしくはピクチャパラメータセット(PPS)においてシグナリングされてもよく、またはスライスヘッダにおいてシグナリングされてもよい。シンタックス要素の他の変形が使用されてもよく、例えば、他の代替の中で、各々のピクチャ/スライス内のCTU行の数が使用されてもよく、各々のピクチャ/スライス内のセグメントの数が使用されてもよい。
動きリファインメント方法の実施例
本明細書で説明される追加の実施形態は、DMVR動きリファインメントを計算するためのブロックマッチング動き探索を置き換えるよう機能する。小型ローカルウインドウ内で動き探索を実行するブロックマッチングベース方法と比較して、実施例の実施形態は、空間サンプル導関数および時間サンプル導関数に基づいて、動きリファインメントを直接計算する。そのような実施形態は、導出されたリファインされた動きの値が探索ウインドウに制限されないことを理由に、計算上の複雑性を低減させ、リファインメント精度を増大させることができる。
ブロックレベルBIOを使用した動きリファインメント
上記議論されたように、ブロックが双予測されるとき、ブロックベース動き補償された予測の上位に対してサンプルごとの動きリファインメントをもたらすために、JEMにおいてBIOが使用されている。現在の設計に基づいて、BIOは、MVバッファに記憶され、空間動き予測および時間動き予測ならびにデブロッキングフィルタに対して使用されるMVを更新することなく、リファインメントの結果として動き補償された予測サンプルを強化するにすぎない。これは、現在のDMVRとは反対に、BIOは、隣接ブロックの間のいずれの符号化/復号待ち時間をもたらさない。しかしながら、現在のBIO設計では、動きリファインメントは、小さい単位(例えば、4×4)で導出される。これは、特にデコーダ側において、無視できない計算上の複雑性を招く。これは、ハードウェアCODEC実装態様に対して望ましくない。したがって、DMVRの待ち時間に対処すると共に、許容できるコーディングの複雑性を維持するために、いくつかの実施形態では、DMVRによってコーディングされるビデオブロックに対する局所的動きリファインメントを計算するために、ブロックベースBIOを使用することが提案される。特に、提案される実施形態では、BIOのコア設計(例えば、勾配およびリファインされた動きベクトルの計算)は、動きリファインメントを計算する既存の設計にあるのと同一に維持される。しかしながら、複雑性を低減させるために、動きリファインメントの量は、CUレベルに基づいて導出され、単一の値は、CU内部の全てのサンプルに対して集約され、単一の動きリファインメントを計算するために使用され、カレントCU内部の全てのサンプルは、同一の動きリファインメントを共有する。BIOに関して上記使用された同一の表記に基づいて、提案されるブロックレベルBIO動きリファインメントの例は、式(5)として導出される。
Figure 2024029161000010
θは、カレントCU内のサンプルの座標の組であり、Δ(x,y)は、上記式(3)に示されたようなオプティカルフロー誤差メトリックである。
上記示されたように、BIOの動機は、カレントブロック内部の各々のサンプル位置における局所的勾配情報に基づいて、予測サンプルの精度を改善することである。多くのサンプルを含む大型ビデオブロックに対し、異なるサンプル位置における局所的勾配が、非常に変わりやすい特性を示すことがある可能性がある。そのようなケースでは、上記ブロックベースBIO導出は、カレントブロックに対する信頼できる動きリファインメントをもたらさないことがあり、したがって、コーディング性能損失につながる。そのような考慮に基づいて、いくつかの実施形態では、そのブロックサイズが小さいとき(例えば、1つの所与の閾値以下である)、DMVRブロックに対してCUベースBIO動き導出のみを有効にすることが提案される。そうでなければ、CUベースBIO動き導出が無効にされ、代わりに、カレントブロックに対する局所的動きリファインメントを導出するために、既存のブロックマッチングベース動きリファインメント(上記説明された提案されたDMVR待ち時間除去/低減方法がいくつかの実施形態において適用される)が使用される。
オプティカルフローを使用した動きリファインメント
上述したように、BIOは、各々のサンプル位置における導出されたL0およびL1動きリファインメントがカレントピクチャの周りで対称である、すなわち、
Figure 2024029161000011
および
Figure 2024029161000012
であるという想定に基づいて、局所的動きリファインメントを推定し、
Figure 2024029161000013
および
Figure 2024029161000014
は、予測リストL0およびL1と関連付けられた水平動きリファインメントおよび垂直動きリファインメントである。しかしながら、そのような想定は、DMVRによってコーディングされるブロックに対しては当てはまらないことがある。例えば、既存のDMVR(図8Aに示されるような)では、L0およびL1予測信号のテンプレートコストを最小化するMVが異なることができるように、2つの別個のブロックマッチングベース動き探索が、L0およびL1に対して実行される。そのような対称動き制約に起因して、BIOによって導出される動きリファインメントは、DMVRに対する予測品質を強化するのに常に正確でないことがある(時に、予測品質を劣化させることさえある)。
いくつかの実施形態では、DMVRに対する動きリファインメントを計算するために、改善された動き導出方法が使用される。古典的なオプティカルフローモデルは、式(6)として表されるように、ピクチャの明度が時間の変化と共に一定のままであることを述べる。
Figure 2024029161000015
xおよびyは、空間座標を表し、tは、時間を表す。式(6)の右側は、(x,y,t)に関するテイラー展開によって展開されてもよい。その後、オプティカルフローの式は、一次に、式(7)になる。
Figure 2024029161000016
カメラの捕捉時間を基本的な時間単位として使用して(例えば、dt=1を設定する)、式(7)は、オプティカルフロー関数を連続ドメインから離散ドメインに変更することによって離散化されてもよい。I(x,y)がカメラから捕捉されたサンプル値であるとして、次いで、式(7)は、式(8)になる。
Figure 2024029161000017
様々な実施形態では、1つまたは複数の誤差メトリックは、式(9)において左にある式がゼロに等しくない程度に基づいて定義されてもよい。動きリファインメントは、誤差メトリックを実質的に最小化するよう採用されてもよい。
いくつかの実施形態では、L0およびL1における局所的動きリファインメントを推定するために、離散化されたオプティカルフローモデルを使用することが提案される。特に、双予測テンプレートは、マージ候補の初期のL0およびL1 MVを使用して2つの予測ブロックを平均化することによって生成される。しかしながら、局所的領域内でブロックマッチング動き探索を実行する代わりに、式(8)におけるオプティカルフローモデルは、いくつかの提案された実施形態では、式(9)に表されるように、各々の参照リストL0/L1に対するリファインされたMVを直接導出するために使用される。
Figure 2024029161000018
0およびP1は、参照リストL0およびL1のそれぞれに対する元のMVを使用して生成された予測信号であり、Ptmpは、双予測テンプレート信号であり、
Figure 2024029161000019
および
Figure 2024029161000020
は、異なる勾配フィルタ、例えば、Sobelフィルタ、またはBIOによって使用される2D分離可能勾配フィルタ(J.Chen,E.Alshina,G.J.Sullivan,J.R.Ohm,J.Boyce,“Algorithm description of joint exploration test model 6”,JVET-G1001,Jul.2017,Torino,Italyにおいて記述される)に基づいて計算することができる、予測信号P0およびP1の水平/垂直勾配である。式(9)は、それに対して1つの個々の
Figure 2024029161000021
Figure 2024029161000022
、ならびにPtmp-Pkを計算することができる、予測信号P0またはP1における各々のサンプルに対する式の組を表す。2つの未知のパラメータΔxkおよびΔykにより、式(10)として、式(9)の二乗誤差和を最小化することによって、過剰に決定された問題を解決することができる。
Figure 2024029161000023
Figure 2024029161000024
は、L0/L1予測信号と双予測テンプレート信号との間の時間差であり、θは、コーディングブロック内の座標の集合である。式(10)における線形最小平均二乗誤差(LLMSE)問題を解決することによって、式(11)として、(Δx,Δy)* kの解析表現を取得することができる。
Figure 2024029161000025
式(11)に基づいて、いくつかの実施形態では、導出されたMVの精度を改善するために、そのような方法は、回帰的方式において動きリファインメント(すなわち、(Δx,Δy)* k)を選択することができる。そのような実施形態は、カレントブロックの元のL0およびL1 MVを使用して、初期の双予測テンプレート信号を生成し、式(11)に基づいて、対応するデルタ動き(Δx,Δy)* kを計算することによって機能することができ、リファインされたMVは次いで、新たなL0およびL1予測サンプルと共に、双予測テンプレートサンプルを生成するための動きとして使用され、双予測テンプレートサンプルは次いで、局所的リファインメント(Δx,Δy)* kの値を更新するために使用される。この処理は、MVが更新されなくなるまで、または最大数の繰り返しに到達するまで繰り返されてもよい。そのような処理の1つの実施例は、図18に示されるように、以下の手順によって要約される。
1802において、カウンタlがl=0に初期化される。1804において、初期のL0およびL1予測信号
Figure 2024029161000026
および
Figure 2024029161000027
、ならびに初期の双予測テンプレート信号
Figure 2024029161000028
は、ブロックの元のMV
Figure 2024029161000029
および
Figure 2024029161000030
を使用して生成される。1806および1808における式(11)に基づいた局所的L0およびL1動きリファインメント
Figure 2024029161000031
および
Figure 2024029161000032
、ならびにブロックのMVが、
Figure 2024029161000033
および
Figure 2024029161000034
として更新される。
Figure 2024029161000035
および
Figure 2024029161000036
は、ゼロである場合(1810において判定される)、またはl=lmaxである場合(1812において判定される)、次いで、1814において、リファインされた動きベクトルを使用して最終双予測が生成されてもよい。そうでなければ、1816において、カウンタlがインクリメントされ、処理が繰り返され、MV
Figure 2024029161000037
および
Figure 2024029161000038
を使用して、L0およびL1予測信号
Figure 2024029161000039
および
Figure 2024029161000040
ならびに双予測テンプレート信号
Figure 2024029161000041
が更新される(1806、1808において)。
図18は、DMVRブロックの動きリファインメントを計算するための実施例のオプティカルフローベース動き導出方法(optical-flow-based motion derivation method)を使用したDMVR処理の実施例を示す。図18に示されるように、1つのDMVRブロックのオプティカルMVは、オプティカルフローモデルに基づいて元のMVを反復的に修正することによって識別される。そのような方法は、良好な動き推定精度をもたらすことができるが、著しく複雑性を増大させることを招くこともある。導出の複雑性を低減させるために、開示の1つの実施形態では、例えば、DMVRブロックの修正されたMVを導出するよう、1804乃至1808において示された処理を適用することのみのために、提案された動き導出方法を使用して動きリファインメントを導出するための1回のみの反復を適用することが提案される。
オプティカルフローベース動き導出モデルは、スモールブロック内部のサンプルの特性の中での高い一貫性に起因して、大型のCUよりも小型のCUに対してより効率的であることができる。いくつかの実施形態では、そのブロックサイズが小型であるとき(例えば、所与の閾値以下である)、DMVRブロックに対して提案されたオプティカルフローベース動き導出を有効にすることが提案される。そうでなければ、既存のブロックマッチングベース動きリファインメントは、カレントブロックに対する局所的動きリファインメントを導出するために使用される(例えば、本明細書で説明された提案されたDMVR待ち時間除去/低減方法に従って)。
説明された実施形態の1つまたは複数の様々なハードウェア要素は、それぞれのモジュールと関連して本明細書で説明される様々な機能を実行する「モジュール」を指すことに留意されよう。本明細書で使用されるように、モジュールは、所与の実装態様に対して当業者によって認識されるハードウェア(例えば、1つまたは複数のプロセッサ、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコントローラ、1つまたは複数のマイクロチップ、1つまたは複数の特定用途向け集積回路(ASIC)、1つまたは複数のフィールドプログラマブルゲートアレイ(FPGA)、1つまたは複数のメモリデバイス)を含む。各々の説明されたモジュールは、それぞれのモジュールによって実行されるとして説明された1つまたは複数の機能を実行するよう実行可能な命令をも含んでもよく、それらの命令は、ハードウェア(すなわち、ハードワイヤドされた)命令、ファームウェア命令、および/またはソフトウェア命令、などの形式を取ってもよく、もしくはそれらを含んでもよく、RAM、ROMなどと一般的に称されるいずれかの適切な非一時的コンピュータ可読媒体に記憶されてもよいことに留意されよう。
特徴および要素が特定の組み合わせにおいて上記説明されたが、当業者は、各々の特徴または要素が単独で使用されてもよく、または他の特徴および要素とのいずれかの組み合わせにおいて使用されてもよいことを認識するであろう。加えて、本明細書で説明される方法は、コンピュータまたはプロセッサによる実行のための、コンピュータ可読媒体に組み込まれたコンピュータプログラム、ソフトウェア、またはファームウェアにおいて実装されてもよい。コンピュータ可読記憶媒体の例は、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、内蔵ハードディスクおよび着脱可能ディスクなどの磁気媒体、磁気光学媒体、ならびにCD-ROMディスクおよびデジタル多用途ディスク(DVD)などの光学媒体を含むが、それらに限定されない。ソフトウェアと関連したプロセッサは、TRU、UE、端末、基地局、RNC、またはいずれかのホストコンピュータにおける使用に対して無線周波数送受信機を実装するために使用されてもよい。

Claims (24)

  1. 第1のブロックにおいて、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルをリファインすることと、
    前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを使用して、双予測により前記第1のブロックを予測することと、
    前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルに少なくとも部分的に基づいて、デブロッキング境界フィルタ強度を判定することと
    を含むビデオデコーディング方法。
  2. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの一方または両方を使用して、第2のブロックの動き情報を抽出することであって、前記第2のブロックは、前記第1のブロックの空間隣接である、ことをさらに含む、請求項1に記載の方法。
  3. 前記判定されたデブロッキング境界フィルタ強度を使用して、フィルタを前記第1のブロックの境界に適用することをさらに含む、請求項1に記載の方法。
  4. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、デコーダ側動きベクトルリファインメント(DMVR)を使用して実行される、請求項1乃至3のいずれか一項に記載の方法。
  5. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、誤差メトリックを実質的に最小化するよう、前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを選択することを含む、請求項1乃至3のいずれか一項に記載の方法。
  6. 前記誤差メトリックは、テンプレートコストであり、前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルを使用して双予測によって生成されたテンプレート信号に関して、前記テンプレートコストを実質的に最小化するよう、前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを選択することを含む、請求項5に記載の方法。
  7. 第2のブロックの動き情報を抽出することは、少なくとも1つの再構築された動きベクトルを生成するよう、前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの少なくとも1つに動きベクトル差を追加することを含み、
    少なくとも1つの再構築された動きベクトルにより、前記第2のブロックのインター予測を生成すること
    をさらに含む、請求項2に記載の方法。
  8. 第1のブロックにおいて、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルをリファインすることと、
    前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを使用して、双予測により前記第1のブロックを予測することと、
    前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルに少なくとも部分的に基づいて、デブロッキング境界フィルタ強度を判定することと
    を少なくとも実行するように構成された、1つまたは複数のプロセッサを備えたビデオデコーディング装置。
  9. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの一方または両方を使用して、第2のブロックの動き情報を抽出することであって、前記第2のブロックは、前記第1のブロックの空間隣接である、ことをさらに実行するように構成された、請求項8に記載の装置。
  10. 前記判定されたデブロッキング境界フィルタ強度を使用して、フィルタを前記第1のブロックの境界に適用することをさらに実行するように構成された、請求項8に記載の装置。
  11. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、デコーダ側動きベクトルリファインメント(DMVR)を使用して実行される、請求項8乃至10のいずれか一項に記載の装置。
  12. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、誤差メトリックを実質的に最小化するよう、前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを選択することを含む、請求項8乃至10のいずれか一項に記載の装置。
  13. 前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルのうちの少なくとも1つを使用して、第3のブロックの動き情報を抽出することをさらに実行するように構成され、前記第3のブロックおよび前記第1のブロックは、異なるピクチャ内の併置ブロックである、請求項8乃至10のいずれか一項に記載の装置。
  14. 前記第2のブロックの動き情報を抽出することは、前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの少なくとも1つを空間マージ候補として使用することを含む、請求項9に記載の装置。
  15. 第1のブロックにおいて、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルをリファインすることと、
    前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを使用して、双予測により前記第1のブロックを予測することと、
    前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルに少なくとも部分的に基づいて、デブロッキング境界フィルタ強度を判定することと
    を含むビデオエンコーディング方法。
  16. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの一方または両方を使用して、第2のブロックの動き情報を抽出することであって、前記第2のブロックは、前記第1のブロックの空間隣接である、ことをさらに含む、請求項15に記載の方法。
  17. 前記判定されたデブロッキング境界フィルタ強度を使用して、フィルタを前記第1のブロックの境界に適用することをさらに含む、請求項15に記載の方法。
  18. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、デコーダ側動きベクトルリファインメント(DMVR)を使用して実行される、請求項15乃至17のいずれか一項に記載の方法。
  19. 前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルのうちの少なくとも1つを使用して、第3のブロックの動き情報を抽出することをさらに含み、前記第3のブロックおよび前記第1のブロックは、異なるピクチャ内の併置ブロックである、請求項15乃至17のいずれか一項に記載の方法。
  20. 第1のブロックにおいて、第1のリファインされた動きベクトルおよび第2のリファインされた動きベクトルを生成するよう、第1のリファインされていない動きベクトルおよび第2のリファインされていない動きベクトルをリファインすることと、
    前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルを使用して、双予測により前記第1のブロックを予測することと、
    前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルに少なくとも部分的に基づいて、デブロッキング境界フィルタ強度を判定することと
    を少なくとも実行するように構成された、1つまたは複数のプロセッサを備えたビデオエンコーディング装置。
  21. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルのうちの一方または両方を使用して、第2のブロックの動き情報を抽出することであって、前記第2のブロックは、前記第1のブロックの空間隣接である、ことをさらに実行するように構成された、請求項20に記載の装置。
  22. 前記判定されたデブロッキング境界フィルタ強度を使用して、フィルタを前記第1のブロックの境界に適用することをさらに実行するように構成された、請求項20に記載の装置。
  23. 前記第1のリファインされていない動きベクトルおよび前記第2のリファインされていない動きベクトルをリファインすることは、デコーダ側動きベクトルリファインメント(DMVR)を使用して実行される、請求項20乃至22のいずれか一項に記載の装置。
  24. 前記第1のリファインされた動きベクトルおよび前記第2のリファインされた動きベクトルのうちの少なくとも1つを使用して、第3のブロックの動き情報を抽出することをさらに実行するように構成され、前記第3のブロックおよび前記第1のブロックは、異なるピクチャ内の併置ブロックである、請求項20乃至22のいずれか一項に記載の装置。
JP2023222829A 2018-06-27 2023-12-28 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置 Pending JP2024029161A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862690507P 2018-06-27 2018-06-27
US62/690,507 2018-06-27
JP2020572893A JP7414742B2 (ja) 2018-06-27 2019-06-20 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置
PCT/US2019/038300 WO2020005719A1 (en) 2018-06-27 2019-06-20 Methods and apparatus for reducing the coding latency of decoder-side motion refinement

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020572893A Division JP7414742B2 (ja) 2018-06-27 2019-06-20 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置

Publications (1)

Publication Number Publication Date
JP2024029161A true JP2024029161A (ja) 2024-03-05

Family

ID=67185748

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020572893A Active JP7414742B2 (ja) 2018-06-27 2019-06-20 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置
JP2023222829A Pending JP2024029161A (ja) 2018-06-27 2023-12-28 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020572893A Active JP7414742B2 (ja) 2018-06-27 2019-06-20 デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置

Country Status (9)

Country Link
US (2) US11546628B2 (ja)
EP (1) EP3815374A1 (ja)
JP (2) JP7414742B2 (ja)
KR (1) KR20210029160A (ja)
CN (1) CN112369032A (ja)
AU (2) AU2019295574B2 (ja)
MX (1) MX2021000129A (ja)
TW (2) TWI805788B (ja)
WO (1) WO2020005719A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084475A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Utilization of refined motion vector
CN111083484A (zh) 2018-10-22 2020-04-28 北京字节跳动网络技术有限公司 基于子块的预测
CN111436227B (zh) 2018-11-12 2024-03-29 北京字节跳动网络技术有限公司 在视频处理中使用组合帧间-帧内预测
WO2020103852A1 (en) 2018-11-20 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Difference calculation based on patial position
CN113170171B (zh) 2018-11-20 2024-04-12 北京字节跳动网络技术有限公司 组合帧间帧内预测模式的预测细化
WO2020159198A1 (ko) 2019-01-28 2020-08-06 주식회사 엑스리스 영상 신호 부호화/복호화 방법 및 이를 위한 장치
JP7072088B2 (ja) * 2019-02-08 2022-05-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置及び復号装置
KR102635518B1 (ko) 2019-03-06 2024-02-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 변환된 단예측 후보의 사용
CN113647099B (zh) 2019-04-02 2022-10-04 北京字节跳动网络技术有限公司 解码器侧运动矢量推导
WO2020233659A1 (en) 2019-05-21 2020-11-26 Beijing Bytedance Network Technology Co., Ltd. Adaptive motion vector difference resolution for affine mode
US20220264146A1 (en) * 2019-07-01 2022-08-18 Interdigital Vc Holdings France, Sas Bi-prediction refinement in affine with optical flow
MX2022000834A (es) * 2019-08-08 2022-02-10 Fg innovation co ltd Dispositivo y metodo para la codificacion de datos de video.
CN114503574A (zh) 2019-09-19 2022-05-13 北京字节跳动网络技术有限公司 视频编解码中的缩放窗口
BR112022006453A2 (pt) 2019-10-05 2022-09-27 Beijing Bytedance Network Tech Co Ltd Método de processamento de dados de dados de vídeo, aparelho para processar dados de vídeo, meio de armazenamento não transitório legível por computador e meio de gravação não transitório legível por computador
CN114556918A (zh) 2019-10-12 2022-05-27 北京字节跳动网络技术有限公司 细化视频编解码工具的使用和信令
WO2021073488A1 (en) 2019-10-13 2021-04-22 Beijing Bytedance Network Technology Co., Ltd. Interplay between reference picture resampling and video coding tools
JP7482220B2 (ja) 2019-10-18 2024-05-13 北京字節跳動網絡技術有限公司 サブピクチャのパラメータセットシグナリングにおける構文制約
JP2023011955A (ja) * 2019-12-03 2023-01-25 シャープ株式会社 動画像符号化装置、動画像復号装置
US11917176B2 (en) 2021-09-28 2024-02-27 Avago Technologies International Sales Pte. Limited Low-latency and high-throughput motion vector refinement with template matching

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10536701B2 (en) * 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
US9491460B2 (en) * 2013-03-29 2016-11-08 Qualcomm Incorporated Bandwidth reduction for video coding prediction
US9667996B2 (en) 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US11477477B2 (en) * 2015-01-26 2022-10-18 Qualcomm Incorporated Sub-prediction unit based advanced temporal motion vector prediction
US11368681B2 (en) * 2016-07-18 2022-06-21 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium in which bitstream is stored
US11638027B2 (en) * 2016-08-08 2023-04-25 Hfi Innovation, Inc. Pattern-based motion vector derivation for video coding
CN110771169A (zh) * 2017-06-09 2020-02-07 韩国电子通信研究院 视频编码/解码方法和装置以及存储比特流的记录介质
CN117041593A (zh) * 2018-03-14 2023-11-10 Lx 半导体科技有限公司 图像编码/解码方法、存储介质和发送方法

Also Published As

Publication number Publication date
AU2019295574A1 (en) 2021-01-28
US11546628B2 (en) 2023-01-03
US20210274213A1 (en) 2021-09-02
MX2021000129A (es) 2021-03-25
AU2019295574B2 (en) 2023-01-12
WO2020005719A1 (en) 2020-01-02
EP3815374A1 (en) 2021-05-05
KR20210029160A (ko) 2021-03-15
US11973974B2 (en) 2024-04-30
TW202345596A (zh) 2023-11-16
AU2023202182A1 (en) 2023-05-04
TWI805788B (zh) 2023-06-21
TW202015412A (zh) 2020-04-16
JP7414742B2 (ja) 2024-01-16
JP2021528921A (ja) 2021-10-21
CN112369032A (zh) 2021-02-12
US20230120362A1 (en) 2023-04-20

Similar Documents

Publication Publication Date Title
JP7414742B2 (ja) デコーダ側動きリファインメントのコーディング待ち時間を低減させる方法および装置
US11582458B2 (en) Adaptive motion vector precision for affine motion model based video coding
JP7311589B2 (ja) 双方向オプティカルフローのための複雑性低減およびビット幅制御
JP7307184B2 (ja) オプティカルフローを用いたインター予測リファインメントのためのシステム、装置、および方法
US20240107024A1 (en) Affine motion model derivation method
JP2022536967A (ja) オプティカルフローによる動き補償のための精度精緻化
RU2803479C2 (ru) Адаптивная точность вектора движения для кодирования видеосигналов на основе аффинной модели движения
RU2811563C2 (ru) Системы, устройства и способы для уточнения интерпрогнозирования с помощью оптического потока
TWI834722B (zh) 雙向光流複雜度降低及位元寬度控制的裝置及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240129