JP7295230B2 - スライス/タイル/lcuの行ごとのルックアップテーブルのリセット - Google Patents

スライス/タイル/lcuの行ごとのルックアップテーブルのリセット Download PDF

Info

Publication number
JP7295230B2
JP7295230B2 JP2021523108A JP2021523108A JP7295230B2 JP 7295230 B2 JP7295230 B2 JP 7295230B2 JP 2021523108 A JP2021523108 A JP 2021523108A JP 2021523108 A JP2021523108 A JP 2021523108A JP 7295230 B2 JP7295230 B2 JP 7295230B2
Authority
JP
Japan
Prior art keywords
motion
video
candidates
tables
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021523108A
Other languages
English (en)
Other versions
JP2021530182A (ja
Inventor
リー ジャン
カイ ジャン
ホンビン リウ
ユエ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2021530182A publication Critical patent/JP2021530182A/ja
Application granted granted Critical
Publication of JP7295230B2 publication Critical patent/JP7295230B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Description

この特許明細書は、映像符号化および復号化技術、デバイスおよびシステムに関する。
映像圧縮の進歩にもかかわらず、デジタル映像は、依然として、インターネットおよび他のデジタル通信ネットワークにおいて最大の帯域幅の使用量を占めている。映像の受信および表示が可能な接続されたユーザ機器の数が増加するにつれ、デジタル映像の使用に対する帯域幅需要は増大し続けることが予想される。
本明細書は、動き候補を含むテーブルを使用してデジタル映像を符号化および復号化するための方法、システム、およびデバイスを開示する。
1つの例示的な態様において、映像処理方法は、現在の映像領域における1つ以上の映像ブロックとそのビットストリーム表現との間の変換のために、映像における以前の映像領域からの動き情報を無効にすることを決定することと、動き候補を記憶するテーブルをリセットすることによって変換を行うことと、を含むように提供される。
さらに別の例示的な態様において、映像処理方法は、第1の映像領域における第1の映像ブロックと、動き候補を含むテーブルに基づいて第1の映像領域を含む映像データのビットストリーム表現との間で、第1の変換を行うことであって、各動き候補が対応する動き情報に関連付けられる、ことと、第2の変換のために、第1の変換に利用された動き情報の使用を無効にするためにテーブルをリセットすることと、第2の映像領域における第2の映像ブロックと映像データのビットストリーム表現との間で、リセットすることに起因してテーブルからの動き情報を使用することなく、第2の変換を行うことと、を含むように提供される。
別の例示的な態様において、映像処理方法は、テーブルおよびテーブルに割り当てられたカウンタを維持することであって、各テーブルは、動き候補を含み、各動き候補は、対応する動き情報に関連付けられる、ことと、テーブルを使用して映像領域の第1の映像ブロックと映像領域を含む映像データのビットストリーム表現との間で変換を行うことと、変換に基づいて、1つ以上のテーブルを更新することと、を含むように提供される。
さらに別の代表的な態様では、本明細書で説明される様々な技法は、非一時的なコンピュータ可読媒体に記憶されるコンピュータプログラム製品として実施され得る。このコンピュータプログラム製品は、本明細書に記載の方法を実行するためのプログラムコードを含む。
さらに別の代表的な態様において、映像デコーダ装置は、本明細書で説明されるような方法を実装してもよい。
1つ以上の実装形態の詳細は、添付の添付ファイル、図面、および以下の説明に記載されている。他の特徴は、説明および図面、並びに特許請求の範囲の記載から明らかとなろう。
映像エンコーダの実装形態の例を示すブロック図である。 H.264映像符号化規格におけるマクロブロックの分割を示す。 符号化ブロック(CB:Coding Block)を予測ブロック(PU:Prediction Block)に分割する例を示す。 CTBをCBおよび変換ブロック(TB:Transform Block)に細分するための例示的な実装形態を示す。実線はCB境界を示し、点線はTB境界を示し、その分割を含むCTBの例、および対応する4分木を含む。 映像データを分割するための4分木2分木(QTBT:Quad Tree Binary Tree)構造の一例を示す。 映像ブロックの分割の例を示す。 4分木の分割の例を示す。 ツリー型信号通知の例を示す。 マージ候補リスト構築のための導出処理の一例を示す。 空間的マージ候補の位置の例を示す。 空間的マージ候補の冗長性チェックに考慮される候補対の例を示す。 N×2Nおよび2N×Nパーティションの第2のPUの位置の例を示す。 時間的マージ候補のための動きベクトルのスケーリングを示す。 時間的マージ候補の候補位置とその同一位置のピクチャを示す。 結合双方向予測マージ候補の例を示す。 動きベクトル予測候補の導出処理の例を示す。 空間的動きベクトル候補のための動きベクトルのスケーリングの例を示す。 CUの動き予測のための例示的なATMVP(Alternative Temporal Motion Vector Prediction)を示す。 ソースブロックおよびソースピクチャの識別の一例を絵で示す。 4つのサブブロックおよび近傍のブロックを有する1つのCUの例を示す。 バイラテラルマッチングの例を示す。 テンプレートマッチングの例を示す。 FRUC(Frame Rate Up Conversion)における一方の動き推定(ME: Motion Estimation)の例を示す。 バイラテラルテンプレートマッチングに基づくDMVRの例を示す。 空間的マージ候補を導出するために使用する空間的に近傍のブロックの例を示す。 ルックアップテーブル更新のための代表的な位置の選択方法の一例を示す。 新しい動き情報のセットでルックアップテーブルを更新する例を示す。 新しい動き情報のセットでルックアップテーブルを更新する例を示す。 本明細書に記載されるビジュアルメディアの復号化またはビジュアルメディアの符号化技術を実装するためのハードウェアプラットフォームの一例を示すブロック図である。 例示の映像処理方法を示すフローチャートである。 例示の映像処理方法を示すフローチャートである。 別の例示の映像処理方法を示すフローチャートである。 提案されたHMVP方法による復号化フローチャートの一例を示す。 提案されるHMVP方法を用いたテーブルの更新の例を示す。 冗長性除去に基づくLUT更新方法(1つの冗長性動き候補を除去する)の例を示す。 冗長性除去に基づくLUT更新方法(1つの冗長性動き候補を除去する)の例を示す。 冗長性除去に基づくLUT更新方法(複数の冗長性動き候補を除去する)の例を示す。 冗長性除去に基づくLUT更新方法(複数の冗長性動き候補を除去する)の例を示す。 タイプ1のブロックとタイプ2のブロックとの相違点の一例を示す。
本明細書では、理解を容易にするために章の見出しを使用しており、1つの章に開示された実施形態をその章にのみ限定するものではない。さらに、特定の実施形態は、VVC(Versatile Video Coding)または他の特定の映像コーデックを参照して説明されたが、開示された技術は、他の映像符号化技術にも適用可能である。さらに、いくつかの実施形態は映像符号化ステップを詳細に説明しているが、符号化を復号化する、対応するステップはデコーダによって実行されることが理解されよう。さらに、映像処理という用語は、映像符号化または圧縮、映像の復号化または展開、および映像の画素がある圧縮形式から別の圧縮形式へ、または別の圧縮ビットレートで表現される映像のコード変換を含む。
1. 導入
本明細書は、映像符号化技術に関する。具体的には、映像符号化における動き情報の符号化(例えば、マージモード、AMVPモード)に関する。HEVCのような既存の映像符号化規格に適用してもよいし、規格(Versatile Video Coding)を確定させるために適用してもよい。本発明は、将来の映像符号化規格または映像コーデックにも適用可能である。
簡単な説明
映像符号化規格は、主に周知のITU-TおよびISO/IEC規格の開発によって発展してきた。ITU-TはH.261とH.263を作り、ISO/IECはMPEG-1とMPEG-4 Visualを作り、両団体はH.262/MPEG-2 VideoとH.264/MPEG-4 AVC(Advanced Video Coding)とH.265/HEVC規格を共同で作った。H.262以来、映像符号化規格は、時間予測と変換符号化が利用されるハイブリッド映像符号化構造に基づく。典型的なHEVCエンコーダフレームワークの一例を図1に示す。
2.1 パーティション構造
2.1.1 H.264/AVCにおけるパーティションツリー構造
以前の規格における符号化層のコアは、16×16ブロックの輝度サンプルを含み、通常の4:2:0カラーサンプリングの場合、2つの対応する8×8ブロックの彩度サンプル含むマクロブロックであった。
イントラ符号化されたブロックは、画素間の空間的相関を利用するために空間予測を使用する。2つのパーティションを規定する。16×16および4×4である。
インター符号化されたブロックは、ピクチャ間の動きを推定することで、空間的予測の代わりに時間予測を用いる。動きは、16×16マクロブロックまたはそのサブマクロブロックパーティションのいずれかに対して独立して推定できる。16×8、8×16、8×8、8×4、4×8、4×4(図2参照)。1つのサブマクロブロックパーティション当たり1つの動きベクトル(MV:Motion Vector)のみが許可される。
2.1.2 HEVCにおけるパーティションツリー構造
HEVCにおいて、CTUは、様々な局所的特徴に適応するように、符号化ツリーと呼ばれる4分木構造を用いてCUに分割される。インターピクチャ(時間的)予測またはイントラピクチャ(空間的)予測を使用する、ピクチャ領域を符号化するかどうかの決定は、CUレベルで行われる。各CUは、PU分割タイプに応じて1つ、2つまたは4つのPUに更に分割することができる。1つのPUの内部では、同じ予測処理が適用され、PU単位で関連情報がデコーダに送信される。PU分割タイプに基づく予測処理を適用して残差ブロックを得た後、CUのための符号化ツリーに類似した別の4分木構造に基づいて、CUを変換ユニット(TU)に分割することができる。HEVC構造の重要な特徴の1つは、CU、PU、TUを含む複数のパーティション概念を有することである。
以下、HEVCを使用したハイブリッド映像符号化に関連する様々な特徴に焦点を当てる。
1)符号化ツリーユニットおよび符号化ツリーブロック(CTB)構造:HEVCにおける類似した構造は、符号化ツリーユニット(CTU)であり、この符号化ツリーユニットは、エンコーダによって選択されたサイズを有し、従来のマクロブロックよりも大きくてもよい。CTUは、輝度CTBと、対応する彩度CTBおよび構文要素とからなる。輝度CTBのサイズL×Lは、L=16、32、または64のサンプルとして選択することができ、より大きいサイズは、一般的に、より優れた圧縮を有効にする。HEVCは、次いで、ツリー構造および4分木の様な信号通知を使用して、CTBをより小さなブロックに分割することをサポートする。
2)符号化ユニット(CU)および符号化ブロック(CB):CTUの4分木の構文は、その輝度および彩度CBのサイズおよび位置を指定する。4分木のルートはCTUに関連付けられる。従って、輝度CTBのサイズは、輝度CBに対してサポートされる最大のサイズである。CTUを輝度CBおよび彩度CBに分割することは、共に信号通知されることである。1つの輝度CBおよび通常2つの彩度CBは、関連する構文と共に、1つの符号化ユニット(CU)を形成する。CTBは、1つのCUのみを含んでもよく、または複数のCUを形成するように分割されてもよく、各CUは、それに関連付けられた予測ユニット(PU)への分割と、1つの変換ユニット(TU)のツリーとを有する。
3)予測ユニットおよび予測ブロック(PB):インターピクチャまたはイントラピクチャ予測を使用してピクチャ領域を符号化するかどうかの決定は、CUレベルで行われる。PUの分割構造は、そのルートがCUレベルにある。基本的な予測タイプの決定に基づいて、次に、輝度および彩度CBのサイズをさらに分割し、輝度および彩度予測ブロック(PB)から予測することができる。HEVCは、64×64から4×4の可変PBサイズのサンプルをサポートする。図3は、M×MのCUのための許可されたPBの例を示す。
4)TUおよび変換ブロック:予測残差は、ブロック変換を使用して符号化される。TUツリー構造は、そのルートがCUレベルにある。この輝度CB残差は、輝度変換ブロック(TB)と同一であってもよいし、小さな輝度TBにさらに分割されてもよい。彩度TBについても同様である。正方形TBサイズ4×4、8×8、16×16、および32×32に対して、離散コサイン変換(DCT)の整数基底関数に類似した整数基底関数が規定される。輝度イントラピクチャ予測残差の4×4変換のために、離散サイン変換(DST)の形式から導出される整数変換が代替的に指定される。
図4は、CTBをCB[及び変換ブロック(TB)]に細分する例を示す。実線はCB境界を示し、点線はTB境界を示す。(a)CTBとその分割(b)対応する4分木。
2.1.2.1 変換ブロックおよびユニットへのツリー構造の分割
残差符号化の場合、CBは、変換ブロック(TB)に再帰的に分割することができる。この分割は、残差4分木によって信号通知される。図4に示すように、1つのブロックを再帰的に象限に分割することができるように、正方形のCBおよびTBの分割のみを指定する。サイズM×Mの所与の輝度CBに対して、フラグは、それがサイズM/2×M/2の4つのブロックに分割されるかどうかを信号通知する。さらなる分割が可能である場合、SPSに示される残留4分木の最大深さによって信号通知されるように、各象限には、それが4つの象限に分割されているかどうかを示すフラグが割り当てられる。残差4分木の結果得られる葉ノードブロックは、変換符号化によってさらに処理される変換ブロックである。エンコーダは、それが使用することになる最大および最小輝度TBサイズを示す。CBサイズが最大TBサイズよりも大きい場合、分割は非明示的に行われる。分割により、示された最小値よりも小さい輝度TBサイズとなる場合、分割は、非明示的に行われない。輝度TBサイズが4×4である場合を除き、彩度TBサイズは、各次元において輝度TBサイズの半分であり、この場合、4つの4×4輝度TBによって覆われる領域には1つの4×4彩度TBが使用される。イントラピクチャ予測CUの場合、最近の近傍のTB(CB内またはCB外)の復号サンプルを、イントラピクチャ予測のための参照データとして用いる。
従来の規格とは対照的に、HEVC設計により、インターピクチャ予測CUのために1つのTBが複数のPBにまたがることが可能となり、4分木構造のTBの分割の潜在的な符号化効率の利点が最大となる。
2.1.2.2 親子ノード
CTBは、4分木構造に基づいて分割され、そのノードは符号化ユニットである。4分木構造における複数のノードは、葉ノードおよび非葉ノードを含む。葉ノードは、ツリー構造内に子ノードを持たない(すなわち、葉ノードはそれ以上分割されない)。非葉ノードは、ツリー構造のルートノードを含む。ルートノードは、映像データの最初の映像ブロック(例えば、CTB)に対応する。複数のノードのうちのそれぞれの非ルートノードにおいて、それぞれの非ルートノードは、それぞれの非ルートノードのツリー構造における親ノードに対応する映像ブロックのサブブロックである映像ブロックに対応する。複数の非葉ノードのそれぞれの非葉ノードは、ツリー構造において1つ以上の子ノードを有する。
2.1.3 JEMにおけるより大きいCTUを有する4分木+2分木ブロック構造
HEVCを超えた将来の映像符号化技術を探索するため、2015年には、VCEGとMPEGが共同でJVET(Joint Video Exploration Team)を設立した。それ以来、多くの新しい方法がJVETによって採用され、JEM(Joint Exploration Mode)と呼ばれる参照ソフトウェアに組み込まれてきた。
2.1.3.1 QTBTブロックの分割構造
HEVCとは異なり、QTBT構造は、複数のパーティションタイプの概念を削除する。すなわち、CU、PU、TUのコンセプトの切り離しを取り除き、CUパーティションの形状の柔軟性を向上させる。QTBTブロック構造において、CUは正方形または長方形のいずれかを有することができる。図5に示すように、まず、符号化ツリーユニット(CTU)を4分木構造で分割する。4分木の葉ノードは、2分木構造によってさらに分割される。2分木の分割には、対称水平分割と対称垂直分割の2つの分割タイプがある。2分木の葉ノードは、符号化ユニット(CU)と呼ばれ、このセグメント化は、それ以上の分割を行うことなく、予測および変換処理に使用される。これは、QTBTの符号化ブロック構造において、CU、PUおよびTUが同じブロックサイズを有することを意味する。JEMにおいて、CUは、しばしば異なる色成分の符号化ブロック(CB)からなり、例えば、4:2:0彩度フォーマットのPおよびBスライスの場合、1つのCUは1つの輝度CBおよび2つの彩度CBを含み、また、CUは、しばしば単一の成分のCBからなり、例えば、Iスライスの場合、1つのCUは、1つの輝度CBのみ、または、2つの彩度CBのみを含む。
QTBT分割スキームに対して以下のパラメータを規定する。
-CTUのサイズ:1つの4分木のルートノードのサイズ、HEVCと同じ概念
-MinQTSize:最小許容の4分木の葉ノードサイズ
-MaxBTSize:最大許容の2分木のルートノードサイズ
-MaxBTDepth:最大許容の2分木の深さ
-MinBTSize:最小許容の2分木の葉ノードのサイズ
QTBTの分割構造の一例において、CTUのサイズを、2つの対応する64×64ブロックの彩度サンプルを有する128×128の輝度サンプルとして設定し、MinQTSizeを16×16として設定し、MaxBTSizeを64×64として設定し、MinBTSize(幅および高さの両方について)を4×4として設定し、MaxBTDepthを4として設定する。4分木の分割は、まずCTUに適用され、4分木の葉ノードを生成する。4分木の葉ノードは、16×16(即ち、MinQTSize)から128×128(即ち、CTUサイズ)までのサイズを有することが可能である。葉4分木のノードが128×128である場合、サイズがMaxBTSize(すなわち、64×64)を超えるため、2分木によってさらに分割されない。そうでない場合、葉4分木のノードは、2分木によってさらに分割されることができる。従って、この4分木の葉ノードは、2分木のルートノードでもあり、その2分木の深さは0である。2分木の深さがMaxBTDepth(すなわち、4)に達した場合、それ以上の分割は考慮されない。2分木のノードの幅がMinBTSize(すなわち、4)に等しい場合、それ以上の水平分割は考慮されない。同様に、2分木のノードの高さがMinBTSizeに等しい場合、それ以上の垂直分割は考慮されない。2分木の葉ノードは、さらに分割することなく、予測および変換処理によってさらに処理される。JEMにおいて、最大CTUサイズは、256×256個の輝度サンプルである。
図5(左)はQTBTを用いたブロックの分割の例を示し、図5(右)は対応するツリー表現を示す。実線は4分木の分割を表し、点線は2分木の分割を表す。2分木の各分割(即ち、非葉)ノードにおいて、1つのフラグが、どの分割タイプ(即ち、水平または垂直)が使用されるかを示すために信号通知される。ここで、0は、水平分割を表し、1は、垂直分割を表す。4分木の分割の場合、4分木の分割は常にブロックを水平および垂直に分割し、等分したサイズの4つのサブブロックを生成するため、分割タイプを示す必要はない。
さらに、QTBT方式は、輝度および彩度が別個のQTBT構造を有する能力をサポートする。現在、PおよびBスライスの場合、1つのCTUにおける輝度および彩度CTBは、同じQTBT構造を共有する。しかしながら、Iスライスの場合、輝度CTBはQTBT構造によってCUに分割され、彩度CTBは別のQTBT構造によって彩度CUに分割される。これは、1つのIスライスにおける1つのCUが1つの輝度成分の1つの符号化ブロックまたは2つの彩度成分の1つの符号化ブロックからなり、1つのPまたはBスライスにおける1つのCUが3つの色成分すべての符号化ブロックからなることを意味する。
HEVCにおいて、小さなブロックのためのインター予測は、動き補償のメモリアクセスを低減するために制限され、その結果、4×8および8×4ブロックのために双方向予測はサポートされず、4×4ブロックのためにインター予測はサポートされない。JEMのQTBTにおいて、これらの制限は取り除かれる。
2.1.4 VVCの3分木
一部の映像符号化技術は、4分木および2分木以外のツリータイプをサポートする。本実装形態において、図6(d)、(e)に示すように、3分木(TT)パーティションを2つ以上、すなわち、水平および垂直の中心側の3分木を導入する。
図6は、(a)4分木分割、(b)垂直2分木分割、(c)水平2分木分割、(d)垂直中心側3分木分割、(e)水平中心側3分木分割を示す。
いくつかの実装形態において、2つのレベルのツリー、すなわち、領域ツリー(4分木)および予測ツリー(2分木または3分木)がある。CTUは、まず、領域ツリー(RT)によって分割される。RTリーフは、予測ツリー(PT)によってさらに分割されてもよい。PT葉はまた、最大PT深さに達するまで、PTでさらに分割されてもよい。PT葉が基本符号化ユニットである。便宜上、ここでもCUと呼ぶ。1つのCUをさらに分割することはできない。予測および変換は両方ともJEMと同様にCUに適用される。パーティション構造全体を「マルチタイプツリー」と呼ぶ。
2.1.5 分割構造の例
この応答で使用されるツリー構造は、マルチツリータイプ(Multi-Tree Type:MTT)と呼ばれ、QTBTを一般化したものである。QTBTにおいて、図5に示すように、まず、符号化ツリーユニット(CTU)を4分木構造で分割する。4分木の葉ノードは、2分木構造によってさらに分割される。
MTTの基本構造は、2つのタイプのツリーノードを構成する。図7に示すように、領域ツリー(RT)および予測ツリー(PT)は、9つのタイプのパーティションをサポートする。
図7は、(a)4分木分割、(b)垂直2分木分割、(c)水平2分木分割、(d)垂直3分木分割、(e)水平3分木分割、(f)水平上方非対称2分木分割、(g)水平下方非対称2分木分割、(h)垂直左非対称2分木分割、(i)垂直右非対称2分木分割を示す。
1つの領域ツリーは、1つのCTUを4×4サイズの領域ツリーの葉ノードになるように正方形のブロックに再帰的に分割することができる。領域ツリーにおける各ノードにおいて、予測ツリーは、2分木(BT)、3分木(TT)、および非対称2分木(ABT)の3つのツリータイプのうちの1つから形成されることができる。PT分割において、予測ツリーの枝に4分木のパーティションを有することは禁止される。JEMにおけるように、輝度ツリーおよび彩度ツリーは、I個のスライスに分けられる。RTおよびPTの信号通知方法を図8に示す。
2.2 HEVC/H.265におけるインター予測
各インター予測されたPUは、1つまたは2つの参照ピクチャリストのための動きパラメータを有する。動きパラメータは、動きベクトルおよび参照ピクチャインデックスを含む。2つの参照ピクチャリストのうちの1つの参照ピクチャリストの使用は、inter_pred_idcを使用して信号通知されてもよい。動きベクトルは、予測因子に関連する差分として明確に符号化されてもよく、このような符号化モードは、AMVPモードと呼ばれる。
1つのCUがスキップモードにて符号化される場合、1つのPUがこのCUに関連付けられ、有意な残差係数がなく、符号化された動きベクトル差分も参照ピクチャインデックスもない。マージモードを指定し、これにより、現在のPUのための動きパラメータを、空間的および時間的候補を含む近傍のPUから取得する。マージモードは、スキップモードのためだけでなく、任意のインター予測されたPUに適用することができる。マージモードの代替としては、動きパラメータの明確な送信であり、各参照ピクチャリストおよび参照ピクチャリストの使用に対する参照ピクチャインデックスに対応する動きベクトルをPUごとに明確に信号通知することである。
2つの参照ピクチャリストのうちの1つを使用することを信号通知が示す場合、サンプルのうちの1つのブロックからPUを生成する。これを「単一予測」と呼ぶ。PスライスおよびBスライスの両方に対して単一予測が利用可能である。
両方の参照ピクチャリストを使用することを信号通知が示す場合、サンプルのうちの2つのブロックからPUを生成する。これを「双方向予測」と呼ぶ。Bスライスのみに双方向予測が利用可能である。
以下、HEVCに規定されるインター予測モードについて詳細に説明する。まず、マージモードについて説明する。
2.2.1 マージモード
2.2.1.1 マージモードの候補の導出
マージモードを使用してPUを予測する場合、ビットストリームからマージ候補リストにおけるエントリを指すインデックスを構文解析し、これを使用して動き情報を検索する。このリストの構成は、HEVC規格で規定されており、以下のステップのシーケンスに基づいてまとめることができる。
・ステップ1:初期候補の導出
oステップ1.1:空間的候補の導出
oステップ1.2:空間的候補の冗長性チェック
oステップ1.3:時間的候補の導出
・ステップ2:追加候補の挿入
oステップ2.1:双方向予測候補の作成
oステップ2.2:動きゼロ候補の挿入
これらのステップは図9にも概略的に示されている。空間的マージ候補の導出のために、5つの異なる位置にある候補の中から最大4つのマージ候補を選択する。時間的マージ候補の導出のために、2つの候補の中から最大1つのマージ候補を選択する。デコーダ側ではPUごとに一定数の候補を想定しているので、候補数がスライスヘッダで信号通知されるマージ候補の最大数(MaxNumMergeCand)に達しない場合、追加候補を生成する。候補の数は一定であるので、最良マージ候補のインデックスは、短縮された単項2値化(TU:truncated unary binarization)を使用して符号化される。CUのサイズが8に等しい場合、現在のCUのすべてのPUは、2N×2N予測ユニットのマージ候補リストと同じ1つのマージ候補リストを共有する。
以下、上述したステップに関連付けられた動作を詳しく説明する。
2.2.1.2 空間的候補の導出
空間的マージ候補の導出において、図10に示す位置にある候補の中から、最大4つのマージ候補を選択する。導出の順序はA、B、B、A、Bである。位置A、B、B、AのいずれかのPUが利用可能でない場合(例えば、別のスライスまたはタイルに属しているため)、またはイントラ符号化された場合にのみ、位置Bが考慮される。位置Aの候補を加えた後、残りの候補を加えると、冗長性チェックを受け、それにより、同じ動き情報を有する候補を確実にリストから排除でき、符号化効率を向上させることができる。計算の複雑性を低減するために、前述の冗長性チェックにおいて、考えられる候補対のすべてを考慮することはしない。代わりに、図11において矢印でリンクされた対のみを考慮し、冗長性チェックに使用される対応する候補が同じ動き情報を有していない場合にのみ、その候補をリストに加える。重複した動き情報の別のソースは、2N×2Nとは異なるパーティションに関連付けられた「第2のPU」である。一例として、図12は、それぞれN×2Nおよび2N×Nの場合の第2のPUを示す。現在のPUをN×2Nに分割する場合、リスト構成に位置Aの候補は考慮されない。実際、この候補を加えることにより、同じ動き情報を有する2つの予測ユニットが導かれることとなり、1つの符号化ユニットに1つのPUのみを有するためには冗長である。同様に、現在のPUを2N×Nに分割する場合、位置Bは考慮されない。
2.2.1.3 時間的候補の導出
このステップにおいて、1つの候補のみがリストに追加される。具体的には、この時間的マージ候補の導出において、所与の参照ピクチャリストにおける現在のピクチャとの間に最小のPOC差を有するピクチャに属する同一位置のPU(co-located PU)に基づいて、スケーリングされた動きベクトルを導出する。スライスヘッダにおいて、同一位置のPUの導出に用いられる参照ピクチャリストが明確に信号通知される。図13に点線で示すように、時間的マージ候補のスケーリングされた動きベクトルが得られる。これは、POC距離tbおよびtdを利用して、同一位置のPUの動きベクトルからスケーリングしたものである。tbは、現在のピクチャの参照ピクチャと現在のピクチャのPOC差として規定され、tdは、同一位置のPUの参照ピクチャと同一位置のピクチャのPOC差として規定する。時間的マージ候補の参照ピクチャインデックスをゼロに等しく設定する。このスケーリング処理の実際的な実現については、HEVC仕様に記載されている。Bスライスの場合、2つの動きベクトル、即ち、1つは参照ピクチャリスト0のためのもの、もう1つは参照ピクチャリスト1のためのものを取得し、これらを組み合わせることによって、双方向予測マージ候補を形成する。時間的マージ候補のための動きベクトルのスケーリングの説明。
参照フレームに属する同一位置のPU(Y)において、図14に示すように、候補Cと候補Cとの間で時間的候補の位置を選択する。位置CのPUが利用可能でない場合、イントラ符号化されている場合、または現在のCTUの外側にある場合、位置Cが使用される。そうでない場合、位置Cが時間的マージ候補の導出に使用される。
2.2.1.4 追加候補の挿入
空間的-時間的マージ候補の他に、2つの追加のタイプのマージ候補、すなわち、結合双方向予測マージ候補およびゼロマージ候補がある。空間的-時間的マージ候補を利用して、結合双方向予測マージ候補を生成する。結合双方向予測マージ候補は、Bスライスのみに使用される。最初の候補の第1の参照ピクチャリスト動きパラメータと別の候補の第2の参照ピクチャリスト動きパラメータとを組み合わせることで、結合双方向予測候補を生成する。これら2つのタプルが異なる動きの仮説を提供する場合、これらのタプルは、新しい双方向予測候補を形成する。一例として、図15は、オリジナルリスト(左側)における、mvL0およびrefIdxL0、またはmvL1およびrefIdxL1を有する2つの候補を用いて、最終リスト(右側)に加えられる結合双方向予測マージ候補を生成する場合を示す。これらの追加のマージ候補を生成するために考慮される組み合わせについては、様々な規則が存在する。
ゼロ動き候補を挿入し、マージ候補リストにおける残りのエントリを埋めることにより、MaxNumMergeCand容量にヒットする。これらの候補は、空間的変位がゼロであり、新しいゼロ動き候補をリストに加える度にゼロから始まり増加する参照ピクチャインデックスを有する。これらの候補が使用する参照フレームの数は、それぞれ、一方向予測の場合は1つ、双方向予測の場合は2つである。最終的には、これらの候補に対して冗長性チェックは行われない。
2.2.1.5 並列処理のための動き推定領域
符号化処理を高速化するために、動き推定を並列に行うことができ、それによって、所与の領域内のすべての予測ユニットの動きベクトルを同時に導出する。1つの予測ユニットは、その関連する動き推定が完了するまで、隣接するPUから動きパラメータを導出することができないので、空間的近傍からのマージ候補の導出は、並列処理に干渉する可能性がある。符号化効率と処理待ち時間との間のトレードオフを緩和するために、HEVCは、動き推定領域(MER:Motion Estimation Region)を規定し、そのサイズは、「log2_parallel_merge_level_minus2」構文要素を使用してピクチャパラメータセットにおいて信号通知される。1つのMERを規定するとき、同じ領域にあるマージ候補は使用不可としてマークされ、それゆえにリスト構築においては考慮されない。
7.3.2.3 ピクチャパラメータセットRBSP構文
7.3.2.3.1 一般ピクチャパラメータセットRBSP構文
Figure 0007295230000001
log2_parallel_merge_level_minus2+2は、8.5.3.2.2.2節で指定されたマージモードの輝度動きベクトルの導出処理と、8.5.3.2.3節で指定された空間的マージ候補の導出処理で使用される変数Log2ParMrgLevelの値を指定する。log2_parallel_merge_level_minus2の値は、0~CtbLog2SizeY-2を含む範囲内とする。
変数Log2ParMrgLevelは、以下のように導出される。
Log2ParMrgLevel=log2_parallel_merge_level_minus2+2 (7-37)
注3:Log2ParMrgLevelの値は、マージ候補リストを並列に導出する組み込み能力を示す。例えば、Log2ParMrgLevelが6に等しい場合、64×64ブロックに含まれたすべての予測ユニット(PU)および符号化ユニット(CU)のためのマージ候補リストを並列に導出することができる。
2.2.2 AMVPモードにおける動きベクトル予測
動きベクトル予測は、動きベクトルと近傍のPUとの間の空間的-時間的相関を利用し、これを動きパラメータの明確な伝送に用いる。まず、左側、上側の時間的に近傍のPUの位置の可用性をチェックし、冗長な候補を取り除き、ゼロベクトルを加えることで、候補リストの長さを一定にすることで、動きベクトル候補リストを構築する。次いで、エンコーダは、候補リストから最良の予測因子を選択し、選択された候補を示す対応するインデックスを送信することができる。マージインデックスの信号通知と同様に、最良の動きベクトル候補のインデックスは、短縮された単項を使用して符号化される。この場合の符号化対象の最大値は2である(例えば、図2~図8)。以下の章では、動きベクトル予測候補の導出処理の詳細を説明する。
2.2.2.1 動きベクトル予測候補の導出
図16に、動きベクトル予測候補の導出処理をまとめる。
動きベクトル予測において、空間的動きベクトル候補と時間的動きベクトル候補という2つのタイプの動きベクトル候補が考慮される。空間的動きベクトル候補の導出のために、図11に示したように、5つの異なる位置にある各PUの動きベクトルに基づいて、最終的には2つの動きベクトル候補を導出する。
時間的動きベクトル候補の導出のために、2つの異なる同一位置の配置に基づいて導出された2つの候補から1つの動きベクトル候補を選択する。空間的-時間的候補の最初のリストを作成した後、リストにおける重複した動きベクトル候補を除去する。可能性のある候補の数が2よりも多い場合、関連づけられた参照ピクチャリストにおける参照ピクチャインデックスが1よりも大きい動きベクトル候補をリストから削除する。空間的-時間的動きベクトル候補の数が2未満である場合は、追加のゼロ動きベクトル候補をリストに加える。
2.2.2.2 空間的動きベクトル候補
空間的動きベクトル候補の導出において、図11に示したような位置にあるPUから導出された5つの可能性のある候補のうち、動きマージと同じ位置にあるものを最大2つの候補を考慮する。現在のPUの左側のための導出の順序は、A、A、スケーリングされたA、スケーリングされたAとして規定される。現在のPUの上側のための導出の順序は、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBとして規定される。そのため、辺ごとに、動きベクトル候補として使用できる場合が4つ、すなわち空間的スケーリングを使用する必要がない2つの場合と、空間的スケーリングを使用する2つの場合とがある。4つの異なる場合をまとめると、以下のようになる。
・空間的スケーリングなし
-(1)同じ参照ピクチャリスト、かつ、同じ参照ピクチャインデックス(同じPOC)
-(2)異なる参照ピクチャリスト、かつ、同じ参照ピクチャ(同じPOC)
・空間的スケーリング
-(3)同じ参照ピクチャリスト、かつ、異なる参照ピクチャ(異なるPOC)
-(4)異なる参照ピクチャリスト、かつ、異なる参照ピクチャ(異なるPOC)
最初に非空間的スケーリングの場合をチェックし、次に空間的スケーリングを行う。参照ピクチャリストにかかわらず、POCが近傍のPUの参照ピクチャと現在のPUの参照ピクチャとで異なる場合、空間的スケーリングを考慮する。左側候補のすべてのPUが利用可能でないか、またはイントラ符号化されている場合、上側の動きベクトルのスケーリングは、左側および上側のMV候補の並列導出に役立つ。そうでない場合、上側の動きベクトルに対して空間的スケーリングは許可されない。
空間的スケーリング処理において、図17に示すように、時間的スケーリングと同様にして、近傍のPUの動きベクトルをスケーリングする。主な違いは、現在のPUの参照ピクチャリストおよびインデックスを入力として与え、実際のスケーリング処理は時間的スケーリングと同じであることである。
2.2.2.3 時間的動きベクトル候補
参照ピクチャインデックスを導出する以外は、時間的マージ候補を導出するための処理は、すべて、空間的動きベクトル候補を導出するための処理と同じである(図6参照)。参照ピクチャインデックスはデコーダに信号通知される。
2.2.2.4 AMVP情報の信号通知
AMVPモードの場合、ビットストリームにおいて、4つの部分、すなわち、予測方向、参照インデックス、MVD、およびmv予測因子候補インデックスを信号通知することができる。
構文テーブル:
Figure 0007295230000002
7.3.8.9 動きベクトル差構文
Figure 0007295230000003
2.3 JEM(Joint Exploration Model)における新しいインター予測方法
2.3.1 サブCUに基づく動きベクトル予測
QTBTを有するJEMにおいて、各CUは、各予測方向に対して最大1つの動きパラメータのセットを有することができる。エンコーダにおいて、大きなCUをサブCUに分割し、大きなCUのすべてのサブCUの動き情報を導出することにより、2つのサブCUレベルの動きベクトル予測方法を考慮する。ATMVP(Alternative Temporal Motion Vector Prediction)方法により、各CUが、配列された参照ピクチャにおける現在のCUよりも小さい複数のブロックから複数の動き情報のセットをフェッチすることが可能となる。STMVP(Spatial-Temporal Motion Vector Prediction)法において、時間的動きベクトル予測因子および空間的近傍動きベクトルを使用して、サブCUの動きベクトルを再帰的に導出する。
サブCU動き予測のためにより正確な動きフィールドを維持するために、参照フレームの動き圧縮は現在無効にされている。
2.3.1.1 代替の時間的動きベクトル予測
ATMVP(Alternative Temporal Motion Vector Prediction)において、動きベクトルTMVP(Temporal Motion Vector Prediction)法は、現在のCUより小さいブロックから複数セットの動き情報(動きベクトルおよび参照インデックスを含む)をフェッチすることで修正される。図18に示すように、サブCUは、正方形のN×Nブロックの正方形である(デフォルトでは、Nは4に設定される)。
ATMVPは、CU内のサブCUの動きベクトルを2つのステップで予測する。第1のステップは、参照ピクチャにおける対応するブロックを、いわゆる時間的ベクトルで特定することである。この参照ピクチャを動きソースピクチャと呼ぶ。第2のステップは、図18に示すように、現在のCUをサブCUに分割し、各サブCUに対応するブロックから各サブCUの動きベクトルならびに参照インデックスを取得する。
第1のステップにおいて、現在のCUの空間的に近傍のブロックの動き情報によって、参照ピクチャおよび対応するブロックを決定する。近傍のブロックの繰り返し走査処理を回避するために、現在のCUのマージ候補リストにおける最初のマージ候補を用いる。最初の利用可能な動きベクトルおよびその関連する参照インデックスを、時間的ベクトルおよび動きソースピクチャのインデックスに設定する。このように、ATMVPでは、TMVPに比べて、対応するブロックをより正確に特定することができ、対応するブロック(配列されたブロックと呼ばれることがある)は、常に現在のCUに対して右下または中心位置にある。1つの例において、最初のマージ候補が左側の近傍のブロック(即ち、図19のA)からのものである場合、関連するMVおよび参照ピクチャを利用して、ソースブロックおよびソースピクチャを特定する。
図19は、ソースブロックおよびソースピクチャの特定の例を示す。
第2のステップにおいて、現在のCUの座標に時間ベクトルを加えることで、動きソースピクチャにおける時間的ベクトルによって、サブCUの対応するブロックを特定する。サブCUごとに、その対応するブロックの動き情報(中心サンプルを覆う最小の動きグリッド)を使用して、サブCUの動き情報を導出する。対応するN×Nブロックの動き情報を特定した後、HEVCのTMVPと同様に、現在のサブCUの動きベクトルおよび参照インデックスに変換され、動きスケーリングや他の手順が適用される。例えば、デコーダは、低遅延条件(すなわち、現在のピクチャのすべての参照ピクチャのPOCが現在のピクチャのPOCよりも小さい)が満たされているかどうかをチェックし、場合によっては、動きベクトルMV(参照ピクチャリストXに対応する動きベクトル)を使用して、各サブCUの動きベクトルMV(Xが0または1に等しく、Yが1-Xに等しい)を予測する。
2.3.1.2 空間的-時間的動きベクトル予測
この方法において、サブCUの動きベクトルは、ラスタスキャンの順に沿って再帰的に導出される。図20にこの概念を示す。4つの4×4サブCUであるA、B、C、およびDを含む8×8CUを考える。現在のフレームの近傍の4×4ブロックには、a、b、c、dというラベルが付けられている。
サブCU Aの動き導出は、その2つの空間的近傍を特定することで始まる。第1の近傍は、サブCU Aの上のN×Nブロックである(ブロックc)。このブロックcが利用可能でないか、またはイントラ符号化されている場合、サブCU Aより上の他のN×Nブロックをチェックする(ブロックcから始まり、左から右へ)。第2の近傍は、サブCU Aの左側のブロックである(ブロックb)。ブロックbが利用可能でないか、またはイントラ符号化されている場合、サブCU Aの左側の他のブロックをチェックする(ブロックbから始まり、上から下へ)。各リストの近傍のブロックから得られた動き情報を、所与のリストの第1の参照フレームにスケーリングする。次に、HEVCに規定されているTMVP(Temporal Motion Vector Predictor)導出と同様の手順に従って、サブブロックAのTMVPを導出する。位置Dにおける配列されたブロックの動き情報をフェッチし、それに応じてスケーリングする。最後に、動き情報を検索し、スケーリングした後、参照リストごとにすべての利用可能な動きベクトル(3まで)を別々に平均する。この平均化された動きベクトルを現在のサブCUの動きベクトルとする。
図20は、4つのサブブロック(A-D)およびその近傍のブロックを有する1つのCUの例を示す。
2.3.1.3 サブCU動き予測モード信号通知
サブCUモードは追加のマージ候補として有効とされ、モードを信号通知するために追加の構文要素は必要とされない。ATMVPモードおよびSTMVPモードを表すように、各CUのマージ候補リストに2つの追加のマージ候補を加える。シーケンスパラメータセットがATMVPおよびSTMVPが有効であることを示す場合、7個までのマージ候補を使用する。追加のマージ候補の符号化ロジックは、HMにおけるマージ候補の場合と同じであり、つまり、PまたはBスライスにおける各CUについて、2つの追加のマージ候補に対して2回以上のRDチェックが必要となる。
JEMにおいて、マージインデックスのすべてのビンは、CABACによって符号化されたコンテキストである。一方、HEVCにおいては、最初のビンのみが符号化されたコンテキストであり、残りのビンはバイパス符号化されたコンテキストである。
2.3.2 適応型動きベクトル差分解像度
HEVCにおいて、use_integer_mv_flagがスライスヘッダにおいて0であるとき、1/4輝度サンプルの単位で動きベクトル差分(MVD:Motion Vector Difference)(動きベクトルとPUの予測動きベクトルとの差)が信号通知される。JEMにおいて、LAMVR(Locally Adaptive Motion Vector Resolution)が導入される。JEMにおいて、MVDは、1/4輝度サンプル、整数輝度サンプル、または4つの輝度サンプルの単位復号化できる。MVD解像度は符号化ユニット(CU)レベルで制御され、MVD解像度フラグは、少なくとも1つの非ゼロMVDの構成要素を有する各CUに対して条件付きで信号通知される。
少なくとも1つの非ゼロMVDの構成要素を有するCUの場合、1/4輝度サンプルMV精度がCUにおいて使用されるか否かを示すために、第1のフラグが信号通知される。第1のフラグ(1に等しい)が、1/4輝度サンプルMV精度が使用されていないことを示す場合、整数輝度サンプルMV精度が使用されるかまたは4輝度サンプルMV精度が使用されるかを示すために、別のフラグが信号通知される。
CUの第1のMVD解像度フラグがゼロであるか、またはCUに対して符号化されていない(つまり、CUにおけるすべてのMVDがゼロである)場合、CUに対して1/4輝度サンプルMV解像度が使用される。CUが整数輝度サンプルMV精度または4輝度サンプルMV精度を使用する場合、CUのAMVP候補リストにおけるMVPを対応する精度に丸める。
エンコーダにおいて、CUレベルのRDチェックは、どのMVD解像度をCUに用いるかを決定するために用いられる。すなわち、1つのMVD解像度ごとに3回、CUレベルのRDチェックを行う。エンコーダの速度を速めるために、JEMにおいては、以下の符号化方式が適用される。
通常の1/4輝度サンプルMVD解像度を有するCUのRDチェック中、現在のCUの動き情報(整数輝度サンプル精度)が記憶される。整数輝度サンプルおよび4輝度サンプルのMVD解像度を有する同じCUのRDチェック中に、記憶された動き情報(丸められた後)は、更なる小範囲の動きベクトル改良の開始点として使用されるので、時間がかかる動き推定処理が3回重複しない。
4輝度サンプルMVD解像度を有するCUのRDチェックを条件付きで呼び出す。CUの場合、整数輝度サンプルMVD解像度のRDコストが1/4輝度サンプルMVD解像度のそれよりもはるかに大きい場合、CUのための4輝度サンプルMVD解像度のRDチェックは省略される。
2.3.3 パターンマッチング動きベクトルの導出
PMMVD(Pattern Matched Motion Vector Derivation)モードは、FRUC(Frame-Rate Up Conversion)技術に基づく特殊なマージモードである。このモードでは、ブロックの動き情報は信号通知されず、デコーダ側で導出される。
そのマージフラグが真である場合、FRUCフラグは、CUに信号通知される。FRUCフラグが偽である場合、マージインデックスは信号通知され、通常のマージモードが使用される。FRUCフラグが真である場合、追加のFRUCモードフラグを信号通知して、どの方法(バイラテラルマッチングまたはテンプレートマッチング)を使用してブロックの動き情報を導出するかを示す。
エンコーダ側では、CUのためにFRUCマージモードを使用するかどうかの決定は、通常のマージ候補に対して行われるのと同じように、RDコスト選択に基づく。つまり、RDコスト選択を使用して、1つのCUに対して2つのマッチングモード(バイラテラルマッチングおよびテンプレートマッチング)を両方チェックする。最小コストに導くものが、更に、他のCUモードと比較される。FRUCマッチングモードが最も効率的なものである場合、CUに対してFRUCフラグを真に設定し、関連するマッチングモードを使用する。
FRUCマージモードにおける動き導出処理は、2つのステップを有する。まず、CUレベルの動き探索を実行し、次に、サブCUレベルの動き改良を実行する。CUレベルでは、バイラテラルマッチングまたはテンプレートマッチングに基づいて、CU全体のための初期の動きベクトルを導出する。まず、MV候補のリストを生成し、最小マッチングコストに導く候補を、さらなるCUレベル改善の開始点として選択する。そして、開始点付近のバイラテラルマッチングまたはテンプレートマッチングに基づく局所検索を行い、最小マッチングコストとなるMV結果をCU全体のMVとする。続いて、導出されたCU動きベクトルを開始点として、サブCUレベルでの動き情報をさらに改良する。
例えば、W×H CU動き情報導出のために、以下の導出処理を行う。第1のステージにおいて、W×H CU全体のためのMVが導出される。第2のステージにおいて、CUは、M×MのサブCUにさらに分割される。Mの値は、(16)のように計算されるが、Dは、予め定義された分割深さであり、JEMにおいてデフォルトで3に設定される。そして、各サブCUのMVを導出する。
Figure 0007295230000004
図21に示すように、このバイラテラルマッチングは、2つの異なる参照ピクチャにおける現在のCUの動き軌跡に沿った2つのブロック間の最も近いマッチングを見出すことにより、現在のCUの動き情報を導出するために用いられる。連続した動き軌跡を仮定すると、2つの参照ブロックを指す動きベクトルMV0およびMV1は、現在のピクチャと2つの参照ピクチャとの間の時間的距離、例えばTD0およびTD1に比例する。特殊なケースとしては、現在のピクチャが時間的に2つの参照ピクチャの間にあり、現在のピクチャから2つの参照ピクチャまでの時間的な距離が同じである場合、バイラテラルマッチングはミラーに基づく双方向MVとなる。
図22に示すように、現在のピクチャにおけるテンプレート(現在のCUの上側および/または左側の近傍のブロック)と、参照ピクチャにおけるブロック(テンプレートと同じサイズ)との間の最も近いマッチングを見出すことで、テンプレートマッチングを使用して、現在のCUの動き情報を導出する。前述のFRUCマージモード以外に、テンプレートマッチングは、AMVPモードにも適用される。JEMにおいて、HEVCと同様、AMVPは2つの候補を有する。テンプレートマッチング法を用いることで、新しい候補を導出する。テンプレートマッチングによって新規に導出された候補が、第1の既存のAMVP候補と異なる場合、AMVP候補リストの最初に挿入し、次に、リストサイズを2(第2の既存のAMVP候補を取り除くことを意味する)に設定する。AMVPモードに適用される場合、CUレベル検索のみが適用される。
2.3.3.1 CUレベルMV候補セット
CUレベルのMV候補セットは、以下からなる。
(i)現在のCUがAMVPモードになっている場合の元のAMVP候補
(ii)すべてのマージ候補、
(iii)補間MVフィールド内の複数のMV。
(iv)上と左の近傍の動きベクトル
バイラテラルマッチングを使用する場合、マージ候補の各有効なMVを入力として使用して、バイラテラルマッチングを仮定してMV対を生成する。例えば、マージ候補の1つの有効なMVは、参照リストAにおいて(MVa,refa)である。そして、その対をなすバイラテラルMVの参照ピクチャrefbが他の参照リストBにおいて見出され、refaおよびrefbは、時間的に現在のピクチャの異なる側にある。参照リストBにおいてこのようなrefbが利用可能でない場合、refbをrefaとは異なる参照として決定し、現在のピクチャとの時間的距離はリストBにおける最小値である。refbを決定した後、現在のピクチャとrefa,refbとの時間的距離に基づいてMVaをスケーリングすることでMVbを導出する。
補間されたMVフィールドからの4つのMVもCUレベル候補リストに追加する。より具体的には、現在のCUの位置(0,0)、(W/2,0)、(0,H/2)、(W/2,H/2)の補間MVを加算する。
AMVPモードでFRUCを適用する場合、元のAMVP候補をCUレベルMV候補セットにも加える。
CUレベルにおいて、AMVP CUのための最大15個のMVおよびマージCUのための最大13個のMVを候補リストに加える。
2.3.3.2 サブCUレベルMV候補セット
サブCUレベルのMV候補セットは、以下からなる。
(i)CUレベルの検索から決定されたMV、
(ii)上、左、左上、右上の近傍のMV、
(iii)参照ピクチャからの並置されたMVのスケーリングされたバージョン、
(iv)最大4つのATMVP候補、
(v)最大4つのSTMVP候補
参照ピクチャからのスケーリングされたMVは、以下のように導出される。両方のリストにおける参照ピクチャをすべてトラバースする。参照ピクチャにおけるサブCUの配列位置にあるMVは、開始CUレベルMVの参照に対してスケーリングされる。
ATMVPおよびSTMVPの候補は、最初の4つの候補に限定される。
サブCUレベルにおいて、最大17個のMVが候補リストに追加される。
2.3.3.3 補間MVフィールドの生成
フレームを符号化する前に、一方のMEに基づいてピクチャ全体に対して補間動きフィールドを生成する。そして、この動きフィールドを後にCUレベルまたはサブCUレベルのMV候補として使用してもよい。
まず、両方の参照リストにおける各参照ピクチャの動きフィールドは、4×4ブロックレベルでトラバースされる。各4×4ブロックにおいて、現在のピクチャ(図23に示す)の4×4ブロックを通過するブロックに関連する動きで、補間動きがまだ割り当てられていない場合、時間的距離TD0およびTD1に基づいて(HEVCにおけるTMVPのMVスケーリングと同様に)、参照ブロックの動きを現在のピクチャにスケーリングし、スケーリングされた動きを現在のフレームのブロックに割り当てる。4×4ブロックにスケーリングされたMVが割り当てられていない場合、ブロックの動きは、補間された動きフィールドにおいて利用不可能であるとマークされる。
2.3.3.4 補間およびマッチングコスト
1つの動きベクトルが1つの分数のサンプル位置を指す場合、動きの補償された補間が必要である。複雑性を低減するために、通常の8タップHEVC補間の代わりに、バイラテラルマッチングおよびテンプレートマッチングの両方に双線形補間を使用する。
マッチングコストの計算は、異なるステップでは少し異なる。CUレベルの候補セットから候補を選択する場合、マッチングコストは、バイラテラルマッチングまたはテンプレートマッチングの差分の絶対値の和(SAD)である。開始MVを決定した後、サブCUレベル検索におけるバイラテラルマッチングのマッチングコストCを以下のように算出する。
Figure 0007295230000005
ここで、wは、経験的に4に設定された重み係数であり、MVおよびMVは、それぞれ、現在のMVおよび開始MVを示す。SADは、依然として、サブCUレベル検索におけるテンプレートマッチングのマッチングコストとして使用される。
FRUCモードにおいて、MVは、輝度サンプルのみを使用することによって導出される。導出された動きは、MCインター予測のために、輝度および彩度の両方に使用される。MVを決定した後、輝度用の8タップ補間フィルタおよび彩度用の4タップ補間フィルタを使用して、最終的なMCを行う。
2.3.3.5 MVの改良
MV改良は、バイラテラルマッチングコストまたはテンプレートマッチングコストの基準を有するパターンに基づくMV検索である。JEMでは、2つの検索パターン、即ち、UCBDS(Unrestricted Center-Biased Diamond Search)およびCUレベルおよびサブCUレベルでのMV改良のための適応的横断検索をそれぞれサポートする。CUおよびサブCUレベルのMV改善の両方のために、MVは、1/4輝度サンプルMVの正確度で直接検索され、これに続いて1/8輝度サンプルMVの改良が行われる。CUおよびサブCUステップのためのMV改良の検索範囲は、8つの輝度サンプルに等しく設定される。
2.3.3.6 テンプレートマッチングFRUCマージモードにおける予測方向の選択
バイラテラルマッチングマージモードにおいては、2つの異なる参照ピクチャにおける現在のCUの動き軌跡に沿った2つのブロック間の最も近いマッチングに基づいて、CUの動き情報を導出するため、双方向予測が常に適用される。テンプレートマッチングマージモードについては、そのような制限はない。テンプレートマッチングマージモードにおいて、エンコーダは、list0からの単一予測、list1からの単一予測、またはCUのための双方向予測のうちから選択することができる。選択は、テンプレートマッチングコストに基づいて、以下のように行う。
costBi≦factor*min(cost0,cost1)の場合
双方向予測を用いる。
それ以外の場合において、cost0≦cost1の場合
list0からの単一予測を用いる。
そうでない場合、
list1からの単一予測を用いる。
ここで、cost0はlist0テンプレートマッチングのSADであり、cost1はlist1テンプレートマッチングのSADであり、costBiは双方向予測テンプレートマッチングのSADである。factorの値が1.25である場合、選択処理が双方向予測に偏っていることを意味する。このインター予測方向選択は、CUレベルのテンプレートマッチング処理にのみ適用される。
2.3.4 デコーダ側動きベクトル改良
双方向予測演算において、1つのブロック領域を予測するために、list0の動きベクトル(MV)およびlist1のMVをそれぞれ使用して構成される2つの予測ブロックを組み合わせ、1つの予測信号を形成する。DMVR(Decoder-side Motion Vector Refinement)方法において、バイラテラルテンプレートマッチング処理によって、双方向予測の2つの動きベクトルをさらに改良する。追加の動き情報を送信することなく改良されたMVを得るために、デコーダにおいてバイラテラルテンプレートマッチングを適用し、バイラテラルテンプレートと参照ピクチャにおける再構成サンプルとの間の歪みに基づく検索を行う。
DMVRにおいて、図23に示すように、list0の最初のMV0とlist1のMV1とから、それぞれ、2つの予測ブロックの重み付け結合(すなわち、平均)としてバイラテラルテンプレートを生成する。テンプレートマッチング操作は、生成されたテンプレートと参照ピクチャにおけるサンプル領域(最初の予測ブロックの付近)との間のコスト尺度を計算することからなる。2つの参照ピクチャの各々について、テンプレートコストが最小となるMVを、そのリストの更新されたMVと見なし、元のMVに置き換える。JEMにおいて、各リストに対して9つのMV候補を検索する。9つのMV候補は、元のMVと、水平または垂直方向のいずれかまたは両方向に元のMVに対してオフセットしている1つの輝度サンプルを有する8つの周囲のMVを含む。最後に、2つの新しいMV、即ち、図24に示すようなMV0’およびMV1’を使用して、最終的な双方向予測結果を生成する。差分の絶対値の和(SAD)をコスト尺度として使用する。
DMVRは、追加の構文要素を送信することなく、過去の参照ピクチャからの1つのMVと、将来の参照ピクチャからの1つのMVとの間の双方向予測のマージモードに適用される。JEMにおいて、CUに対してLIC、アフィン動き、FRUC、またはサブCUマージ候補が有効である場合、DMVRは適用されない。
2.3.5 バイラテラルマッチングの改良を伴うマージ/スキップモード
まず、利用可能な候補の数が最大候補サイズ19に達するまで、空間的に近傍のブロックおよび時間的に近傍のブロックの動きベクトルおよび参照インデックスを冗長性チェック付き候補リストに挿入することで、マージ候補リストを構築する。マージ/スキップモードのマージ候補リストは、予め規定された挿入順に基づいて、HEVC(結合候補およびゼロ候補)に用いられる空間的候補(図11)、時間的候補、アフィン候補、ATMVP(Advanced Temporal MVP)候補、STMVP(Spatial Temporal MVP)候補、および追加候補を挿入することで構築される。
-ブロック1~4の空間的候補
-ブロック1~4の外挿アフィン候補
-ATMVP
-STMVP
-仮想アフィン候補
-空間的候補(ブロック5)(利用可能な候補の数が6よりも少ない場合にのみ使用される)。
-外挿アフィン候補(ブロック5)
-時間的候補(HEVCのように導出)
-外挿アフィン候補に続く非隣接空間的候補(図25に示すブロック6~49)。
-結合候補
-ゼロ候補
なお、ICフラグは、STMVPおよびアフィンを除き、マージ候補から継承される。また、最初の4つの空間的候補について、双方向予測のものを単一予測のものの前に挿入する。
いくつかの実施形態において、現在のブロックに接続されていないブロックにアクセスすることができる。非隣接ブロックが非イントラモードにて符号化されている場合、関連する動き情報を追加のマージ候補として追加してもよい。
2.3.6 共有マージリストJVET-M0170
小さなスキップ/マージ符号化されたCUを並列処理することを有効にするために、CU分割木における1つの祖先ノードのすべての葉の符号化ユニット(CU)に対して同じマージ候補リストを共有することが提案される。祖先ノードをマージ共有ノードと呼ぶ。マージ共有ノードが葉CUであるように見せかけて、マージ共有ノードにおいて共有マージ候補リストを生成する。
Type-2の定義において、復号化の構文解析段階において、CTU内部のCUごとにマージ共有ノードを決定する。また、マージ共有ノードは、葉CUの祖先ノードであり、以下の2つの基準を満たさなければならない。
マージ共有ノードのサイズは、サイズ閾値以上であること。
マージ共有ノードにおいて、子CUのサイズは、サイズ閾値よりも小さいこと。
さらに、マージ共有ノードのサンプルがピクチャ境界の外側にないことを保証する必要がある。構文解析段階において、祖先ノードが基準(1)および(2)を満たすが、ピクチャ境界の外側にいくつかのサンプルを有する場合、この祖先ノードはマージ共有ノードではないので、先に進んでその子CUのためのマージ共有ノードを見出す。
図35に、Type-1とType-2の定義の違いの一例を示す。本例において、親ノードは、3つの子CUに3分割される。親ノードのサイズは128である。Type-1の定義の場合、3つの子CUは別々のマージ共有ノードである。しかし、Type-2の定義の場合、親ノードはマージ共有ノードである。
提案した共用マージ候補リストアルゴリズムは、並進マージ(マージモードおよびトライアングルマージモードを含む、履歴に基づく候補もサポートされる)およびサブブロックに基づくマージモードをサポートする。すべての種類のマージモードにおいて、共有マージ候補リストアルゴリズムの挙動は基本的に同じに見え、マージ共有ノードが葉CUであるように見せるだけの候補をマージ共有ノードに生成する。それには2つの大きな利点がある。第1の利点は、マージモードのための並列処理を有効にすることであり、第2の利点は、すべての葉CUのすべての計算をマージ共有ノードに共有することである。そのため、ハードウェアコーデックのためのすべてのマージモードのハードウェアコストを大幅に低減することができる。提案した共有マージ候補リストアルゴリズムにより、エンコーダとデコーダはマージモードの並列符号化に容易に対応でき、マージモードのサイクルバジェット問題を軽減する。
2.3.7 タイル群
JVET-L0686では、タイルグループに代えるためスライスが削除され、HEVC構文要素slice_addressがタイルグループの最初のタイルのアドレスとしてtile_group_header内のtile_group_addressに置き換えられる(ピクチャ内に複数のタイルがある場合)。
3. 本明細書に開示される実施形態が解決しようとする課題の例
現在のHEVC設計は、動き情報をよりよく符号化するために、現在のブロックの近傍のブロック(現在のブロックの隣)の相関をとることができる。しかしながら、近傍のブロックが、異なる動き軌跡を有する異なる対象に対応する可能性がある。この場合、その近傍のブロックからの予測は効率的ではない。
非隣接ブロックの動き情報からの予測は、全ての動き情報(一般的には4×4レベル)をキャッシュに記憶するコストをかけることになり、付加的な符号化利得をもたらし、ハードウェア実装の複雑性を大幅に増大させる。
4. いくつかの例
既存の実装形態の欠点を克服するために、様々な実施形態において、ブロックの動き情報を予測するために、少なくとも1つの動き候補が記憶された1つ以上のルックアップテーブルを使用するLUTに基づく動きベクトル予測技術を実装し、より高い符号化効率を有する映像符号化を提供することができる。各LUTは、それぞれが対応する動き情報に関連付けられた1つ以上の動き候補を含んでもよい。動き候補の動き情報は、予測方向、参照インデックス/ピクチャ、動きベクトル、LICフラグ、アフィンフラグ、MVD(Motion Vector Derivation)精度、および/またはMVD値の一部または全部を含んでもよい。動き情報は、動き情報がどこに由来しているかを示すために、ブロック位置情報をさらに含んでもよい。
開示される技術に基づいたLUTに基づく動きベクトル予測は、既存のおよび将来の映像符号化規格の両方を向上させることができ、様々な実施形態のために以下の例で解明される。LUTは、履歴データ(例えば、既に処理されたブロック)に基づいて符号化/復号化処理を行うことを可能にするため、LUTに基づく動きベクトル予測は、HMVP(History-based Motion Vector Prediction)法と呼ぶこともできる。LUTに基づく動きベクトル予測方法において、以前に符号化されたブロックからの動き情報を有する1つまたは複数のテーブルは、符号化/復号化処理の間、維持される。LUTに記憶されたこれらの動き候補をHMVP候補と称する。1つのブロックの符号化/復号化の間、LUTにおける関連付けられた動き情報を動き候補リスト(例えば、マージ/AMVP候補リスト)に追加して、1つのブロックを符号化/復号化した後に、LUTを使用してもよい。更新されたLUTは、その後、後続のブロックを符号化するために用いられる。つまり、LUTにおける動き候補の更新は、ブロックの符号化/復号化の順に基づく。以下の例は、一般的な概念を説明するための例であると考えられるべきである。これらの例は狭い意味で解釈されるべきではない。さらに、これらの例は、任意の方法で組み合わせることができる。
いくつかの実施形態において、1つのブロックの動き情報を予測するために、少なくとも1つの動き候補が記憶された1つ以上のルックアップテーブルを用いてもよい。実施形態は、動き候補を用いて、ルックアップテーブルに記憶された動き情報のセットを示すことができる。従来のAMVPまたはマージモードの場合、実施形態では、動き情報を記憶するためにAMVPまたはマージ候補を使用してもよい。
以下の実施例は、一般的な概念を説明する。
ルックアップテーブルの例
例A1:各ルックアップテーブルは、各候補がその動き情報に関連付けられた1つ以上の動き候補を含んでもよい。
i.動き候補の動き情報は、ここでは、予測方向、参照インデックス/ピクチャ、動きベクトル、LICフラグ、アフィンフラグ、MVD精度、MVD値の一部または全部を含んでもよい。
・ルックアップテーブルごとに1つのカウンタをさらに割り当ててもよい。
i.ピクチャ/スライス/LCU(CTU)の行/タイルの符号化/復号化の開始時に、カウンタをゼロに初期化してもよい。
ii.一例において、カウンタは、CTU/CTB/CU/CB/PU/一定の領域サイズ(例えば、8×8または16×16)を符号化/復号化した後に更新されてもよい。
iii.一例において、1つの候補をルックアップテーブルに加える度に、カウンタを1つずつ増加させる。
iv.一例において、カウンタは、テーブルのサイズ(許容される動き候補の数)以下であるべきである。
v.代替的に、カウンタを使用して、いくつの動き候補をルックアップテーブルに追加しようとしたかを示してもよい(これらのうちのいくつかはルックアップテーブルに含まれていたが、後にテーブルから削除してもよい)。この場合、カウンタはテーブルのサイズよりも大きくてもよい。
LUTの選択
例B1:1つのブロックを符号化する場合、1つのルックアップテーブルからの動き候補の一部または全部を順にチェックすることができる。1つのブロックを符号化する間に1つの動き候補をチェックする際に、この動き候補を動き候補リスト(例えば、AMVP、マージ候補リスト)に加えてもよい。
ルックアップテーブルの使用法
例C1:チェック対象のルックアップテーブルにおける動き候補の総数は、予め規定されてもよい。
例C2:1つのルックアップテーブルに含まれる1つ以上の動き候補は、1つのブロックによって直接継承されてもよい。
a.それらをマージモード符号化に使用してもよい。すなわち、マージ候補リスト導出処理において動き候補をチェックしてもよい。
例C3:ルックアップテーブルに含まれる動き候補は、ブロックの動き情報を符号化するための予測モジュールとして用いられてもよい使用してもよい。
a.それらをAMVPモード符号化に使用してもよい。すなわち、AMVP候補リスト導出処理において動き候補をチェックしてもよい。
ルックアップテーブルの更新
例D1:動き情報を有するブロックを符号化した後(すなわち、IntraBCモード、インター符号化モード)に、1つ以上のルックアップテーブルを更新してもよい。
・1つのイントラ制約ブロックを符号化した後、ルックアップテーブルを空にしてもよい。
例D2:現在のLCUの行を符号化するために、上側のLCUの行の動き情報を有するテーブルに保存された動き情報を無効にしてもよい。
a.この場合、新しいスライス/タイル/LCUの行の始まりにおいて、LUTの中の利用可能な動き候補の数を0にリセットしてもよい。
例D3:新しい時間層インデックスを使用してスライス/タイルを符号化する開始時に、LUTの中の利用可能な動き候補の数を0にリセットすることができる。
例D4:ルックアップテーブルをリセットするかどうかは、さらに、タイルを横断する予測を有効(または無効)にする指示に依存することができる。
a.一例において、このような指示が、タイルを横断する予測が許可されないことを示す場合、新しいタイルを符号化する前に、ルックアップテーブルをリセット(例えば、空に)しなければならない。
b.一例において、このような指示が、タイルを横断する予測が許可されることを示すと、新しいタイルを符号化する前に、ルックアップテーブルをリセット(例えば、空に)する必要はない。すなわち、第2のタイルを符号化するためのルックアップテーブルは、第1のタイルを符号化するために使用されるテーブルに依存し得る。
例D5:上記の項目のすべてにおいて、ルックアップテーブルは、符号化された情報、または前回符号化されたブロックからの符号化された情報から導出された情報を、復号化順に示している。
a.ルックアップテーブルは、並進動き情報、またはアフィン動き情報、またはアフィンモデルパラメータ、またはイントラモード情報、または照明補償情報等を含んでもよい。
b.代替的に、ルックアップテーブルは、並進動き情報、またはアフィン動き情報、またはアフィンモデルパラメータ、またはイントラモード情報、または照明補償情報等のような情報を少なくとも2種類含んでもよい。
追加の例示的な実施形態
以前符号化されたブロックの動き情報としてHMVP候補を規定する、HMVP(History-based MVP)方法が提案される。符号化/復号化処理中、複数のHMVP候補を有するテーブルが維持される。新しいスライスに遭遇した場合、テーブルは空になる。インター符号化されたブロックがあるときはいつでも、関連する動き情報を新しいHMVP候補としてテーブルの最後のエントリに加える。全体の符号化フローを図31に示す。
一例において、テーブルサイズはL(例えば、L=16または6、または44)に設定され、これは、最大L個のHMVP候補をテーブルに追加することができることを示す。
1つの実施形態(例11.g.iに対応する)において、以前符号化されたブロックからのHMVP候補がL個よりも多く存在する場合、テーブルが常に最新の以前符号化されたL個の動き候補を含むように、先入れ先出し(FIFO:First-In-First-Out)規則が適用される。図32は、FIFO規則を適用してHMVP候補を除去し、提案される方法で使用されるテーブルに新しいものを追加する例を示す。
別の実施形態(発明11.g.iiiに対応する)において、新しい動き候補を追加するときはいつでも(例えば、現在のブロックがインター符号化され、非アフィンモードであるなど)、まず、冗長性チェック処理を適用し、LUTに同じまたは類似した動き候補があるかどうかを識別する。
いくつかの例を以下に示す。
図33Aは、新しい動き候補を追加する前に、LUTが満杯であった場合の例を示す。
図33Bは、新しい動き候補を追加する前に、LUTが満杯でない場合の例を示す。
図33Aおよび図33Bは、ともに、冗長性除去に基づくLUT更新方法(1つの冗長性動き候補を除去する)の例を示す。
図34Aおよび図34Bは、冗長性除去に基づくLUT更新方法(複数の冗長性動き候補を除去する、図では2つの候補を示す)の2つの場合の例示の実装形態を示す。
図34Aは、新しい動き候補を追加する前に、LUTが満杯であった場合の例を示す。
図34Bは、新しい動き候補を追加する前に、LUTが満杯でない場合の例を示す。
HMVP候補は、マージ候補リスト構築処理において使用され得る。TMVP候補の後に、テーブルにおける最後のエントリから最初のエントリ(または最後のK0のHMVP、例えば、K0=16または6)までのすべてのHMVP候補を挿入する。HMVP候補に対してプルーニングを適用する。利用可能なマージ候補の総数が信号通知された最大許容マージ候補に達すると、マージ候補リスト構築処理を終了する。代替的に、加算された動き候補の総数が、所与の値に達すると、LUTからの動き候補のフェッチを終了する。
同様に、HMVP候補は、AMVP候補リスト構築処理において使用されてもよい。TMVP候補の後に、テーブルにおける最後のK1個のHMVP候補の動きベクトルを挿入する。AMVP対象参照ピクチャと同じ参照ピクチャを有するHMVP候補のみを用いて、AMVP候補リストを構築する。HMVP候補に対してプルーニングを適用する。一例において、K1は4に設定される。
図28は、映像処理装置2800のブロック図である。装置2800は、本明細書に記載の方法の1つ以上を実装するために使用してもよい。装置2800は、スマートフォン、タブレット、コンピュータ、IoT(Internet of Things)受信機等により実装されてよい。装置2800は、1つ以上のプロセッサ2802と、1つ以上のメモリ2804と、映像処理ハードウェア2806と、を含んでよい。1つまたは複数のプロセッサ2802は、本明細書に記載される1つ以上の方法を実装するように構成されてもよい。1または複数のメモリ2804は、本明細書で説明される方法および技術を実装するために使用されるデータおよびコードを記憶するために使用してもよい。映像処理ハードウェア2806は、本明細書に記載される技術をハードウェア回路にて実装するために用いられてもよい。
図29Aは、映像処理方法2900の例のフローチャートである。方法2900は、ステップ2902において、現在の映像領域における1つ以上の映像ブロックとそのビットストリーム表現との間の変換のために、映像における前の映像領域からの動き情報を使用不可にすることを決定することを含む。方法2900は、さらに、ステップ2904において、動き候補を記憶するテーブルをリセットすることで変換を行うことを含む。
図29Bは、映像処理方法2910の例のフローチャートである。方法2910は、ステップ2912において、動き候補を含むテーブルに基づいて、第1の映像領域における第1の映像ブロックと、第1の映像領域を含む映像データのビットストリーム表現との間で第1の変換を行うことを含み、各動き候補は、対応する動き情報に関連付けられる。方法2910は、さらに、ステップ2914において、第2の変換のために、第1の変換に使用された動き情報を使用できないようにするために、テーブルをリセットすることを含む。方法2910は、ステップ2916において、リセットすることに起因してテーブルからの動き情報を使用することなく、第2の映像領域における第2の映像ブロックと映像データのビットストリーム表現との間で第2の変換を行うことをさらに含む。
図30は、映像処理方法3000の例のフローチャートである。方法3000は、ステップ3002において、テーブルおよびテーブルに割り当てられたカウンタを維持することを含み、各テーブルは動き候補を含み、各動き候補は対応する動き情報に関連付けられる。方法3000は、さらに、ステップ3004において、テーブルを使用して、映像領域における第1の映像ブロックと、映像領域を含む映像データのビットストリーム表現との間で変換を行うことを含む。方法3000は、ステップ3006において、変換に基づいて1つ以上のテーブルを更新することをさらに含む。上述した方法/技術の特徴および実施形態を、項目に基づくフォーマットを使用して以下に説明する。
1.現在の映像領域における1つ以上の映像ブロックとそのビットストリーム表現との間の変換のために、映像における前の映像領域からの動き情報を使用不可にすることを決定することと、動き候補を記憶するテーブルをリセットすることで前記変換を行うことと、を有する、映像処理方法。
2.動き候補を含むテーブルに基づいて、第1の映像領域における第1の映像ブロックと、前記第1の映像領域を含む映像データのビットストリーム表現との間で第1の変換を行うことであって、各動き候補は、対応する動き情報に関連付けられている、ことと、第2の変換のために、前記第1の変換に利用される動き情報の使用を無効にするために前記テーブルをリセットすることと、前記リセットに起因して前記テーブルからの動き情報を使用することなく、第2の映像領域における第2の映像ブロックと前記映像データのビットストリーム表現との間で前記第2の変換を行うことと、を有する、映像処理方法。
3.前記テーブルを前記第1の変換に使用する前に、第2のリセットを行う、第2項に記載の方法。
4.前記テーブルをリセットする前に、前記第1の変換の後にテーブルを更新することと、前記更新されたテーブルに基づいて、前記第1の映像領域における別の映像ブロックと、前記映像データのビットストリーム表現との間で再び変換を行うことと、
をさらに有する、第2項に記載の方法。
5.前記第2の変換の後、テーブルを更新することと、前記更新されたテーブルに基づいて、前記第2の映像領域における別の映像ブロックと、前記映像データのビットストリーム表現との間で別の変換を行うことと、をさらに有する、第2項に記載の方法。
6.前記テーブルにおける利用可能な動き候補の数がゼロにリセットされる、第1または2項に記載の方法。
7.前記テーブルが空にされる、第1または2項に記載の方法。
8.前記以前の映像領域、前記現在の映像領域、前記第1の映像領域、または前記第2の映像領域のうちの少なくとも1つが、映像データにおけるスライス、タイル、ブリック、またはLCU(Largest Coding Unit)の行を含む、第1または2項に記載の方法。
9.現在のLCU(Largest Coding Unit)の行の上側にあるLCUの行に対応する前記テーブルに記憶された動き情報は、前記現在のLCUの行を処理することに対して無効とされる、第1または2項に記載の方法。
10.前記映像データのスライス、タイル、ブリックまたはLCUの行のうちの少なくとも1つを含む映像領域の変換の開始時に、前記利用可能な動き候補の数をゼロにリセットする、第1または2項に記載の方法。
11.新しい時間層インデックスを有するスライスまたはタイルのうちの少なくとも1つを含む映像領域の変換の開始時に、利用可能な動き候補の数が0である、第1または2項に記載の方法。
12.前記テーブルの前記リセットすることは、横断タイル予測の有効または無効状態の指示に依存する、第1または2項に記載の方法。
13.前記横断タイル予測が許可されないことを前記指示が示す場合、新しいタイルを符号化する前に前記テーブルをリセットする、第12項に記載の方法。
14.前記横断タイル予測が許可されることを前記指示が示す場合、新しいタイルを符号化する前に前記テーブルをリセットしない、第12項に記載の方法。
15.第2のタイトルを符号化するための前記テーブルは、第1のタイルを符号化するために使用されるテーブルに記憶される前記動き情報に依存する、第14項に記載の方法。
16.前記変換は、前記テーブルに基づいて行われる、第1または2項に記載の方法。
17.前記変換は、前記テーブルを使用せずに行われる、第1または2項に記載の方法。
18.テーブルおよびテーブルに割り当てられたカウンタを維持することであって、各テーブルは動き候補を含み、各動き候補は対応する動き情報に関連付けられている、ことと、前記テーブルを用いて、映像領域における第1の映像ブロックと、前記映像領域を含む映像データのビットストリーム表現との間で変換を行うことと、前記変換に基づいて1つ以上のテーブルを更新することと、を有する、映像処理方法。
19.別の映像領域の変換の開始時にカウンタをゼロ値に初期化する、第18項に記載の方法。
20.前記映像領域は、新しいピクチャ、新しいスライス、新しいタイル、新しいブリック、新しいCTUの行のうちの少なくとも1つを含む、第19項に記載の方法。
21.前記第1の映像ブロックの前記変換を行った後、カウンタを更新することをさらに含む、第18項に記載の方法。
22.前記映像領域は、符号化ツリーユニット、符号化ツリーブロック、符号化ユニット、符号化ブロックまたは予測ユニットのうちの1つを含む、第18項に記載の方法。
23.前記映像領域は、固定領域サイズを有する、第18項に記載の方法。
24.前記固定領域のサイズは、8×8または16×16である、第23項に記載の方法。
25.1つの動き候補を前記対応するテーブルに追加する度にカウンタを増加させる、第18項に記載の方法。
26.カウンタは対応するテーブルのために利用可能な動き候補の数を示し、前記カウンタは前記対応するテーブルの前記サイズよりも大きくない、第18項に記載の方法。
27.カウンタは、対応するテーブルに対して、前記対応するテーブルに追加された動き候補の数を示す、第18項に記載の方法。
28.1つのイントラ制約ブロックに対して前記変換を行った後、前記テーブルを空にする、第1または2項に記載の方法。
29.前記テーブルは、ルックアップテーブルに対応する、第1~28項のいずれか1項に記載の方法。
30.動き候補は、予測方向、参照ピクチャインデックス、動きベクトル値、強度補償フラグ、アフィンフラグ、動きベクトル差精度または動きベクトル差分値のうち少なくとも1つを含む動き情報に関連付けられる、第1~28項のいずれか1項に記載の方法。
31.前記動き候補は、イントラモード符号化のためのイントラ予測モードの動き候補に対応する、第1~30項のいずれか1項に記載の方法。
32.前記動き候補は、ICパラメータ符号化のための照明補償パラメータを含む動き候補に対応する、第1~30項のいずれか1項に記載の方法。
33.前記変換に基づいて、1つ以上のテーブルを更新することをさらに有する、第1~32項のいずれか1項に記載の方法。
34.前記1つ以上のテーブルを更新することは、前記変換を行った後、前記第1の映像ブロックの前記動き情報に基づいて1つ以上のテーブルを更新することを含む、第33項に記載の方法。
35.前記更新されたテーブルに基づいて、前記映像データの後続の映像ブロックと前記映像データの前記ビットストリーム表現との間で変換を行うことをさらに有する、第34項に記載の方法。
36.前記変換を行うことは、映像データから前記ビットストリーム表現を生成することを含む、第1~35項のいずれか1項に記載の方法。
37.前記変換を行うことは、前記ビットストリーム表現の前記映像データを映像データに生成することを含む、第1~35項のいずれか1項に記載の方法。
38.プロセッサと、命令を搭載した非一時的メモリとを備える装置であって、前記命令は、前記プロセッサにより実行された際に、前記プロセッサに、請求項1~37のいずれか1つ以上に記載の前記方法を実装させる、装置。
39.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、第1~37項のいずれか1項に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
以上、説明の目的で本開示の技術の特定の実施形態を説明したが、本発明の範囲から逸脱することなく様々な修正が可能であることは、理解されるであろう。従って、本開示の技術は、添付の特許請求の範囲による場合を除き、限定されない。
本明細書に記載された開示された、およびその他の実施形態、モジュール、および機能操作の実装形態は、本明細書に開示された構造およびその構造的等価物を含め、デジタル電子回路、またはコンピュータソフトウェア、ファームウェア、若しくはハードウェアで実施されてもよく、またはそれらの1つ以上の組み合わせで実施してもよい。開示された、およびその他の実施形態は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置によって実装されるため、またはデータ処理装置の操作を制御するために、コンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実施することができる。このコンピュータ可読媒体は、機械可読記憶装置、機械可読記憶基板、記憶装置、機械可読伝播信号をもたらす物質の組成物、またはこれらの1つ以上の組み合わせであってもよい。「データ処理装置」という用語は、例えば、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサ、若しくはコンピュータを含む、データを処理するためのすべての装置、デバイス、および機械を含む。この装置は、ハードウェアの他に、当該コンピュータプログラムの実行環境を作るコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはこれらの1つ以上の組み合わせを構成するコードを含んでもよい。伝播信号は、人工的に生成した信号、例えば、機械で生成した電気、光、または電磁信号であり、適切な受信装置に送信するための情報を符号化するために生成される。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとも呼ばれる)は、コンパイルされた言語または解釈された言語を含む任意の形式のプログラミング言語で記述することができ、それは、スタンドアロンプログラムとして、またはコンピューティング環境で使用するのに適したモジュール、コンポーネント、サブルーチン、または他のユニットとして含む任意の形式で展開することができる。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応するとは限らない。プログラムは、他のプログラムまたはデータを保持するファイルの一部(例えば、マークアップ言語文書に格納された1つ以上のスクリプト)に記録されていてもよいし、当該プログラム専用の単一のファイルに記憶されていてもよいし、複数の調整ファイル(例えば、1つ以上のモジュール、サブプログラム、またはコードの一部を格納するファイル)に記憶されていてもよい。1つのコンピュータプログラムを、1つのサイトに位置する1つのコンピュータ、または複数のサイトに分散され通信ネットワークによって相互接続される複数のコンピュータで実行させるように展開可能である。
本明細書に記載されたプロセスおよびロジックフローは、入力データ上で動作し、出力を生成することによって機能を実行するための1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサによって行うことができる。プロセスおよびロジックフローはまた、特別目的のロジック回路、例えば、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)によって実行することができ、装置はまた、特別目的のロジック回路として実装することができる。
コンピュータプログラムの実行に適したプロセッサは、例えば、汎用および専用マイクロプロセッサの両方、並びに任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサを含む。一般的に、プロセッサは、リードオンリーメモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受信する。コンピュータの本質的な要素は、命令を実行するためのプロセッサと、命令およびデータを記憶するための1つ以上の記憶装置とである。一般的に、コンピュータは、データを記憶するための1つ以上の大容量記憶デバイス、例えば、磁気、光磁気ディスク、または光ディスクを含んでもよく、またはこれらの大容量記憶デバイスからデータを受信するか、またはこれらにデータを転送するように動作可能に結合されてもよい。しかしながら、コンピュータは、このようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、あらゆる形式の不揮発性メモリ、媒体、および記憶装置を含み、例えば、EPROM、EEPROM、フラッシュ記憶装置、磁気ディスク、例えば内部ハードディスクまたはリムーバブルディスク、光磁気ディスク、およびCD-ROMおよびDVD-ROMディスク等の半導体記憶装置を含む。プロセッサおよびメモリは、専用ロジック回路によって補完されてもよく、または専用ロジック回路に組み込まれてもよい。
この特許明細書は多くの詳細を含むが、これらは、任意の発明の範囲または特許請求の範囲を限定するものと解釈されるべきではなく、むしろ、特定の発明の特定の実施形態に特有であり得る特徴の説明と解釈されるべきである。本特許明細書において別の実施形態の文脈で説明されている特定の特徴は、1つの例において組み合わせて実装してもよい。逆に、単一の例の文脈で説明された様々な特徴は、複数の実施形態において別個にまたは任意の適切なサブコンビネーションで実装してもよい。さらに、特徴は、特定の組み合わせで作用するものとして上記に記載され、最初にそのように主張されていてもよいが、主張された組み合わせからの1つ以上の特徴は、場合によっては、組み合わせから抜粋されることができ、主張された組み合わせは、サブ組み合わせまたはサブ組み合わせのバリエーションに向けられてもよい。
同様に、動作は図面において特定の順番で示されているが、これは、所望の結果を達成するために、このような動作が示された特定の順番でまたは連続した順番で実行されること、または示された全ての操作が実行されることを必要とするものと理解されるべきではない。また、本特許明細書に記載されている例における様々なシステムの構成要素の分離は、全ての実施形態においてこのような分離を必要とするものと理解されるべきではない。
いくつかの実装形態および例のみが記載されており、この特許明細書に記載され図示されている内容に基づいて、他の実施形態、拡張および変形が可能である。

Claims (18)

  1. 映像データをコーディングする方法であって、
    映像内の画像の第1の映像領域コーディングする前に、動き候補を含む1または複数のテーブルをリセットすることと、
    前記第1の映像領域内の映像ブロックをコーディングし、前記映像ブロックに対して導出された動き情報を用いて前記1または複数のテーブルを更新するか否かを決定することと、
    前記1または複数のテーブルを更新する際に、前記1または複数のテーブルにおける同一または類似に対する冗長性チェック処理を実行することと、
    前記第1の映像領域内の前記映像ブロックの後続の映像ブロックに対する動き情報を導出することと、
    前記後続の映像ブロックに対して導出された前記動き情報を用いて前記後続の映像ブロックをコーディングすることと
    を有し、
    前記後続の映像ブロックに対する前記動き情報を導出するために用いられる動き候補リスト構成処理の間、前記1または複数のテーブルから1または複数の候補を、選択して追加する、方法。
  2. 前記第1の映像領域とは異なる第2の映像領域の前記コーディングの間、前記第1の映像領域から導出された前記テーブル内の動き候補の使用を無効化すること
    を更に有する、請求項1に記載の方法。
  3. 前記第1の映像領域、および、前記第2の映像領域はそれぞれ、コーディングツリーユニット(Coding Tree Unit)の行、タイル、または、スライスの1つを有する、請求項2に記載の方法。
  4. 前記1または複数のテーブルからの前記1または複数の候補の配列は、前記1または複数の候補の前記テーブルへの追加の順序に基づく、請求項1に記載の方法。
  5. 前記第1の映像領域は、他のCTU(Coding Tree Unit)の行である前記第2の映像領域の上側のCTU(Coding Tree Unit)の行である、請求項2に記載の方法。
  6. 前記リセットすることは、前記1または複数のテーブルにおいて利用可能な動き候補の数をゼロにリセットすることを有する、請求項1に記載の方法。
  7. 前記テーブルに対するカウンターを維持すること、を更に有し、
    前記カウンターは、前記テーブル内の利用可能な動き候補の数を示し、
    前記カウンターは、前記テーブルのサイズよりも大きくない、
    請求項1に記載の方法。
  8. 前記映像ブロックに対する動き情報の導出に応じて、少なくとも前記映像ブロックのサイズに基づいて、前記カウンターが増加するか否かを判定すること、
    を更に有する請求項7に記載の方法。
  9. 前記カウンターは、前記テーブルをリセットすることに応じて、ゼロに初期化される、請求項7に記載の方法。
  10. 前記テーブル内の前記動き候補は、予測方向、参照画像インデックス、動きベクタ値、強度補償フラグ、アフィンフラグ、動きベクタ差分精度、および動きベクタ差分値の少なくとも1つを含む動き情報と関連付けられている、請求項1に記載の方法。
  11. 前記テーブルをリセットすることは、更に映像領域を横断する予測が有効か否かに基づいて判定される、請求項1に記載の方法。
  12. 前記1または複数のテーブルの前記1または複数の候補をチェックすることは、最大の許可数に達していない前記動き候補リストにおける動き候補の数に少なくとも基づいて決定される、請求項1に記載の方法。
  13. 前記動き候補リストは、マージ候補リスト、または、AMVP(Advanced Motion Vector Prediction)の候補リストである、請求項1に記載の方法。
  14. 前記コーディングする処理は、映像ブロックを映像ビットストリームに符号化することを含む、請求項1~13のいずれか一項の方法。
  15. 前記コーディングする処理は、映像ビットストリームから映像ブロックを復号化することを含む、請求項1~13のいずれか一項の方法。
  16. プロセッサと、命令を有する非一時的メモリを有する、映像コーディング装置であって、
    前記命令は、前記プロセッサによって実行された際に、前記プロセッサに、
    映像内の画像の第1の映像領域コーディングする前に、動き候補を含む1または複数のテーブルをリセットすることと、
    前記第1の映像領域内の映像ブロックをコーディングし、前記映像ブロックに対して導出された動き情報を用いて前記1または複数のテーブルを更新するか否かを決定することと、
    前記1または複数のテーブルを更新する際に、前記1または複数のテーブルにおける同一または類似に対する冗長性チェック処理を実行することと、
    前記第1の映像領域内の前記映像ブロックの後続の映像ブロックに対する動き情報を導出することと、
    前記後続の映像ブロックに対して導出された前記動き情報を用いて前記後続の映像ブロックをコーディングすることと
    を行わせ、
    前記後続の映像ブロックに対する前記動き情報を導出するために用いられた動き候補リスト構成処理の間、前記1または複数のテーブルから1または複数の候補を、選択して追加する、映像コーディング装置。
  17. プロセッサに、
    映像内の画像の第1の映像領域コーディングする前に、動き候補を含む1または複数のテーブルをリセットすることと、
    前記第1の映像領域内の映像ブロックをコーディングし、前記映像ブロックに対して導出された動き情報を用いて前記1または複数のテーブルを更新するか否かを決定することと、
    前記1または複数のテーブルを更新する際に、前記1または複数のテーブルにおける同一または類似に対する冗長性チェック処理を実行することと、
    前記第1の映像領域内の前記映像ブロックの後続の映像ブロックに対する動き情報を導出することと、
    前記後続の映像ブロックに対して導出された前記動き情報を用いて前記後続の映像ブロックをコーディングすることと
    を行わせ、
    前記後続の映像ブロックに対する前記動き情報を導出するために用いられた動き候補リスト構成処理の間、前記1または複数のテーブルから1または複数の候補を、選択して追加する、命令を格納した非一時的コンピュータ可読記憶媒体。
  18. 映像のビットストリームを格納するための方法であって、
    映像内の画像の第1の映像領域コーディングする前に、動き候補を含む1または複数のテーブルをリセットすることと、
    前記第1の映像領域の映像ブロックから前記ビットストリームを生成し、前記映像ブロックに対して導出された動き情報を用いて前記1または複数のテーブルを更新するか否かを決定することと、
    前記1または複数のテーブルを更新する際に、前記1または複数のテーブルにおける同一または類似に対する冗長性チェック処理を実行することと、
    前記第1の映像領域内の前記映像ブロックの後続の映像ブロックに対する動き情報を導出することと、
    前記後続の映像ブロックに対して導出された前記動き情報を用いて前記後続の映像ブロックから前記ビットストリームを生成することと、
    前記ビットストリームを、非一時的コンピュータ可読記録媒体に格納することと、
    を有し、
    前記後続の映像ブロックに対する前記動き情報を導出するために用いられる動き候補リスト構成処理の間、前記1または複数のテーブルから1または複数の候補が、選択して追加される、方法。
JP2021523108A 2018-06-29 2019-07-01 スライス/タイル/lcuの行ごとのルックアップテーブルのリセット Active JP7295230B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2018/093663 2018-06-29
CN2018093663 2018-06-29
CN2019071510 2019-01-13
CNPCT/CN2019/071510 2019-01-13
PCT/IB2019/055556 WO2020003266A1 (en) 2018-06-29 2019-07-01 Resetting of look up table per slice/tile/lcu row

Publications (2)

Publication Number Publication Date
JP2021530182A JP2021530182A (ja) 2021-11-04
JP7295230B2 true JP7295230B2 (ja) 2023-06-20

Family

ID=67297213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523108A Active JP7295230B2 (ja) 2018-06-29 2019-07-01 スライス/タイル/lcuの行ごとのルックアップテーブルのリセット

Country Status (7)

Country Link
US (1) US10778997B2 (ja)
EP (1) EP3791587A1 (ja)
JP (1) JP7295230B2 (ja)
KR (1) KR102648120B1 (ja)
CN (1) CN110662063B (ja)
TW (1) TWI723443B (ja)
WO (1) WO2020003266A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN110662053B (zh) 2018-06-29 2022-03-25 北京字节跳动网络技术有限公司 使用查找表的视频处理方法、装置和存储介质
WO2020003284A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
KR20210024502A (ko) 2018-06-29 2021-03-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝
WO2020003280A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Which lut to be updated or no updating
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
EP4307679A2 (en) 2018-07-02 2024-01-17 Beijing Bytedance Network Technology Co., Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
BR112021000004A8 (pt) * 2018-07-06 2023-02-07 Mediatek Inc Informações de movimento herdadas para decodificar uma unidade de codificação atual em um sistema de codificação de vídeo
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
US11297330B2 (en) * 2018-09-22 2022-04-05 Lg Electronics Inc. Method and apparatus for processing video signal based on inter prediction
WO2020071829A1 (ko) * 2018-10-04 2020-04-09 엘지전자 주식회사 히스토리 기반 영상 코딩 방법 및 그 장치
WO2020084474A1 (en) 2018-10-22 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Gradient computation in bi-directional optical flow
EP3857879A4 (en) * 2018-11-12 2022-03-16 Beijing Bytedance Network Technology Co., Ltd. SIMPLIFICATION OF COMBINED INTER-INTRA PREDICTION
JP7241870B2 (ja) 2018-11-20 2023-03-17 北京字節跳動網絡技術有限公司 部分的な位置に基づく差分計算
WO2020103944A1 (en) * 2018-11-22 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Sub-block based motion candidate selection and signaling
WO2020114407A1 (en) 2018-12-03 2020-06-11 Beijing Bytedance Network Technology Co., Ltd. Partial pruning method for hmvp mode
KR20210094082A (ko) * 2018-12-29 2021-07-28 에스지 디제이아이 테크놀러지 코., 엘티디 비디오 처리 방법 및 기기
EP3888355A4 (en) 2019-01-10 2022-03-23 Beijing Bytedance Network Technology Co., Ltd. LOOKUP TABLE UPDATE INVOCATION
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
US11032560B2 (en) * 2019-01-17 2021-06-08 Tencent America LLC Method and apparatus for video coding without updating the HMVP table
KR102617439B1 (ko) * 2019-02-26 2023-12-26 애플 인크. 영상 신호 부호화/복호화 방법 및 이를 위한 장치
EP3915259A4 (en) 2019-03-06 2022-03-30 Beijing Bytedance Network Technology Co., Ltd. USE OF A CONVERTED UNIVERSITY PREDICTION CANDIDATE
US11418807B2 (en) * 2019-03-15 2022-08-16 Tencent America LLC Temporal motion vector derivation in shared merge region at picture boundary
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
CN114762330A (zh) 2019-09-22 2022-07-15 北京字节跳动网络技术有限公司 视频的子图片编码和解码
EP4088464A4 (en) 2020-02-05 2023-06-07 Beijing Bytedance Network Technology Co., Ltd. DEBLOCKING PARAMETERS FOR A CHROMA COMPONENT
EP4088456A4 (en) * 2020-02-05 2023-06-21 Beijing Bytedance Network Technology Co., Ltd. PALETTE MODE FOR A LOCAL DUAL TREE
US11936899B2 (en) * 2021-03-12 2024-03-19 Lemon Inc. Methods and systems for motion candidate derivation
US11671616B2 (en) 2021-03-12 2023-06-06 Lemon Inc. Motion candidate derivation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007058A1 (ja) 2012-07-03 2014-01-09 シャープ株式会社 画像復号装置、および画像符号化装置
WO2018061522A1 (ja) 2016-09-27 2018-04-05 シャープ株式会社 動きベクトル生成装置、予測画像生成装置、動画像復号装置、および動画像符号化装置
JP2020523853A (ja) 2017-06-13 2020-08-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated 動きベクトル予測

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070025444A1 (en) * 2005-07-28 2007-02-01 Shigeyuki Okada Coding Method
EP2532160A1 (en) 2010-02-05 2012-12-12 Telefonaktiebolaget L M Ericsson (PUBL) Managing predicted motion vector candidates
US9510009B2 (en) 2010-05-20 2016-11-29 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
US10104391B2 (en) * 2010-10-01 2018-10-16 Dolby International Ab System for nested entropy encoding
WO2012074344A2 (ko) 2010-12-03 2012-06-07 엘지전자 주식회사 움직임 정보 리스트 인덱싱 방법 및 이러한 방법을 사용하는 장치
GB2492778A (en) * 2011-07-11 2013-01-16 Canon Kk Motion compensated image coding by combining motion information predictors
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
GB2501836B (en) 2011-03-09 2014-08-06 Canon Kk Video encoding
US9143795B2 (en) 2011-04-11 2015-09-22 Texas Instruments Incorporated Parallel motion estimation in video coding
ES2861773T3 (es) 2011-05-31 2021-10-06 Jvc Kenwood Corp Dispositivo de decodificación de imágenes en movimiento, procedimiento de decodificación de imágenes en movimiento y programa de decodificación de imágenes en movimiento
JP5786478B2 (ja) 2011-06-15 2015-09-30 富士通株式会社 動画像復号装置、動画像復号方法、及び動画像復号プログラム
MX351933B (es) 2011-08-29 2017-11-01 Ibex Pt Holdings Co Ltd Método para generar un bloque de predicción en modo de predicción de vector de movimiento avanzada (amvp).
JP5976658B2 (ja) * 2011-09-29 2016-08-24 シャープ株式会社 画像復号装置、画像復号方法および画像符号化装置
AU2012323631B2 (en) 2011-10-11 2015-09-17 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3D video coding and HEVC
US9462298B2 (en) 2011-10-21 2016-10-04 Qualcomm Incorporated Loop filtering around slice boundaries or tile boundaries in video coding
US20130114717A1 (en) 2011-11-07 2013-05-09 Qualcomm Incorporated Generating additional merge candidates
US20130188715A1 (en) 2012-01-09 2013-07-25 Qualcomm Incorporated Device and methods for merge list reordering in video coding
TWI559744B (zh) * 2012-01-20 2016-11-21 Ge影像壓縮有限公司 允許平行處理之編碼器、解碼器、傳送解多工器、系統、儲存媒體、方法及電腦程式
US9264706B2 (en) 2012-04-11 2016-02-16 Qualcomm Incorporated Bypass bins for reference index coding in video coding
US9325991B2 (en) 2012-04-11 2016-04-26 Qualcomm Incorporated Motion vector rounding
US9338451B2 (en) 2012-04-12 2016-05-10 Qualcomm Incorporated Common spatial candidate blocks for parallel motion estimation
US20130336406A1 (en) 2012-06-14 2013-12-19 Qualcomm Incorporated Redundancy removal for merge/skip mode motion information candidate list construction
CN104125463A (zh) * 2013-04-26 2014-10-29 华为技术有限公司 一种图像预测编码方法及图像编码器
GB2519514A (en) 2013-10-11 2015-04-29 Canon Kk Method and apparatus for displacement vector component prediction in video coding and decoding
JP6355744B2 (ja) 2014-01-03 2018-07-11 マイクロソフト テクノロジー ライセンシング,エルエルシー ビデオ及び画像符号化/デコーディングにおけるブロックベクトル予測
CN105556971B (zh) 2014-03-04 2019-07-30 微软技术许可有限责任公司 针对帧内块复制预测中的块翻动和跳跃模式的编码器侧判定
KR102329126B1 (ko) * 2014-03-14 2021-11-19 삼성전자주식회사 인터 레이어 비디오의 복호화 및 부호화를 위한 머지 후보 리스트 구성 방법 및 장치
US10382749B2 (en) * 2014-05-23 2019-08-13 Qualcomm Incorporated Coding run values based on palette index in palette-based video coding
WO2016008161A1 (en) 2014-07-18 2016-01-21 Mediatek Singapore Pte. Ltd. Temporal derived bi-directional motion vector predictor
KR102276854B1 (ko) * 2014-07-31 2021-07-13 삼성전자주식회사 인루프 필터 파라미터 예측을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US9743110B2 (en) 2014-10-09 2017-08-22 Hfi Innovation Inc. Method of 3D or multi-view video coding including view synthesis prediction
WO2016090568A1 (en) 2014-12-10 2016-06-16 Mediatek Singapore Pte. Ltd. Binary tree block partitioning structure
US10070130B2 (en) 2015-01-30 2018-09-04 Qualcomm Incorporated Flexible partitioning of prediction units
CN104915966B (zh) 2015-05-08 2018-02-09 上海交通大学 基于卡尔曼滤波的帧率上变换运动估计方法及系统
US10356416B2 (en) 2015-06-09 2019-07-16 Qualcomm Incorporated Systems and methods of determining illumination compensation status for video coding
WO2017043734A1 (ko) 2015-09-07 2017-03-16 엘지전자(주) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20170058871A (ko) 2015-11-19 2017-05-29 한국전자통신연구원 화면내 예측 모드 부호화/복호화 방법 및 장치
US10560718B2 (en) 2016-05-13 2020-02-11 Qualcomm Incorporated Merge candidates for motion vector prediction for video coding
US10560712B2 (en) 2016-05-16 2020-02-11 Qualcomm Incorporated Affine motion prediction for video coding
US10419755B2 (en) 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
CN116614641A (zh) 2016-07-12 2023-08-18 韩国电子通信研究院 图像编码/解码方法和用于所述方法的记录介质
US10721489B2 (en) 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
US20180332312A1 (en) 2017-05-09 2018-11-15 Futurewei Technologies, Inc. Devices And Methods For Video Processing
US10523934B2 (en) 2017-05-31 2019-12-31 Mediatek Inc. Split based motion vector operation reduction
CN109089119B (zh) 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
US10911769B2 (en) 2017-06-23 2021-02-02 Qualcomm Incorporated Motion-based priority for the construction of candidate lists in video coding
US10757420B2 (en) 2017-06-23 2020-08-25 Qualcomm Incorporated Combination of inter-prediction and intra-prediction in video coding
US10687077B2 (en) * 2017-06-26 2020-06-16 Qualcomm Incorporated Motion information propagation in video coding
CN107295348A (zh) 2017-07-31 2017-10-24 南通海鑫信息科技有限公司 一种图像编码方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014007058A1 (ja) 2012-07-03 2014-01-09 シャープ株式会社 画像復号装置、および画像符号化装置
WO2018061522A1 (ja) 2016-09-27 2018-04-05 シャープ株式会社 動きベクトル生成装置、予測画像生成装置、動画像復号装置、および動画像符号化装置
JP2020523853A (ja) 2017-06-13 2020-08-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated 動きベクトル予測

Also Published As

Publication number Publication date
EP3791587A1 (en) 2021-03-17
US10778997B2 (en) 2020-09-15
TWI723443B (zh) 2021-04-01
KR102648120B1 (ko) 2024-03-18
KR20210024503A (ko) 2021-03-05
TW202015418A (zh) 2020-04-16
JP2021530182A (ja) 2021-11-04
CN110662063A (zh) 2020-01-07
CN110662063B (zh) 2020-12-15
US20200204820A1 (en) 2020-06-25
WO2020003266A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7295230B2 (ja) スライス/タイル/lcuの行ごとのルックアップテーブルのリセット
JP7295231B2 (ja) Lutとamvpの間の相互作用
JP7193629B2 (ja) 更新されるべき若しくは更新しない何れかのlut
JP7328330B2 (ja) Lutにおける動き候補のチェック順序
JP7256265B2 (ja) ルックアップテーブルの更新:fifo、制限されたfifo
JP7100200B2 (ja) マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング
CN111064961B (zh) 视频处理方法和装置
JP7275286B2 (ja) Lut更新の起動
WO2020003271A1 (en) Interaction between lut and merge: insert hmvp as a merge candidate, position of hmvp

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7295230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150