JP2022514885A - モードおよびサイズに依存したブロックレベル制限の方法および装置 - Google Patents
モードおよびサイズに依存したブロックレベル制限の方法および装置 Download PDFInfo
- Publication number
- JP2022514885A JP2022514885A JP2021535825A JP2021535825A JP2022514885A JP 2022514885 A JP2022514885 A JP 2022514885A JP 2021535825 A JP2021535825 A JP 2021535825A JP 2021535825 A JP2021535825 A JP 2021535825A JP 2022514885 A JP2022514885 A JP 2022514885A
- Authority
- JP
- Japan
- Prior art keywords
- block
- intra
- picture
- video
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
この特許出願は、2018年12月21日に出願された米国仮特許出願第62/784,345号の優先権を主張する。上述の特許出願の開示は、その全体が参照によりここに組み込まれる。
ブロックの複数のサンプルからの1つのサンプルについて、
DCイントラ予測モード、平面イントラ予測モード、および角度イントラ予測モードのうちの1つから選択されたイントラ予測モードを使用して、イントラ予測によって1つまたは複数の参照サンプル値から予測されたサンプル値を決定するステップと、
イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、第1の重みを決定するステップと、
イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、第2の重みを決定するステップと、
第1の重みを用いて上の参照サンプル値を、かつ第2の重みを用いて左の参照サンプル値を重み付けすることによって、上の参照サンプル値および左の参照サンプル値の重み付きの和として追加の値を計算するステップと、
予測されたサンプル値をサンプル重み付け係数によって乗算して、重み付きの予測されたサンプル値をもたらすステップと、
重み付きの予測されたサンプル値に追加の値を加算して、正規化されていない修正済みの予測されたサンプル値をもたらすステップと、
正規化されていない修正済みの予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない修正済みの予測されたサンプル値を正規化して、正規化された修正済みの予測されたサンプル値をもたらすステップとを備える、ピクチャのブロックをイントラ予測する方法を提供する。
第1の重みを決定することおよび第2の重みを決定することは、イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、スケーリング係数を決定することを備え、第1の重みおよび第2の重みは、それぞれ、スケーリング係数に基づいて決定される。
第1の重みを決定するステップは、ブロックの高さ、およびイントラ予測モードに基づいて、nScaleYと表記される垂直スケーリング係数を決定するステップを備え、第1の重みは、垂直スケーリング係数nScaleYに基づいて決定され、
第2の重みを決定するステップは、ブロックの幅、およびイントラ予測モードに基づいて、nScaleXと表記される水平スケーリング係数を決定するステップであって、第2の重みが、水平スケーリング係数nScaleXに基づいて決定される、ステップと、正規化されていない予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない予測されたサンプル値を正規化して、正規化された予測されたサンプル値をもたらすステップとを備える。
ここで、DC_IDXは、1のイントラ予測モードインデックスを有するDCモードを表し、HOR_IDXおよびVER_IDXは、それぞれ、18および50のイントラ予測モードインデックスを有する水平および垂直モードを表し、VDIA_IDXは、66のイントラ予測モードインデックスを有する対角モードを表す。
ここで、nTbWおよびnTbHは、それぞれ、予測ブロックの幅および高さを表記し、「>>」は右シフト演算を表記し、
ここで、Floorはフロア関数であり、Log2は、ある数の2を底とする自然対数を戻し、Minは、その引数の最小を戻し、「>>」は右シフト演算を表記する。
ここで、nTbWおよびnTbHは、それぞれ、予測ブロックの幅および高さを表記し、「>>」は右シフト演算を表記し、
ここで、Floorはフロア関数であり、Log2は、ある数の2を底とする自然対数を戻し、Minは、その引数の最小を戻し、「>>」は右シフト演算を表記し、
invAngleは、以下、すなわち、
ここで、intraPredAngleは、ルックアップテーブル(LUT)を使用して、変数predModeIntraによって与えられるイントラ予測モードから導出される角度パラメータである。
P(x,y)=Clip1Cmp((wL×R-1,y+wT×Rx,-1-wTL×R-1,-1+(64-wl-wT+wTL)×P(x,y)+32))>>6)
として算出することを備え、
ここで、
P(x,y)は、正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yは、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)は水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)は垂直重み付け係数であり、
Vは基本値であり、
xは各サンプルの水平座標であり、
yはサンプルの垂直座標であり、
ここで、clip1Cmpは、以下のように設定され、すなわち、
cIdxが0に等しい場合、clip1CmpがClip1Yに等しく設定され、
そうでない場合、clip1CmpがClip1Cに等しく設定され、
ここで、cIdxは、現在のブロックの色成分を指定する変数であり、
Clip1Y(x)=Clip3(0,(1<<BitDepthY) - 1, x)であり、
Clip1C(x)=Clip3(0,(1<<BitDepthC) - 1, x)であり、
ここで、BitDepthYはルーマサンプルのビット深度であり、
ここで、BitDepthCはルーマサンプルのビット深度である。
ここで、
P(x,y)は、正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yは、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)は水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)は垂直重み付け係数であり、
xは各サンプルの水平座標であり、
yはサンプルの垂直座標である。
サンプルの中で与えられるブロックの幅およびブロックの高さの和が、それぞれ、64サンプルよりも大きく、かつ
イントラ予測モードが斜行非対角であるか、またはイントラ予測モードが平面イントラ予測モードであるかのいずれかであるならば、
各サンプルは更新されない。
正規化された修正済みの予測されたサンプル値に残差値を加算して、再構成されたサンプル値をもたらすステップをさらに備える。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体と
を備えるデコーダをさらに提供し、プログラミングは、プロセッサによって実行されたとき、先行する任意の態様の先行する任意の実装または先行する任意の態様それ自体による方法を実行するようにデコーダを構成する。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体と
を備えるエンコーダをさらに提供し、プログラミングは、プロセッサによって実行されたとき、先行する任意の態様の先行する任意の実装または先行する任意の態様それ自体による方法を実行するようにエンコーダを構成する。
図2は、本出願の技法を実現するように構成される例示のビデオエンコーダ20の概略ブロック図を表す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構成ユニット214、ループフィルタユニット220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、モード選択ユニット260、エントロピーエンコードユニット270、および出力272(または出力インターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分ユニット262を含んでよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(表されていない)を含んでよい。図2に表されたようなビデオエンコーダ20は、ハイブリッドビデオエンコーダ、またはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれ得る。
エンコーダ20は、ピクチャ17(またはピクチャデータ17)、例えば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを、例えば、入力201を介して受信するように構成され得る。受信されるピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってよい。簡潔さの目的のために、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャ、または(同じビデオシーケンス、すなわち、やはり現在のピクチャを備えるビデオシーケンスの他のピクチャ、例えば、前にエンコードされ、かつ/またはデコードされたピクチャから現在のピクチャを区別するために、特にビデオコーディングにおいて)コーディングされるべきピクチャとも呼ばれ得る。
残差計算ユニット204は、例えば、サンプルごとに(ピクセルごとに)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を減算することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で提供される)に基づいて残差ブロック205(残差205とも呼ばれる)を計算して、サンプル領域における残差ブロック205を取得するように構成され得る。
変換処理ユニット206は、残差ブロック205のサンプル値において変換、例えば、離散コサイン変換(discrete cosine transform(DCT))または離散サイン変換(discrete sine transform(DST))を適用して、変換領域における変換係数207を取得するように構成され得る。変換係数207は、変換残差係数とも呼ばれ、変換領域における残差ブロック205を表現してよい。
量子化ユニット208は、例えば、スカラー量子化またはベクトル量子化を適用することによって、変換係数207を量子化して量子化された係数209を取得するように構成され得る。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれ得る。
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆を適用することによって、量子化された係数において量子化ユニット208の逆量子化を適用して逆量子化された係数211を取得するように構成される。逆量子化された係数211は、逆量子化された残差係数211とも呼ばれ、量子化による損失に起因して典型的には変換係数と同一でないが、変換係数207に対応し得る。
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)、または他の逆変換を適用して、サンプル領域における再構成された残差ブロック213(または、対応する逆量子化された係数213)を取得するように構成される。再構成された残差ブロック213は、変換ブロック213とも呼ばれ得る。
再構成ユニット214(例えば、加算器または合算器214)は、例えば、再構成された残差ブロック213のサンプル値と予測ブロック265のサンプル値を、サンプルごとに、加算することによって、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック265に加算してサンプル領域における再構成されたブロック215を取得するように構成される。
ループフィルタユニット220(または、短縮して「ループフィルタ」220)は、再構成されたブロック215をフィルタ処理してフィルタ処理されたブロック221を取得するように、または一般に、再構成されたサンプルをフィルタ処理してフィルタ処理されたサンプルを取得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を平滑化し、またはそうでなくビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(Sample-Adaptive Offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(Adaptive Loop Filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット220はループ内フィルタであるとして図2に表されているが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実現されてよい。フィルタ処理されたブロック221は、フィルタ処理された再構成されたブロック221とも呼ばれ得る。
デコードされたピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータをエンコードするための、参照ピクチャまたは一般に参照ピクチャデータを記憶するメモリであってよい。DPB 230は、同期DRAM(synchronous DRAM(SDRAM))を含むダイナミックランダムアクセスメモリ(dynamic random access memory(DRAM))、磁気抵抗RAM(magnetoresistive RAM(MRAM))、抵抗性RAM(resistive RAM(RRAM(登録商標)))、または他のタイプのメモリデバイスのような、様々なメモリデバイスのうちのいずれかによって形成され得る。デコードされたピクチャバッファ(DPB)230は、1つまたは複数のフィルタ処理されたブロック221を記憶するように構成され得る。デコードされたピクチャバッファ230は、以前にフィルタ処理された他のブロック、例えば、同じ現在のピクチャの、または異なるピクチャの、以前に再構成され、フィルタ処理されたブロック221、例えば、以前に再構成されたピクチャを記憶するようにさらに構成されてよく、例えば、インター予測のために、以前に再構成され、すなわちデコードされた完全なピクチャ(および、対応する参照ブロックおよびサンプル)、および/または部分的に再構成された現在のピクチャ(および、対応する参照ブロックおよびサンプル)を提供し得る。例えば、再構成されたブロック215が、ループフィルタユニット220によってフィルタ処理されていない、または再構成されたブロックまたはサンプルのさらに処理された任意の他のバージョンであるならば、デコードされたピクチャバッファ(DPB)230はまた、1つまたは複数のフィルタ処理されていない再構成されたブロック215、または一般に、フィルタ処理されていない再構成されたサンプルを記憶するように構成されてもよい。
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイントラ予測ユニット254を備え、元のピクチャデータ、例えば、元のブロック203(現在のピクチャ17の現在のブロック203)、および同じ(現在の)ピクチャの、かつ/または1つまたは複数の以前にデコードされたピクチャからの、例えば、デコードされたピクチャバッファ230または他のバッファ(例えば、表されていないラインバッファ)からの、再構成されたピクチャデータ、例えば、フィルタ処理された、および/またはフィルタ処理されていない再構成されたサンプルまたはブロックを受信または取得するように構成される。再構成されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、例えば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
区分ユニット262は、現在のブロック203をより小さい区分、例えば、正方形または長方形のサイズのより小さいブロックに、区分(または分割)し得る。これらのより小さいブロック(サブブロックとも呼ばれ得る)は、いっそう小さい区分にさらに区分され得る。これは、ツリー区分または階層的ツリー区分とも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深度0)におけるルートブロックは、再帰的に区分され、例えば、次に低いツリーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードに区分されてよく、これらのブロックは再び、例えば、終了基準が充足され、例えば、最大ツリー深度または最小ブロックサイズが到達されたので区分が終了されるまで、次に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2つ以上のブロックに区分されてよい。さらに区分されないブロックは、ツリーのリーフブロックまたはリーフノードとも呼ばれる。2つの区分への区分を使用するツリーは2分木(Binary-Tree(BT))と呼ばれ、3つの区分への区分を使用するツリーは3分木(Ternary-Tree(TT))と呼ばれ、4つの区分への区分を使用するツリーは4分木(Quad-Tree(QT))と呼ばれる。
イントラ予測モードのセットは、例えば、HEVCにおいて定義されるように、35個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよく、または、例えば、VVCについて定義されるように、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよい。
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DBP 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
エントロピーエンコードユニット270は、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素において、例えば、エントロピーエンコードアルゴリズムまたは方式(例えば、可変長コーディング(variable length coding(VLC))方式、コンテキスト適応VLC方式(context adaptive VLC scheme(CAVLC))、算術コーディング方式、2値化、コンテキスト適応バイナリ算術コーディング(context adaptive binary arithmetic coding(CABAC))、シンタックスベースのコンテキスト適応バイナリ算術コーディング(syntax-based context-adaptive binary arithmetic coding(SBAC))、確率区間区分エントロピー(probability interval partitioning entropy(PIPE))コーディング、または別のエントロピーエンコード方法論または技法)、またはバイパス(圧縮なし)を適用して、例えば、エンコードされたビットストリーム21の形式で、出力272を介して出力されることが可能であるエンコードされたピクチャデータ21を取得するように構成され、それによって、例えば、ビデオデコーダ30は、デコードのためにパラメータを受信および使用し得る。エンコードされたビットストリーム21は、ビデオデコーダ30へ伝送され、またはビデオデコーダ30による後の伝送または取り出しのためにメモリに記憶され得る。
図3は、この本出願の技法を実現するように構成されるビデオデコーダ30の一例を表す。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされた、エンコードされたピクチャデータ21(例えば、エンコードされたビットストリーム21)を受信して、デコードされたピクチャ331を取得するように構成される。エンコードされたピクチャデータまたはビットストリームは、エンコードされたピクチャデータをデコードするための情報、例えば、エンコードされたビデオスライスのピクチャブロックを表現するデータ、および関連付けられたシンタックス要素を備える。
エントロピーデコードユニット304は、ビットストリーム21(または一般にエンコードされたピクチャデータ21)を構文解析し、例えば、エンコードされたピクチャデータ21へのエントロピーデコードを実行して、例えば、量子化された係数309および/またはデコードされたコーディングパラメータ(図3に表されていない)、例えば、インター予測パラメータ(例えば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素のうちのいずれかまたは全てを取得するように構成される。エントロピーデコードユニット304は、エンコーダ20のエントロピーエンコードユニット270に関して説明されたようなエンコード方式に対応するデコードアルゴリズムまたは方式を適用するように構成され得る。エントロピーデコードユニット304は、モード選択ユニット360にインター予測パラメータ、イントラ予測パラメータ、および/または他のシンタックス要素を、デコーダ30の他のユニットに他のパラメータを提供するようにさらに構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。
逆量子化ユニット310は、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から量子化パラメータ(quantization parameter(QP))(または一般に逆量子化に関する情報)および量子化された係数を受信し、量子化パラメータに基づいて、デコードされた量子化された係数309において逆量子化を適用して、変換係数311とも呼ばれ得る逆量子化された係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライスの中のビデオブロックごとにビデオエンコーダ20によって決定された量子化パラメータの使用を含んでよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる逆量子化された係数311を受信し、サンプル領域において再構成された残差ブロック213を取得するために逆量子化された係数311に変換を適用するように構成され得る。再構成された残差ブロック213は、変換ブロック313とも呼ばれ得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または概念的に類似の逆変換プロセスであってよい。逆変換処理ユニット312は、逆量子化された係数311に適用されるべき変換を決定するために、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から変換パラメータまたは対応する情報を受信するようにさらに構成され得る。
再構成ユニット314(例えば、加算器または合算器314)は、例えば、再構成された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、予測ブロック365に再構成された残差ブロック313を加算して、サンプル領域において再構成されたブロック315を取得するように構成され得る。
(コーディングループ内またはコーディングループの後のいずれかの)ループフィルタユニット320は、例えば、ピクセル遷移を平滑化し、またはビデオ品質をそうでなく改善するために、再構成されたブロック315をフィルタ処理してフィルタ処理されたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(adaptive loop filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット320はループ内フィルタであるとして図3に表されているが、他の構成では、ループフィルタユニット320はポストループフィルタとして実現されてもよい。
ピクチャのデコードされたビデオブロック321は、次いで、他のピクチャについての後続の動き補償のために、かつ/または出力されるそれぞれ表示のために、参照ピクチャとしてデコードされたピクチャ331を記憶するデコードされたピクチャバッファ330に記憶される。
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってよく、イントラ予測ユニット354は、機能においてインター予測ユニット254と同一であってよく、区分および/または予測パラメータ、またはエンコードされたピクチャデータ21から(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)受信されたそれぞれの情報に基づいて、分割または区分決定および予測を実行する。モード選択ユニット360は、(フィルタ処理された、またはフィルタ処理されていない)再構成されたピクチャ、ブロック、またはそれぞれのサンプルに基づいて、ブロックごとに予測(イントラまたはインター予測)を実行して、予測ブロック365を取得するように構成され得る。
ux = ( mvx + 2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (2)
uy = ( mvy + 2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (4)
ここで、mvxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、mvyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、uxおよびuyは中間値を示す。
ux = ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (6)
uy = ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (8)
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
ここで、vxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、vyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、x、y、およびzは、MVクリッピングプロセスの3つの入力値に対応し、関数Clip3の定義は以下の通りである。
P(x,y)=Clip1Cmp((wL×R-1,y+wT×Rx,-1-wTL×R-1,-1+(64-wl-wT+wTL)×P(x,y)+32))>>6) (1)
ここで、Rx,-1、R-1,yは、現在のサンプル(x,y)の上および左において位置する参照サンプルを表現し、R-1,-1は、現在のブロックの左上コーナーに位置する参照サンプルを表現し、関数clip1Cmpは以下のように設定される。
- cIdxが0に等しいならば、clip1CmpはClip1Yに等しく設定される。
- そうでないならば、clip1CmpはClip1Cに等しく設定される。
Clip1Y(x)=Clip3(0,(1<<BitDepthY)-1,x)
Clip1C(x)=Clip3(0,(1<<BitDepthC)-1,x)
BitDepthCはルーマサンプルのビット深度である。
BitDepthYおよびBitDepthCは、ビットストリームのシーケンスパラメータセット(sequence parameter set(SPS))内でシグナリングされることが可能である。
ここで、minCは、成分ID Cについて現在のスライス内で使用される低い方のクリッピング限度であり、
maxCは、成分ID Cについて現在のスライス内で使用される高い方のクリッピング限度であり、
Cは、色成分(たとえば、ルーマについてY、クロマについてCbおよびCr)であり、
「x>>y」は、xの2の補数整数表現の、2進数のy桁だけの算術右シフトである。この関数は、yの非負の整数値のみについて定義される。右シフトの結果として最上位ビット(MSB)にシフトされるビットは、そのシフト演算の前のxのMSBに等しい値を有する。
wT=32>>((y<<1)>>shift)
wL=32>>((x<<1)>>shift)
wTL=-(wL>>4)-(wT>>4)
ここで、shift=(log2(width)+log2(height)+2)>>2である。
x=x'+y'+1
によって与えられ、参照サンプルR-1,yの座標yは、同様に
y=x'+y'+1
によって与えられる。
wT=16>>((y'<<1)>>shift)
wL=16>>((x'<<1)>>shift)
wTL=0
である。
x=x'+y'+1
によって与えられ、参照サンプルR-1,yの座標yは、
y=x'+y'+1
である。
wT=16>>((y'<<1)>>shift)
wL=16>>((x'<<1)>>shift)
wTL=0
である。
wT=32>>((y'<<1)>>shift)
wL=0
wTL=0
である。
wL=32>>((x'<<1)>>shift)
wT=0
wTL=0
である。
Round(x)=Sign(x)*Floor(Abs(x)+0.5)
Log2(x)は、2を底とするxの対数である。
intraPredAngleは、Table 6(表11)の中で指定される角度パラメータであり、
A=C ? B : Dは、3元割当て演算であり、ここで、条件Cが真であるならば、AはBに等しく設定される。
そうでなく、条件Cが偽であるならば、AはDに等しく設定される。
INTRA_PLANARは、平面イントラ予測モード()であり、
INTRA_DCは、DCイントラ予測モードであり、
INTRA_ANGULARXXは、方向性イントラ予測モードのうちの1つであり、ここで、XXは、図8に表されたその数および対応する方向を表記する。
- イントラ予測モードpredModeIntra、
- 変換ブロック幅を指定する変数nTbW、
- 変換ブロック高さを指定する変数nTbH、
- 参照サンプル幅を指定する変数refW、
- 参照サンプル高さを指定する変数refH、
- 予測されたサンプルpredSamples[x][y]、ここでx=0..nTbW-1、y=0..nTbH-1、
- 隣接サンプルp[x][y]、ここでx=-1、y=-1..refH-1、およびx=0..refW-1、y=-1、
- 現在のブロックの色成分を指定する変数cIdx
である。
- cIdxが0に等しいならば、clip1CmpはClip1Yに等しく設定される。
- そうでないならば、clip1CmpはClip1Cに等しく設定される。
mainRef[x]=p[x][-1]
sideRef[y]=p[-1][y]
- predModeIntraがINTRA_PLANAR、INTRA_DC、INTRA_ANGULAR18、またはINTRA_ANGULAR50に等しいならば、以下が適用される。
refL[x][y]=p[-1][y]
refT[x][y]=p[x][-1]
wT[y]=32>>((y<<1)>>nScale)
wL[x]=32>>((x<<1)>>nScale)
wTL[x][y]=(predModeIntra==INTRA_DC) ? ((wL[x]>>4)+(wT[y]>>4)) : 0
- そうでなく、predModeIntraがINTRA_ANGULAR2またはINTRA_ANGULAR66に等しいならば、以下が適用される。
refL[x][y]=p[-1][x+y+1]
refT[x][y]=p[x+y+1][-1]
wT[y]=(32>>1)>>((y<<1)>>nScale)
wL[x]=(32>>1)>>((x<<1)>>nScale)
wTL[x][y]=0
- そうでなく、predModeIntraがINTRA_ANGULAR10以下であるならば、以下の順序付けされたステップが適用される。
1.変数dXPos[y]、dXFrac[y]、dXInt[y]、およびdX[x][y]は、invAngleを使用して以下のように導出される。
dXPos[y]=((y+1)*invAngle+2)>>2
dXFrac[y]=dXPos[y]&63
dXInt[y]=dXPos[y]>>6
dX[x][y]=x+dXInt[y]
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、以下のように導出される。
refL[x][y]=0
refT[x][y]=(dX[x][y]<refW-1) ? ((64-dXFrac[y])*mainRef[dX[x][y]]+
dXFrac[y]*mainRef[dX[x][y]+1]+32)>>6 : 0 (式1)
wT[y]=(dX[x][y]<refW-1) ? 32>>((y<<1)>>nScale) : 0
wL[x]=0
wTL[x][y]=0
- そうでなく、predModeIntraがINTRA_ANGULAR58(図8を見られたい)以上であるならば、以下の順序付けされたステップが適用される。
1.変数dYPos[x]、dYFrac[x]、dYInt[x]、およびdY[x][y]は、intraPredModeに依存して、以下において指定されるようにinvAngleを使用して以下のように導出される。
dYPos[x]=((x+1)*invAngle+2)>>2
dYFrac[x]=dYPos[x]&63
dYInt[x]=dYPos[x]>>6
dY[x][y]=y+dYInt[x]
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、以下のように導出される。
refL[x][y]=(dY[x][y]<refH-1) ? ((64-dYFrac[x])*sideRef[dY[x][y]]+
+ dYFrac[x]*sideRef[dY[x][y]+1]+32)>>6 : 0 (式2)
refT[x][y]=0
wT[y]=0
wL[x]=(dY[x][y]< refH-1) ? 32>>((x<<1)>>nScale) : 0
wTL[x][y]=0
- そうでないならば、refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]はすべて、0に等しく設定される。
predSamples[x][y]=clip1Cmp((refL[x][y]*wL[x]+refT[x][y]*wT[y]-
p[-1][-1]*wTL[x][y]+(64-wL[x]-wT[y]+wTL[x][y])*predSamples[x][y]+32)>>6)
refT[x][y]=(dX[x][y]<refW-1) ? mainRef[dX[x][y]] : 0
refL[x][y]=(dY[x][y]<refH-1) ? sideRef[dY[x][y]] : 0
(図7および図8に表されたpredModeIntraとしてさらに表記される)方向性イントラ予測モード、
(log2(nTbW)+Log2(nTbH))>>1に等しく設定されるブロックサイズパラメータnTbS、ここで、nTbWおよびnTbHは、それぞれ、予測されたブロックの幅および高さを表記し、「>>」は右シフト演算を表記する。
wT[y]=V>>((y<<1)>>nScaleY)
wL[x]=V>>((x<<1)>>nScaleX)
- ブロックの幅およびブロックの高さの和が、64サンプルよりも大きく、かつintraPredModeが斜行非対角であるか、またはそれがPLANAR_IDXに等しいかのいずれかである。
- predModeIntra予測モード値に基づいてintraPredAngleパラメータの値を導出し、
- intraPredAngleパラメータに基づいて逆角度の値(invAngle)を導出し、
- ブロックのサイズおよびinvAngle値に基づいてnScale係数の値を取得する。
DCイントラ予測モード、平面イントラ予測モード、および角度イントラ予測モードのうちの1つを使用して、イントラ予測によって1つまたは複数の参照サンプル値から予測されたサンプル値を決定するステップと、
予測されたサンプル値をサンプル重み付け係数によって乗算して、重み付きの予測されたサンプル値をもたらすステップと、
ブロックの高さ、およびイントラ予測モードに基づいて、垂直スケーリング係数(nScaleY)を決定するステップと、
ブロックの幅、およびイントラ予測モードに基づいて、水平スケーリング係数(nScaleX)を決定するステップと、
垂直スケーリング係数(nScaleY)に基づいて、第1の重みを決定するステップと、
水平スケーリング係数(nScaleX)に基づいて、第2の重みを決定するステップと、
第1の重みを用いて上の参照サンプル値を、かつ第2の重みを用いて左の参照サンプル値を重み付けすることによって、上の参照サンプル値および左の参照サンプル値の重み付きの和として追加の値を計算するステップと、
重み付きの予測されたサンプル値に追加の値を加算して、正規化されていない予測されたサンプル値をもたらすステップと、
正規化されていない予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない予測されたサンプル値を正規化して、正規化された予測されたサンプル値をもたらすステップとを備える、ピクチャのブロックをイントラ予測する方法の第1の態様。
ここで、
P(x,y)が、正規化されていない予測されたサンプル値であり、
Rx,-1、R-1,yが、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)が水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)が垂直重み付け係数であり、
xがサンプルの水平座標であり、
yがサンプルの垂直座標である、第1または第2の態様による方法の第3の態様。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、プログラミングが、プロセッサによって実行されたとき、第1から第4の態様のうちのいずれか1つによる方法を実行するようにデコーダを構成する、デコーダの第8の態様。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、プログラミングが、プロセッサによって実行されたとき、第1から第4の態様のうちのいずれか1つによる方法を実行するようにエンコーダを構成する、エンコーダの第9の態様。
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャデータ
18 プリプロセッサ
19 前処理されたピクチャデータ
20 エンコーダ
21 エンコードされたピクチャデータ
22 通信インターフェース
28 通信インターフェース
30 デコーダ
31 デコードされたピクチャデータ
32 ポストプロセッサ
33 後処理されたピクチャデータ
34 ディスプレイデバイス
46 処理回路
201 入力
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数
210 逆量子化ユニット
211 逆量子化係数、逆量子化残差係数
212 逆変換処理ユニット
213 再構成された残差ブロック
214 再構成ユニット
215 再構成されたブロック
220 ループフィルタ
221 フィルタ処理されたブロック
230 デコードされたピクチャバッファ
231 デコードされたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック
266 シンタックス要素
270 エントロピーエンコードユニット
272 出力
304 エントロピーデコードユニット
309 量子化された係数
310 逆量子化ユニット
311 逆量子化された係数
312 逆変換処理ユニット
313 再構成された残差ブロック
314 再構成ユニット
315 再構成されたブロック
320 ループフィルタ
321 フィルタ処理されたブロック
330 デコードされたピクチャバッファ
331 デコードされたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット
360 モード選択ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート
420 受信機ユニット
430 プロセッサ
440 送信機ユニット
450 出口ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 2次記憶
518 ディスプレイ
ブロックの複数のサンプルからの1つのサンプルについて、
DCイントラ予測モード、平面イントラ予測モード、および角度イントラ予測モードのうちの1つから選択されたイントラ予測モードを使用して、イントラ予測によって1つまたは複数の参照サンプル値から予測されたサンプル値を決定するステップと、
イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、第1の重みを決定するステップと、
イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、第2の重みを決定するステップと、
第1の重みを用いて上の参照サンプル値を、かつ第2の重みを用いて左の参照サンプル値を重み付けすることによって、上の参照サンプル値および左の参照サンプル値の重み付きの和として追加の値を計算するステップと、
予測されたサンプル値をサンプル重み付け係数によって乗算して、重み付きの予測されたサンプル値をもたらすステップと、
重み付きの予測されたサンプル値に追加の値を加算して、正規化されていない修正済みの予測されたサンプル値をもたらすステップと、
正規化されていない修正済みの予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない修正済みの予測されたサンプル値を正規化して、正規化された修正済みの予測されたサンプル値をもたらすステップとを備える、ピクチャのブロックをイントラ予測する方法を提供する。
第1の重みを決定することおよび第2の重みを決定することは、イントラ予測モードと、ブロックの高さ、ブロックの幅、または両方のうちの1つとに基づいて、スケーリング係数を決定することを備え、第1の重みおよび第2の重みは、それぞれ、スケーリング係数に基づいて決定される。
第1の重みを決定するステップは、ブロックの高さ、およびイントラ予測モードに基づいて、nScaleYと表記される垂直スケーリング係数を決定するステップを備え、第1の重みは、垂直スケーリング係数nScaleYに基づいて決定され、
第2の重みを決定するステップは、ブロックの幅、およびイントラ予測モードに基づいて、nScaleXと表記される水平スケーリング係数を決定するステップであって、第2の重みが、水平スケーリング係数nScaleXに基づいて決定される、ステップと、正規化されていない予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない予測されたサンプル値を正規化して、正規化された予測されたサンプル値をもたらすステップとを備える。
ここで、DC_IDXは、1のイントラ予測モードインデックスを有するDCモードを表し、HOR_IDXおよびVER_IDXは、それぞれ、18および50のイントラ予測モードインデックスを有する水平および垂直モードを表し、VDIA_IDXは、66のイントラ予測モードインデックスを有する対角モードを表す。
ここで、nTbWおよびnTbHは、それぞれ、予測ブロックの幅および高さを表記し、「>>」は右シフト演算を表記し、
ここで、Floorはフロア関数であり、Log2は、ある数の2を底とする自然対数を戻し、Minは、その引数の最小を戻し、「>>」は右シフト演算を表記する。
ここで、nTbWおよびnTbHは、それぞれ、予測ブロックの幅および高さを表記し、「>>」は右シフト演算を表記し、
ここで、Floorはフロア関数であり、Log2は、ある数の2を底とする自然対数を戻し、Minは、その引数の最小を戻し、「>>」は右シフト演算を表記し、
invAngleは、以下、すなわち、
ここで、intraPredAngleは、ルックアップテーブル(LUT)を使用して、変数predModeIntraによって与えられるイントラ予測モードから導出される角度パラメータである。
P(x,y)=Clip1Cmp((wL×R-1,y+wT×Rx,-1-wTL×R-1,-1+(64-wl-wT+wTL)×P(x,y)+32))>>6)
として算出することを備え、
ここで、
P(x,y)は、正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yは、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)は水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)は垂直重み付け係数であり、
Vは基本値であり、
xは各サンプルの水平座標であり、
yはサンプルの垂直座標であり、
ここで、clip1Cmpは、以下のように設定され、すなわち、
cIdxが0に等しい場合、clip1CmpがClip1Yに等しく設定され、
そうでない場合、clip1CmpがClip1Cに等しく設定され、
ここで、cIdxは、現在のブロックの色成分を指定する変数であり、
Clip1Y(x)=Clip3(0,(1<<BitDepthY) - 1, x)であり、
Clip1C(x)=Clip3(0,(1<<BitDepthC) - 1, x)であり、
ここで、BitDepthYはルーマサンプルのビット深度であり、
ここで、BitDepthCはルーマサンプルのビット深度である。
ここで、
P(x,y)は、正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yは、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)は水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)は垂直重み付け係数であり、
xは各サンプルの水平座標であり、
yはサンプルの垂直座標である。
サンプルの中で与えられるブロックの幅およびブロックの高さの和が、それぞれ、64サンプルよりも大きく、かつ
イントラ予測モードが斜行非対角であるか、またはイントラ予測モードが平面イントラ予測モードであるかのいずれかであるならば、
各サンプルは更新されない。
正規化された修正済みの予測されたサンプル値に残差値を加算して、再構成されたサンプル値をもたらすステップをさらに備える。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体と
を備えるデコーダをさらに提供し、プログラミングは、プロセッサによって実行されたとき、先行する任意の態様の先行する任意の実装または先行する任意の態様それ自体による方法を実行するようにデコーダを構成する。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体と
を備えるエンコーダをさらに提供し、プログラミングは、プロセッサによって実行されたとき、先行する任意の態様の先行する任意の実装または先行する任意の態様それ自体による方法を実行するようにエンコーダを構成する。
図2は、本出願の技法を実現するように構成される例示のビデオエンコーダ20の概略ブロック図を表す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構成ユニット214、ループフィルタユニット220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、モード選択ユニット260、エントロピーエンコードユニット270、および出力272(または出力インターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分ユニット262を含んでよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(表されていない)を含んでよい。図2に表されたようなビデオエンコーダ20は、ハイブリッドビデオエンコーダ、またはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれ得る。
エンコーダ20は、ピクチャ17(またはピクチャデータ17)、例えば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを、例えば、入力201を介して受信するように構成され得る。受信されるピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってよい。簡潔さの目的のために、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャ、または(同じビデオシーケンス、すなわち、やはり現在のピクチャを備えるビデオシーケンスの他のピクチャ、例えば、前にエンコードされ、かつ/またはデコードされたピクチャから現在のピクチャを区別するために、特にビデオコーディングにおいて)コーディングされるべきピクチャとも呼ばれ得る。
残差計算ユニット204は、例えば、サンプルごとに(ピクセルごとに)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を減算することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で提供される)に基づいて残差ブロック205(残差205とも呼ばれる)を計算して、サンプル領域における残差ブロック205を取得するように構成され得る。
変換処理ユニット206は、残差ブロック205のサンプル値において変換、例えば、離散コサイン変換(discrete cosine transform(DCT))または離散サイン変換(discrete sine transform(DST))を適用して、変換領域における変換係数207を取得するように構成され得る。変換係数207は、変換残差係数とも呼ばれ、変換領域における残差ブロック205を表現してよい。
量子化ユニット208は、例えば、スカラー量子化またはベクトル量子化を適用することによって、変換係数207を量子化して量子化された係数209を取得するように構成され得る。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれ得る。
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆を適用することによって、量子化された係数において量子化ユニット208の逆量子化を適用して逆量子化された係数211を取得するように構成される。逆量子化された係数211は、逆量子化された残差係数211とも呼ばれ、量子化による損失に起因して典型的には変換係数と同一でないが、変換係数207に対応し得る。
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)、または他の逆変換を適用して、サンプル領域における再構成された残差ブロック213(または、対応する逆量子化された係数213)を取得するように構成される。再構成された残差ブロック213は、変換ブロック213とも呼ばれ得る。
再構成ユニット214(例えば、加算器または合算器214)は、例えば、再構成された残差ブロック213のサンプル値と予測ブロック265のサンプル値を、サンプルごとに、加算することによって、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック265に加算してサンプル領域における再構成されたブロック215を取得するように構成される。
ループフィルタユニット220(または、短縮して「ループフィルタ」220)は、再構成されたブロック215をフィルタ処理してフィルタ処理されたブロック221を取得するように、または一般に、再構成されたサンプルをフィルタ処理してフィルタ処理されたサンプルを取得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を平滑化し、またはそうでなくビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(Sample-Adaptive Offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(Adaptive Loop Filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット220はループ内フィルタであるとして図2に表されているが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実現されてよい。フィルタ処理されたブロック221は、フィルタ処理された再構成されたブロック221とも呼ばれ得る。
デコードされたピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータをエンコードするための、参照ピクチャまたは一般に参照ピクチャデータを記憶するメモリであってよい。DPB 230は、同期DRAM(synchronous DRAM(SDRAM))を含むダイナミックランダムアクセスメモリ(dynamic random access memory(DRAM))、磁気抵抗RAM(magnetoresistive RAM(MRAM))、抵抗性RAM(resistive RAM(RRAM(登録商標)))、または他のタイプのメモリデバイスのような、様々なメモリデバイスのうちのいずれかによって形成され得る。デコードされたピクチャバッファ(DPB)230は、1つまたは複数のフィルタ処理されたブロック221を記憶するように構成され得る。デコードされたピクチャバッファ230は、以前にフィルタ処理された他のブロック、例えば、同じ現在のピクチャの、または異なるピクチャの、以前に再構成され、フィルタ処理されたブロック221、例えば、以前に再構成されたピクチャを記憶するようにさらに構成されてよく、例えば、インター予測のために、以前に再構成され、すなわちデコードされた完全なピクチャ(および、対応する参照ブロックおよびサンプル)、および/または部分的に再構成された現在のピクチャ(および、対応する参照ブロックおよびサンプル)を提供し得る。例えば、再構成されたブロック215が、ループフィルタユニット220によってフィルタ処理されていない、または再構成されたブロックまたはサンプルのさらに処理された任意の他のバージョンであるならば、デコードされたピクチャバッファ(DPB)230はまた、1つまたは複数のフィルタ処理されていない再構成されたブロック215、または一般に、フィルタ処理されていない再構成されたサンプルを記憶するように構成されてもよい。
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイントラ予測ユニット254を備え、元のピクチャデータ、例えば、元のブロック203(現在のピクチャ17の現在のブロック203)、および同じ(現在の)ピクチャの、かつ/または1つまたは複数の以前にデコードされたピクチャからの、例えば、デコードされたピクチャバッファ230または他のバッファ(例えば、表されていないラインバッファ)からの、再構成されたピクチャデータ、例えば、フィルタ処理された、および/またはフィルタ処理されていない再構成されたサンプルまたはブロックを受信または取得するように構成される。再構成されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、例えば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
区分ユニット262は、現在のブロック203をより小さい区分、例えば、正方形または長方形のサイズのより小さいブロックに、区分(または分割)し得る。これらのより小さいブロック(サブブロックとも呼ばれ得る)は、いっそう小さい区分にさらに区分され得る。これは、ツリー区分または階層的ツリー区分とも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深度0)におけるルートブロックは、再帰的に区分され、例えば、次に低いツリーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードに区分されてよく、これらのブロックは再び、例えば、終了基準が充足され、例えば、最大ツリー深度または最小ブロックサイズが到達されたので区分が終了されるまで、次に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2つ以上のブロックに区分されてよい。さらに区分されないブロックは、ツリーのリーフブロックまたはリーフノードとも呼ばれる。2つの区分への区分を使用するツリーは2分木(Binary-Tree(BT))と呼ばれ、3つの区分への区分を使用するツリーは3分木(Ternary-Tree(TT))と呼ばれ、4つの区分への区分を使用するツリーは4分木(Quad-Tree(QT))と呼ばれる。
イントラ予測モードのセットは、例えば、HEVCにおいて定義されるように、35個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよく、または、例えば、VVCについて定義されるように、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよい。
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DBP 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
エントロピーエンコードユニット270は、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素において、例えば、エントロピーエンコードアルゴリズムまたは方式(例えば、可変長コーディング(variable length coding(VLC))方式、コンテキスト適応VLC方式(context adaptive VLC scheme(CAVLC))、算術コーディング方式、2値化、コンテキスト適応バイナリ算術コーディング(context adaptive binary arithmetic coding(CABAC))、シンタックスベースのコンテキスト適応バイナリ算術コーディング(syntax-based context-adaptive binary arithmetic coding(SBAC))、確率区間区分エントロピー(probability interval partitioning entropy(PIPE))コーディング、または別のエントロピーエンコード方法論または技法)、またはバイパス(圧縮なし)を適用して、例えば、エンコードされたビットストリーム21の形式で、出力272を介して出力されることが可能であるエンコードされたピクチャデータ21を取得するように構成され、それによって、例えば、ビデオデコーダ30は、デコードのためにパラメータを受信および使用し得る。エンコードされたビットストリーム21は、ビデオデコーダ30へ伝送され、またはビデオデコーダ30による後の伝送または取り出しのためにメモリに記憶され得る。
図3は、この本出願の技法を実現するように構成されるビデオデコーダ30の一例を表す。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされた、エンコードされたピクチャデータ21(例えば、エンコードされたビットストリーム21)を受信して、デコードされたピクチャ331を取得するように構成される。エンコードされたピクチャデータまたはビットストリームは、エンコードされたピクチャデータをデコードするための情報、例えば、エンコードされたビデオスライスのピクチャブロックを表現するデータ、および関連付けられたシンタックス要素を備える。
エントロピーデコードユニット304は、ビットストリーム21(または一般にエンコードされたピクチャデータ21)を構文解析し、例えば、エンコードされたピクチャデータ21へのエントロピーデコードを実行して、例えば、量子化された係数309および/またはデコードされたコーディングパラメータ(図3に表されていない)、例えば、インター予測パラメータ(例えば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素のうちのいずれかまたは全てを取得するように構成される。エントロピーデコードユニット304は、エンコーダ20のエントロピーエンコードユニット270に関して説明されたようなエンコード方式に対応するデコードアルゴリズムまたは方式を適用するように構成され得る。エントロピーデコードユニット304は、モード選択ユニット360にインター予測パラメータ、イントラ予測パラメータ、および/または他のシンタックス要素を、デコーダ30の他のユニットに他のパラメータを提供するようにさらに構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。
逆量子化ユニット310は、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から量子化パラメータ(quantization parameter(QP))(または一般に逆量子化に関する情報)および量子化された係数を受信し、量子化パラメータに基づいて、デコードされた量子化された係数309において逆量子化を適用して、変換係数311とも呼ばれ得る逆量子化された係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライスの中のビデオブロックごとにビデオエンコーダ20によって決定された量子化パラメータの使用を含んでよい。
逆変換処理ユニット312は、変換係数311とも呼ばれる逆量子化された係数311を受信し、サンプル領域において再構成された残差ブロック213を取得するために逆量子化された係数311に変換を適用するように構成され得る。再構成された残差ブロック213は、変換ブロック313とも呼ばれ得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または概念的に類似の逆変換プロセスであってよい。逆変換処理ユニット312は、逆量子化された係数311に適用されるべき変換を決定するために、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から変換パラメータまたは対応する情報を受信するようにさらに構成され得る。
再構成ユニット314(例えば、加算器または合算器314)は、例えば、再構成された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、予測ブロック365に再構成された残差ブロック313を加算して、サンプル領域において再構成されたブロック315を取得するように構成され得る。
(コーディングループ内またはコーディングループの後のいずれかの)ループフィルタユニット320は、例えば、ピクセル遷移を平滑化し、またはビデオ品質をそうでなく改善するために、再構成されたブロック315をフィルタ処理してフィルタ処理されたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(adaptive loop filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット320はループ内フィルタであるとして図3に表されているが、他の構成では、ループフィルタユニット320はポストループフィルタとして実現されてもよい。
ピクチャのデコードされたビデオブロック321は、次いで、他のピクチャについての後続の動き補償のために、かつ/または出力されるそれぞれ表示のために、参照ピクチャとしてデコードされたピクチャ331を記憶するデコードされたピクチャバッファ330に記憶される。
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってよく、イントラ予測ユニット354は、機能においてインター予測ユニット254と同一であってよく、区分および/または予測パラメータ、またはエンコードされたピクチャデータ21から(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)受信されたそれぞれの情報に基づいて、分割または区分決定および予測を実行する。モード選択ユニット360は、(フィルタ処理された、またはフィルタ処理されていない)再構成されたピクチャ、ブロック、またはそれぞれのサンプルに基づいて、ブロックごとに予測(イントラまたはインター予測)を実行して、予測ブロック365を取得するように構成され得る。
ux = ( mvx + 2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (2)
uy = ( mvy + 2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (4)
ここで、mvxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、mvyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、uxおよびuyは中間値を示す。
ux = ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (6)
uy = ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (8)
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
ここで、vxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、vyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、x、y、およびzは、MVクリッピングプロセスの3つの入力値に対応し、関数Clip3の定義は以下の通りである。
P(x,y)=Clip1Cmp((wL×R-1,y+wT×Rx,-1-wTL×R-1,-1+(64-wl-wT+wTL)×P(x,y)+32))>>6) (1)
ここで、Rx,-1、R-1,yは、現在のサンプル(x,y)の上および左において位置する参照サンプルを表現し、R-1,-1は、現在のブロックの左上コーナーに位置する参照サンプルを表現し、関数clip1Cmpは以下のように設定される。
- cIdxが0に等しいならば、clip1CmpはClip1Yに等しく設定される。
- そうでないならば、clip1CmpはClip1Cに等しく設定される。
Clip1Y(x)=Clip3(0,(1<<BitDepthY)-1,x)
Clip1C(x)=Clip3(0,(1<<BitDepthC)-1,x)
BitDepthCはルーマサンプルのビット深度である。
BitDepthYおよびBitDepthCは、ビットストリームのシーケンスパラメータセット(sequence parameter set(SPS))内でシグナリングされることが可能である。
ここで、minCは、成分ID Cについて現在のスライス内で使用される低い方のクリッピング限度であり、
maxCは、成分ID Cについて現在のスライス内で使用される高い方のクリッピング限度であり、
Cは、色成分(たとえば、ルーマについてY、クロマについてCbおよびCr)であり、
「x>>y」は、xの2の補数整数表現の、2進数のy桁だけの算術右シフトである。この関数は、yの非負の整数値のみについて定義される。右シフトの結果として最上位ビット(MSB)にシフトされるビットは、そのシフト演算の前のxのMSBに等しい値を有する。
wT=32>>((y<<1)>>shift)
wL=32>>((x<<1)>>shift)
wTL=-(wL>>4)-(wT>>4)
ここで、shift=(log2(width)+log2(height)+2)>>2である。
x=x'+y'+1
によって与えられ、参照サンプルR-1,yの座標yは、同様に
y=x'+y'+1
によって与えられる。
wT=16>>((y'<<1)>>shift)
wL=16>>((x'<<1)>>shift)
wTL=0
である。
x=x'+y'+1
によって与えられ、参照サンプルR-1,yの座標yは、
y=x'+y'+1
である。
wT=16>>((y'<<1)>>shift)
wL=16>>((x'<<1)>>shift)
wTL=0
である。
wT=32>>((y'<<1)>>shift)
wL=0
wTL=0
である。
wL=32>>((x'<<1)>>shift)
wT=0
wTL=0
である。
Round(x)=Sign(x)*Floor(Abs(x)+0.5)
Log2(x)は、2を底とするxの対数である。
intraPredAngleは、Table 6(表11)の中で指定される角度パラメータであり、
A=C ? B : Dは、3元割当て演算であり、ここで、条件Cが真であるならば、AはBに等しく設定される。
そうでなく、条件Cが偽であるならば、AはDに等しく設定される。
INTRA_PLANARは、平面イントラ予測モード()であり、
INTRA_DCは、DCイントラ予測モードであり、
INTRA_ANGULARXXは、方向性イントラ予測モードのうちの1つであり、ここで、XXは、図8に表されたその数および対応する方向を表記する。
- イントラ予測モードpredModeIntra、
- 変換ブロック幅を指定する変数nTbW、
- 変換ブロック高さを指定する変数nTbH、
- 参照サンプル幅を指定する変数refW、
- 参照サンプル高さを指定する変数refH、
- 予測されたサンプルpredSamples[x][y]、ここでx=0..nTbW-1、y=0..nTbH-1、
- 隣接サンプルp[x][y]、ここでx=-1、y=-1..refH-1、およびx=0..refW-1、y=-1、
- 現在のブロックの色成分を指定する変数cIdx
である。
- cIdxが0に等しいならば、clip1CmpはClip1Yに等しく設定される。
- そうでないならば、clip1CmpはClip1Cに等しく設定される。
mainRef[x]=p[x][-1]
sideRef[y]=p[-1][y]
- predModeIntraがINTRA_PLANAR、INTRA_DC、INTRA_ANGULAR18、またはINTRA_ANGULAR50に等しいならば、以下が適用される。
refL[x][y]=p[-1][y]
refT[x][y]=p[x][-1]
wT[y]=32>>((y<<1)>>nScale)
wL[x]=32>>((x<<1)>>nScale)
wTL[x][y]=(predModeIntra==INTRA_DC) ? ((wL[x]>>4)+(wT[y]>>4)) : 0
- そうでなく、predModeIntraがINTRA_ANGULAR2またはINTRA_ANGULAR66に等しいならば、以下が適用される。
refL[x][y]=p[-1][x+y+1]
refT[x][y]=p[x+y+1][-1]
wT[y]=(32>>1)>>((y<<1)>>nScale)
wL[x]=(32>>1)>>((x<<1)>>nScale)
wTL[x][y]=0
- そうでなく、predModeIntraがINTRA_ANGULAR10以下であるならば、以下の順序付けされたステップが適用される。
1.変数dXPos[y]、dXFrac[y]、dXInt[y]、およびdX[x][y]は、invAngleを使用して以下のように導出される。
dXPos[y]=((y+1)*invAngle+2)>>2
dXFrac[y]=dXPos[y]&63
dXInt[y]=dXPos[y]>>6
dX[x][y]=x+dXInt[y]
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、以下のように導出される。
refL[x][y]=0
refT[x][y]=(dX[x][y]<refW-1) ? ((64-dXFrac[y])*mainRef[dX[x][y]]+
dXFrac[y]*mainRef[dX[x][y]+1]+32)>>6 : 0 (式1)
wT[y]=(dX[x][y]<refW-1) ? 32>>((y<<1)>>nScale) : 0
wL[x]=0
wTL[x][y]=0
- そうでなく、predModeIntraがINTRA_ANGULAR58(図8を見られたい)以上であるならば、以下の順序付けされたステップが適用される。
1.変数dYPos[x]、dYFrac[x]、dYInt[x]、およびdY[x][y]は、intraPredModeに依存して、以下において指定されるようにinvAngleを使用して以下のように導出される。
dYPos[x]=((x+1)*invAngle+2)>>2
dYFrac[x]=dYPos[x]&63
dYInt[x]=dYPos[x]>>6
dY[x][y]=y+dYInt[x]
2.変数refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]は、以下のように導出される。
refL[x][y]=(dY[x][y]<refH-1) ? ((64-dYFrac[x])*sideRef[dY[x][y]]+
+ dYFrac[x]*sideRef[dY[x][y]+1]+32)>>6 : 0 (式2)
refT[x][y]=0
wT[y]=0
wL[x]=(dY[x][y]< refH-1) ? 32>>((x<<1)>>nScale) : 0
wTL[x][y]=0
- そうでないならば、refL[x][y]、refT[x][y]、wT[y]、wL[x]、およびwTL[x][y]はすべて、0に等しく設定される。
predSamples[x][y]=clip1Cmp((refL[x][y]*wL[x]+refT[x][y]*wT[y]-
p[-1][-1]*wTL[x][y]+(64-wL[x]-wT[y]+wTL[x][y])*predSamples[x][y]+32)>>6)
refT[x][y]=(dX[x][y]<refW-1) ? mainRef[dX[x][y]] : 0
refL[x][y]=(dY[x][y]<refH-1) ? sideRef[dY[x][y]] : 0
(図7および図8に表されたpredModeIntraとしてさらに表記される)方向性イントラ予測モード、
(log2(nTbW)+Log2(nTbH))>>1に等しく設定されるブロックサイズパラメータnTbS、ここで、nTbWおよびnTbHは、それぞれ、予測されたブロックの幅および高さを表記し、「>>」は右シフト演算を表記する。
wT[y]=V>>((y<<1)>>nScaleY)
wL[x]=V>>((x<<1)>>nScaleX)
- ブロックの幅およびブロックの高さの和が、64サンプルよりも大きく、かつintraPredModeが斜行非対角であるか、またはそれがPLANAR_IDXに等しいかのいずれかである。
- predModeIntra予測モード値に基づいてintraPredAngleパラメータの値を導出し、
- intraPredAngleパラメータに基づいて逆角度の値(invAngle)を導出し、
- ブロックのサイズおよびinvAngle値に基づいてnScale係数の値を取得する。
DCイントラ予測モード、平面イントラ予測モード、および角度イントラ予測モードのうちの1つを使用して、イントラ予測によって1つまたは複数の参照サンプル値から予測されたサンプル値を決定するステップと、
予測されたサンプル値をサンプル重み付け係数によって乗算して、重み付きの予測されたサンプル値をもたらすステップと、
ブロックの高さ、およびイントラ予測モードに基づいて、垂直スケーリング係数(nScaleY)を決定するステップと、
ブロックの幅、およびイントラ予測モードに基づいて、水平スケーリング係数(nScaleX)を決定するステップと、
垂直スケーリング係数(nScaleY)に基づいて、第1の重みを決定するステップと、
水平スケーリング係数(nScaleX)に基づいて、第2の重みを決定するステップと、
第1の重みを用いて上の参照サンプル値を、かつ第2の重みを用いて左の参照サンプル値を重み付けすることによって、上の参照サンプル値および左の参照サンプル値の重み付きの和として追加の値を計算するステップと、
重み付きの予測されたサンプル値に追加の値を加算して、正規化されていない予測されたサンプル値をもたらすステップと、
正規化されていない予測されたサンプル値の整数表現の算術右シフトによって、正規化されていない予測されたサンプル値を正規化して、正規化された予測されたサンプル値をもたらすステップとを備える、ピクチャのブロックをイントラ予測する方法の第1の態様。
ここで、
P(x,y)が、正規化されていない予測されたサンプル値であり、
Rx,-1、R-1,yが、各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)が水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)が垂直重み付け係数であり、
xがサンプルの水平座標であり、
yがサンプルの垂直座標である、第1または第2の態様による方法の第3の態様。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、プログラミングが、プロセッサによって実行されたとき、第1から第4の態様のうちのいずれか1つによる方法を実行するようにデコーダを構成する、デコーダの第8の態様。
1つまたは複数のプロセッサと、
プロセッサに結合され、プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、プログラミングが、プロセッサによって実行されたとき、第1から第4の態様のうちのいずれか1つによる方法を実行するようにエンコーダを構成する、エンコーダの第9の態様。
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャデータ
18 プリプロセッサ
19 前処理されたピクチャデータ
20 エンコーダ
21 エンコードされたピクチャデータ
22 通信インターフェース
28 通信インターフェース
30 デコーダ
31 デコードされたピクチャデータ
32 ポストプロセッサ
33 後処理されたピクチャデータ
34 ディスプレイデバイス
46 処理回路
201 入力
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数
210 逆量子化ユニット
211 逆量子化係数、逆量子化残差係数
212 逆変換処理ユニット
213 再構成された残差ブロック
214 再構成ユニット
215 再構成されたブロック
220 ループフィルタ
221 フィルタ処理されたブロック
230 デコードされたピクチャバッファ
231 デコードされたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック
266 シンタックス要素
270 エントロピーエンコードユニット
272 出力
304 エントロピーデコードユニット
309 量子化された係数
310 逆量子化ユニット
311 逆量子化された係数
312 逆変換処理ユニット
313 再構成された残差ブロック
314 再構成ユニット
315 再構成されたブロック
320 ループフィルタ
321 フィルタ処理されたブロック
330 デコードされたピクチャバッファ
331 デコードされたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット
360 モード選択ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート
420 受信機ユニット
430 プロセッサ
440 送信機ユニット
450 出口ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 2次記憶
518 ディスプレイ
Claims (21)
- ピクチャのブロックをイントラ予測する方法であって、前記ブロックの複数のサンプルからの1つのサンプルについて、
DCイントラ予測モード、平面イントラ予測モード、および角度イントラ予測モードのうちの1つから選択されたイントラ予測モードを使用して、イントラ予測によって1つまたは複数の参照サンプル値から予測されたサンプル値を決定するステップと、
前記イントラ予測モードと、前記ブロックの高さ、前記ブロックの幅、または両方のうちの1つとに基づいて、第1の重みを決定するステップと、
前記イントラ予測モードと、前記ブロックの前記高さ、前記ブロックの前記幅、または両方のうちの1つとに基づいて、第2の重みを決定するステップと、
前記第1の重みを用いて上の参照サンプル値を、かつ前記第2の重みを用いて左の参照サンプル値を重み付けすることによって、前記上の参照サンプル値および前記左の参照サンプル値の重み付きの和として追加の値を計算するステップと、
前記予測されたサンプル値をサンプル重み付け係数によって乗算して、重み付きの予測されたサンプル値をもたらすステップと、
前記重み付きの予測されたサンプル値に前記追加の値を加算して、正規化されていない修正済みの予測されたサンプル値をもたらすステップと、
前記正規化されていない修正済みの予測されたサンプル値の整数表現の算術右シフトによって、前記正規化されていない修正済みの予測されたサンプル値を正規化して、正規化された修正済みの予測されたサンプル値をもたらすステップと
を備える方法。 - 前記方法が、前記ブロックの前記複数のサンプルのうちの各サンプルを備える、前記ピクチャについての前記ブロックをイントラ予測するステップを備える、請求項1に記載の方法。
- 前記第1の重みを決定するステップおよび前記第2の重みを決定するステップが、前記イントラ予測モードと、前記ブロックの前記高さ、前記ブロックの前記幅、または両方のうちの1つとに基づいて、スケーリング係数を決定するステップを備え、前記第1の重みおよび前記第2の重みが、それぞれ、前記スケーリング係数に基づいて決定される、
請求項1または2に記載の方法。 - 前記第1の重みを決定するステップが、前記ブロックの前記高さ、および前記イントラ予測モードに基づいて、nScaleYと表記される垂直スケーリング係数を決定するステップを備え、前記第1の重みが、前記垂直スケーリング係数nScaleYに基づいて決定され、
前記第2の重みを決定するステップが、前記ブロックの前記幅、および前記イントラ予測モードに基づいて、nScaleXと表記される水平スケーリング係数を決定するステップであって、前記第2の重みが、前記水平スケーリング係数nScaleXに基づいて決定される、ステップと、
前記正規化されていない予測されたサンプル値の整数表現の算術右シフトによって、前記正規化されていない予測されたサンプル値を正規化して、正規化された予測されたサンプル値をもたらすステップとを備える、
請求項1から3のいずれか一項に記載の方法。 - nScaleXおよびnScaleYが、それぞれ、モードクラスインデックスに依存して導出され、前記モードクラスインデックスが、イントラ予測モードのグループを使用して導出される、請求項4に記載の方法。
- nScaleXおよびnScaleYが、以下のマッピング、すなわち、
ここで、nTbWおよびnTbHが、それぞれ、前記予測されたブロックの幅および高さを表記し、「>>」が右シフト演算を表記し、
ここで、Floorがフロア関数であり、Log2が、ある数の2を底とする自然対数を戻し、Minが、その引数の最小を戻し、「>>」が右シフト演算を表記し、
invAngleが、以下、すなわち、
intraPredAngleが、ルックアップテーブル(LUT)を使用して、変数predModeIntraによって与えられる前記イントラ予測モードから導出される角度パラメータである、請求項8に記載の方法。 - 前記正規化されていない修正済みの予測されたサンプル値を正規化することが、前記予測されたサンプル値を、
P(x,y)=Clip1Cmp((wL×R-1,y+wT×Rx,-1-wTL×R-1,-1+(64-wl-wT+wTL)×P(x,y)+32))>>6)
として算出することを備え、
ここで、
P(x,y)が、前記正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yが、前記各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)が水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)が垂直重み付け係数であり、
Vが基本値であり、
xが前記各サンプルの水平座標であり、
yが前記サンプルの垂直座標であり、
ここで、clip1Cmpが、以下のように設定され、すなわち、
cIdxが0に等しい場合、clip1CmpがClip1Yに等しく設定され、
そうでない場合、clip1CmpがClip1Cに等しく設定され、
ここで、cIdxが、現在のブロックの色成分を指定する変数であり、
Clip1Y(x)=Clip3(0,(1<<BitDepthY)-1,x)であり、
Clip1C(x)=Clip3(0,(1<<BitDepthC)-1,x)であり、
ここで、BitDepthYがルーマサンプルのビット深度であり、
ここで、BitDepthCがルーマサンプルのビット深度である、請求項4から10のいずれか一項に記載の方法。 - 平面モードについてwTL=0であるが、水平モードについてwTL=wTであり、垂直モードについてwTL=wLである、請求項11に記載の方法。
- 前記正規化されていない修正済みの予測されたサンプル値を正規化することが、前記正規化された修正済みの予測されたサンプル値を、
ここで、
P(x,y)が、前記正規化されていない修正済みの予測されたサンプル値であり、
Rx,-1、R-1,yが、前記各サンプルの上および左に位置する最も近くの参照サンプルの値を表現し、
wL=V>>((x<<1)>>nScaleX)が水平重み付け係数であり、
wT=V>>((y<<1)>>nScaleY)が垂直重み付け係数であり、
Vが基本値であり、
xが前記各サンプルの水平座標であり、
yが前記サンプルの垂直座標である、請求項4から10のいずれか一項に記載の方法。 - サンプルの中で与えられる前記ブロックの幅および前記ブロックの高さの和が、それぞれ、64サンプルよりも大きく、かつ
前記イントラ予測モードが斜行非対角であるか、または前記イントラ予測モードが平面イントラ予測モードであるかのいずれかであるならば、
前記各サンプルが更新されない、請求項1から13のいずれか一項に記載の方法。 - intraPredModeが2またはVDIA_IDXに等しくなく、かつ以下のこと、すなわち、intraPredModeがVDIA_IDX-numModesより小さくない、またはintraPredModeが2+numModesより大きくない、のうちの1つが真であるならば、intraPredModeが斜行非対角である、請求項14に記載の方法。
- 前記正規化された修正済みの予測されたサンプル値に残差値を加算して、再構成されたサンプル値をもたらすステップをさらに備える、請求項1から15のいずれか一項に記載の方法。
- 請求項1から16のいずれか一項に記載の方法を実行するための処理回路を備えるエンコーダ(20)。
- 請求項1から16のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ(30)。
- 請求項1から16のいずれか一項に記載の方法を実行するためのプログラムコードを備えるコンピュータプログラム。
- デコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から16のいずれか一項に記載の方法を実行するように前記デコーダを構成する、デコーダ。 - エンコーダであって、
1つまたは複数のプロセッサと、
前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶した非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から16のいずれか一項に記載の方法を実行するように前記エンコーダを構成する、エンコーダ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023076274A JP7508645B2 (ja) | 2018-12-21 | 2023-05-02 | モードおよびサイズに依存したブロックレベル制限の方法および装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862784345P | 2018-12-21 | 2018-12-21 | |
US62/784,345 | 2018-12-21 | ||
PCT/RU2019/050253 WO2020130889A1 (en) | 2018-12-21 | 2019-12-23 | Method and apparatus of mode- and size-dependent block-level restrictions |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023076274A Division JP7508645B2 (ja) | 2018-12-21 | 2023-05-02 | モードおよびサイズに依存したブロックレベル制限の方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022514885A true JP2022514885A (ja) | 2022-02-16 |
JP7277586B2 JP7277586B2 (ja) | 2023-05-19 |
Family
ID=71101526
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021535825A Active JP7277586B2 (ja) | 2018-12-21 | 2019-12-23 | モードおよびサイズに依存したブロックレベル制限の方法および装置 |
JP2023076274A Active JP7508645B2 (ja) | 2018-12-21 | 2023-05-02 | モードおよびサイズに依存したブロックレベル制限の方法および装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023076274A Active JP7508645B2 (ja) | 2018-12-21 | 2023-05-02 | モードおよびサイズに依存したブロックレベル制限の方法および装置 |
Country Status (13)
Country | Link |
---|---|
US (1) | US12108077B2 (ja) |
EP (2) | EP4307673A3 (ja) |
JP (2) | JP7277586B2 (ja) |
CN (4) | CN114885158B (ja) |
AU (1) | AU2019401170B2 (ja) |
BR (1) | BR112021011723A2 (ja) |
CA (1) | CA3122769A1 (ja) |
IL (1) | IL284220A (ja) |
MX (1) | MX2021007092A (ja) |
PL (1) | PL3881549T3 (ja) |
PT (1) | PT3881549T (ja) |
WO (1) | WO2020130889A1 (ja) |
ZA (1) | ZA202104005B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210097803A (ko) | 2019-01-14 | 2021-08-09 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
CN114071161B (zh) * | 2020-07-29 | 2023-03-31 | Oppo广东移动通信有限公司 | 图像编码方法、图像解码方法及相关装置 |
EP4315854A1 (en) * | 2021-03-31 | 2024-02-07 | Telefonaktiebolaget LM Ericsson (publ) | Smooth surface prediction |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170272748A1 (en) * | 2016-03-21 | 2017-09-21 | Qualcomm Incorporated | Using luma information for chroma prediction with separate luma-chroma framework in video coding |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030012287A1 (en) * | 2001-03-05 | 2003-01-16 | Ioannis Katsavounidis | Systems and methods for decoding of systematic forward error correction (FEC) codes of selected data in a video bitstream |
JP4050754B2 (ja) * | 2005-03-23 | 2008-02-20 | 株式会社東芝 | ビデオエンコーダ及び動画像信号の符号化方法 |
US7995649B2 (en) * | 2006-04-07 | 2011-08-09 | Microsoft Corporation | Quantization adjustment based on texture level |
US8503536B2 (en) * | 2006-04-07 | 2013-08-06 | Microsoft Corporation | Quantization adjustments for DC shift artifacts |
JP5271271B2 (ja) * | 2006-11-03 | 2013-08-21 | サムスン エレクトロニクス カンパニー リミテッド | 動きベクトル・トラッキングを利用した映像の符号化、復号化方法及び装置 |
EP2182732A1 (en) * | 2008-10-28 | 2010-05-05 | Panasonic Corporation | Switching between scans in image coding |
KR101503269B1 (ko) * | 2010-04-05 | 2015-03-17 | 삼성전자주식회사 | 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치 |
CN102695061B (zh) * | 2011-03-20 | 2015-01-21 | 华为技术有限公司 | 一种权重因子的确定方法和装置,以及一种帧内加权预测方法和装置 |
CN102291584B (zh) * | 2011-09-01 | 2013-04-17 | 西安电子科技大学 | 帧内图像亮度块预测装置及方法 |
EP4366307A3 (en) * | 2012-01-18 | 2024-07-17 | Electronics and Telecommunications Research Institute | Method and device for encoding and decoding image |
WO2013155662A1 (en) | 2012-04-16 | 2013-10-24 | Mediatek Singapore Pte. Ltd. | Methods and apparatuses of simplification for intra chroma lm mode |
WO2017035831A1 (en) * | 2015-09-06 | 2017-03-09 | Mediatek Inc. | Adaptive inter prediction |
US10425648B2 (en) * | 2015-09-29 | 2019-09-24 | Qualcomm Incorporated | Video intra-prediction using position-dependent prediction combination for video coding |
US10425640B2 (en) * | 2016-06-16 | 2019-09-24 | Peking University Shenzhen Graduate School | Method, device, and encoder for controlling filtering of intra-frame prediction reference pixel point |
US10674165B2 (en) * | 2016-12-21 | 2020-06-02 | Arris Enterprises Llc | Constrained position dependent intra prediction combination (PDPC) |
CN107071417B (zh) * | 2017-04-10 | 2019-07-02 | 电子科技大学 | 一种用于视频编码的帧内预测方法 |
US10491893B1 (en) * | 2018-08-29 | 2019-11-26 | Tencent America LLC | Method and apparatus for multi-line intra prediction |
GB2577337A (en) * | 2018-09-24 | 2020-03-25 | Sony Corp | Image data encoding and decoding |
US20200162737A1 (en) * | 2018-11-16 | 2020-05-21 | Qualcomm Incorporated | Position-dependent intra-inter prediction combination in video coding |
US11057622B2 (en) * | 2018-12-13 | 2021-07-06 | Qualcomm Incorporated | Position dependent intra prediction combination with non-square block diagonals |
US11363284B2 (en) * | 2019-05-09 | 2022-06-14 | Qualcomm Incorporated | Upsampling in affine linear weighted intra prediction |
-
2019
- 2019-12-23 CN CN202210265323.8A patent/CN114885158B/zh active Active
- 2019-12-23 PT PT198987083T patent/PT3881549T/pt unknown
- 2019-12-23 PL PL19898708.3T patent/PL3881549T3/pl unknown
- 2019-12-23 CA CA3122769A patent/CA3122769A1/en active Pending
- 2019-12-23 EP EP23212632.6A patent/EP4307673A3/en active Pending
- 2019-12-23 WO PCT/RU2019/050253 patent/WO2020130889A1/en active Application Filing
- 2019-12-23 BR BR112021011723-7A patent/BR112021011723A2/pt unknown
- 2019-12-23 CN CN202210265428.3A patent/CN114885159B/zh active Active
- 2019-12-23 EP EP19898708.3A patent/EP3881549B1/en active Active
- 2019-12-23 AU AU2019401170A patent/AU2019401170B2/en active Active
- 2019-12-23 JP JP2021535825A patent/JP7277586B2/ja active Active
- 2019-12-23 CN CN202210264902.0A patent/CN114885157A/zh active Pending
- 2019-12-23 CN CN201980067122.3A patent/CN112889286B/zh active Active
- 2019-12-23 MX MX2021007092A patent/MX2021007092A/es unknown
-
2021
- 2021-06-10 ZA ZA2021/04005A patent/ZA202104005B/en unknown
- 2021-06-18 US US17/352,012 patent/US12108077B2/en active Active
- 2021-06-20 IL IL284220A patent/IL284220A/en unknown
-
2023
- 2023-05-02 JP JP2023076274A patent/JP7508645B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170272748A1 (en) * | 2016-03-21 | 2017-09-21 | Qualcomm Incorporated | Using luma information for chroma prediction with separate luma-chroma framework in video coding |
JP2019509684A (ja) * | 2016-03-21 | 2019-04-04 | クアルコム,インコーポレイテッド | ビデオコーディングにおける別々の輝度−色差枠組みを用いた色差予測のために輝度情報を使用すること |
Non-Patent Citations (4)
Title |
---|
ALEXEY FILIPPOV, VASILY RUFITSKIY, JIANLE CHEN, JINHO LEE, JUNGWON KANG: "Non-CE3: On block size restrictions for PDPC with disabled linear filtering for PDPC in the case of", JVET-M JVET-M0832-V1, JPN6022038011, 17 October 2019 (2019-10-17), pages 1 - 4, ISSN: 0004871440 * |
BENJAMIN BROSS, JIANLE CHEN, SHAN LIU: "Versatile Video Coding (Draft 3) [online]", JVET-L JVET-L1001-V6, JPN6022038009, 17 October 2019 (2019-10-17), pages 1 - 10, ISSN: 0004871438 * |
GEERT VAN DER AUWERA (QUALCOMM), JIN HEO (LGE), ALEXEY FILIPPOV (HUAWEI): "Description of Core Experiment 3: Intra Prediction and Mode Coding [online]", JVET-J JVET-J1023, JPN6022038008, 17 October 2019 (2019-10-17), pages 1 - 44, ISSN: 0004871437 * |
JINHO LEE, HAHYUN LEE, SUNG-CHANG LIM, JUNGWON KANG, HUI YONG KIM: "CE3-related: Simplification of PDPC [online]", JVET-L JVET-L0152-V3, JPN6022038010, 17 October 2019 (2019-10-17), pages 1 - 7, ISSN: 0004871439 * |
Also Published As
Publication number | Publication date |
---|---|
CN114885159B (zh) | 2023-10-20 |
EP3881549A4 (en) | 2022-06-22 |
EP4307673A3 (en) | 2024-02-14 |
CN114885159A (zh) | 2022-08-09 |
PT3881549T (pt) | 2024-05-20 |
PL3881549T3 (pl) | 2024-06-24 |
AU2019401170A1 (en) | 2021-06-24 |
JP2023100834A (ja) | 2023-07-19 |
EP3881549B1 (en) | 2024-03-06 |
WO2020130889A1 (en) | 2020-06-25 |
CN112889286B (zh) | 2022-04-19 |
JP7508645B2 (ja) | 2024-07-01 |
MX2021007092A (es) | 2021-08-11 |
BR112021011723A2 (pt) | 2021-08-31 |
CN112889286A (zh) | 2021-06-01 |
US20220124368A1 (en) | 2022-04-21 |
IL284220A (en) | 2021-08-31 |
JP7277586B2 (ja) | 2023-05-19 |
CA3122769A1 (en) | 2020-06-25 |
AU2019401170B2 (en) | 2023-03-30 |
CN114885158A (zh) | 2022-08-09 |
CN114885158B (zh) | 2023-10-20 |
ZA202104005B (en) | 2022-07-27 |
EP3881549A1 (en) | 2021-09-22 |
KR20210091322A (ko) | 2021-07-21 |
US12108077B2 (en) | 2024-10-01 |
CN114885157A (zh) | 2022-08-09 |
EP4307673A2 (en) | 2024-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3932076B1 (en) | An encoder, a decoder and corresponding methods for intra prediction | |
JP7454633B2 (ja) | パレット符号化を使用するエンコード装置、デコード装置および対応する方法 | |
JP2022529030A (ja) | 行列ベースのイントラ予測と二次変換コア選択を調和させるエンコーダ、デコーダ、および対応する方法 | |
KR102696162B1 (ko) | 인트라 서브파티션 코딩 툴로 인한 서브파티션 경계를 위한 디블로킹 필터 | |
JP7508645B2 (ja) | モードおよびサイズに依存したブロックレベル制限の方法および装置 | |
CA3136587A1 (en) | An encoder, a decoder and corresponding methods using an adaptive loop filter | |
KR102626200B1 (ko) | Cbf 플래그들의 효율적인 시그널링의 방법 | |
JP2022507985A (ja) | ピクチャのブロックのイントラ予測の方法 | |
US11758137B2 (en) | Encoder, decoder and corresponding methods using DCT2 enabled high level flag | |
KR20210139446A (ko) | 인트라 스무딩을 위한 방법 및 장치 | |
KR20210099148A (ko) | 위치 의존적 예측 조합을 위한 모드 및 크기 의존적 블록 레벨 제한 방법 및 장치 | |
WO2021037053A1 (en) | An encoder, a decoder and corresponding methods of cabac coding for the indices of geometric partition flag | |
JP2022515003A (ja) | コンパクトなmvストレージを用いるエンコーダ、デコーダ、及び対応する方法 | |
WO2020139173A1 (en) | Method and apparatus for intra prediction | |
KR20210072099A (ko) | 서브블록 병합 후보를 위한 개별적인 병합 목록 및 비디오 코딩을 위한 인트라-인터 기술 조화 | |
KR20220065880A (ko) | 아핀 모션 보상에서 dct 기반 보간 필터 및 향상된 쌍선형 보간 필터의 사용 | |
KR20210094057A (ko) | 비디오 코딩에서 크로마 인트라 예측을 위한 방법 및 장치 | |
JP2021536697A (ja) | ビデオ・エンコーダ、ビデオ・デコーダ及び対応する方法 | |
KR20210145824A (ko) | 제산 없는 인트라 예측을 위한 방법 및 장치 | |
CA3128913A1 (en) | An encoder, a decoder and corresponding methods using intra mode coding for intra prediction | |
WO2020162797A1 (en) | Method and apparatus of intra prediction mode signaling | |
KR102725069B1 (ko) | 모드 및 크기 의존적 블록 레벨 제한의 방법 및 장치 | |
JP2022531544A (ja) | 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 | |
KR20210122800A (ko) | 인트라 서브 파티션 코딩 모드 도구로부터 서브 파티션의 크기를 제한하는 인코더, 디코더 및 대응하는 방법 | |
JP2022514922A (ja) | 予測コーディングのための補間フィルタ処理の方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210730 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210730 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7277586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |