JP2021530160A - 拡張参照画像内予測 - Google Patents
拡張参照画像内予測 Download PDFInfo
- Publication number
- JP2021530160A JP2021530160A JP2020573307A JP2020573307A JP2021530160A JP 2021530160 A JP2021530160 A JP 2021530160A JP 2020573307 A JP2020573307 A JP 2020573307A JP 2020573307 A JP2020573307 A JP 2020573307A JP 2021530160 A JP2021530160 A JP 2021530160A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- image
- block
- extended
- reference samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013074 reference sample Substances 0.000 claims abstract description 683
- 239000000523 sample Substances 0.000 claims abstract description 172
- 238000000034 method Methods 0.000 claims description 65
- 238000001914 filtration Methods 0.000 claims description 44
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 230000002146 bilateral effect Effects 0.000 claims description 16
- 230000009466 transformation Effects 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 2
- 238000005859 coupling reaction Methods 0.000 claims description 2
- 230000008878 coupling Effects 0.000 claims 1
- 238000009795 derivation Methods 0.000 description 12
- 230000001419 dependent effect Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000009499 grossing Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
で記述でき、左の参照サンプルは、yが0からNの範囲で
で記述できる。参照サンプルの水平方向の延長の場合のパラメータMと垂直方向の延長の場合のパラメータNは、画像内予測に依存する。例えば、図4eに関連して説明するように、右上の対角予測を時計回りの最大角度として使用する場合、上部の参照サンプルは、水平方向に
サンプルを拡張する必要がある。例えば図4aで説明するように、左下の対角予測を反時計回りの最大角度として使用する場合、左の参照サンプルは、垂直方向に
サンプルを拡張する必要がある。図3のように、Wは予測ブロックの幅を表し、Hは高さを表す。
である場合、最も近い(i=0)および拡張(i>0)参照サンプルの置換は、以下のように定式化されることができる。
パラメータiは、エンコーダ/デコーダシステム内で0よりも大きい任意の最大値、例えば、5以上または10以上などの1、2、3、4以上とすることができる。
と
は、画像間予測ブロック内にあり、制約付きイントラ予測が有効になっているため利用不可能である。
と
が利用可能である。したがって、左側のサンプルは、以下のように置き換えられる。
別の実施形態では、利用可能な参照サンプル間の利用不可能な参照サンプルは、各側から1つずつ、2つの最も近いサンプル間を線形補間することによって生成されることができる。
マッピングされた参照サンプルが第1の画像方向に沿った予測ブロックの拡張を超えるように、第2の方向に沿って配置された最も近い参照サンプルの少なくとも一部を第1の方向に沿って配置された拡張参照サンプルにマッピングし、マッピングされた拡張参照サンプルを予測に使用するように構成されることができる。
・DC
・角度
以下では、本発明の実施形態を説明するために、拡張参照サンプルについて各予測を詳細に説明する。
と等しく設定され、下の境界サンプルは、左下隅のサンプル
と等しく設定される。
拡張参照サンプルの場合、垂直方向および水平方向の予測
および
は、参照領域のインデックスiに依存する。
拡張参照サンプルを改善するための一実施形態は、以下のように、垂直および水平予測
および
において、最も近い右上隅サンプル
および最も近い左下隅サンプル
を使用することである。
別の実施形態は、距離に依存する重み付けとともに、水平および垂直の予測に隅参照サンプルを含めることを定義する。拡張された参照領域が遠くなるほど、すなわちパラメータiが大きくなるほど、予測に使用できる左上隅のサンプルが多くなる。i=0の場合、1つのサンプル
、すなわち予測ブロックに隣接するか距離0であり、i>0の場合、i個の垂直隅サンプル
と
、i個の水平隅サンプル
と
と隅サンプル
が存在する。実施形態にかかる1つの実施形態は、水平および垂直隅サンプル(双方とも隅サンプルを含む)を平均し、以下のように、垂直および水平予測においてそれを
および
による距離依存の重み付けとともに含む。
別の実施形態は、最も近い右上のサンプル、最も近い左下のサンプル、および拡張隅サンプルを使用する2つの前の実施形態の組み合わせである。
を平均に等しく設定する。
平均値DCの場合、予測ブロックの左側にNサンプル、右側にMサンプルのみを使用することができ、Nは高さHに設定することができ、Mは幅Wに設定することができる。
拡張参照サンプルの場合、平均値DCは、参照領域インデックスiに依存する。
一実施形態では、予測ブロックの左上にある隅サンプルも平均で使用することができる。
角度予測は、指定された方向または角度に沿って予測サンプルを導出することにより、予測サンプルを計算する。最も単純な予測方向は、予測サンプルの4×2ブロックの5つの角度の画像内予測角度の例を示す図4aから図4eに示されている水平、垂直、および3つの対角線である。各方向に沿った参照サンプルは、常に完全な(整数の)サンプル位置を指していることがわかる。文献に記載されている拡張参照サンプル(緑色)の変更は容易であり、方向を拡張するだけである。予測サンプルのブロックのサイズは、4×2であるが、角度内予測は、任意のブロックサイズに拡張することができる。
または左側の主参照の上の各参照サンプル
は、逆予測角度にしたがって、対応する副参照サンプルに投影される。予測角度に応じて、投影はサブサンプル位置を指すことができる。
で表すことができる。Aは、32サンプルなどの所与の第1の画像拡張に対する第2の画像方向に沿った距離と呼ぶことができる。図5aでは、Aは32サンプル、すなわち32であり、Aに垂直な画像方向に沿った32サンプルの画像拡張に基づいて45°の角度になる。図5bでは、A=17、図5cでは、A=1である。
に基づいて、各主参照サンプル
の左側の参照列への垂直オフセット
は、以下のように計算されることができる:
パラメータ
に基づく垂直オフセット
と最大水平オフセット
の導出を図6aから図6cおよび図7aから図7cに示し、図6aから図6cは、図5aから図5cにかかる、A=32、17、1の左上の水平予測角度の水平変位xが与えられた場合の垂直オフセットの計算を示している。
)と最も近い参照サンプルの実施形態を示している。高さが8サンプル(
)の場合、4つ(
)の左参照サンプルを対角線方向に投影して、主参照サンプルライン、すなわち最も近い上部参照サンプルを延長することができることがわかる。実施形態によれば、図示されたサイズの画像、ブロック、スライスなどは、例としてのみ与えられ、他の任意の値を含むことができる。
図9は、
を用いた延長基準線を用いた、対角左上角(
)および高さ8サンプル(
)の実施形態を示している。ここでは、2つの(
)左参照サンプルを対角線方向に投影して、主参照サンプルライン、すなわち最も近い上部参照サンプルを延長することができる。
を最も近い副参照サンプル
と組み合わせる1つの方法は、以下のように定式化することができる:
この組み合わせは、前の図に関連して説明したのと同じ実施形態に基づいて図10に示されている。ここで、ラインに配置された拡張参照サンプル10643は、予測方向(垂直)内の主参照サンプル(上)に使用され、列に配置された最も近い参照サンプル1062は、主参照サンプルラインを延長するための、予測方向に沿った拡張参照サンプルライン(一番上の行)に投影される副参照サンプルに使用されることができる。
・拡張参照サンプルが使用されている場合、境界フィルタリング操作を実行しない、または
・拡張参照サンプルの代わりに最も近い参照サンプルを使用して、境界平滑化を変更する。
ここで、pc(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
は、予測重みであり、dxは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、r(x,−1−i)i>0は、水平位置xでの拡張された上部参照サンプルであり、r(−1−i,y)i>0は、垂直位置yでの拡張された左側の参照サンプルであり、r(−1−i,−1−i)i>0は、予測ブロックの境界に関する複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
ビデオエンコーダは、3タップフィルタ、5タップフィルタ、7タップフィルタのいずれかを使用して、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得するように、拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプルを予測に使用するように構成されることができる。
ここで、pc(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
は、予測重みであり、dxは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
は、予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
ここで、pc(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
は、予測重みであり、dxは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、r(x,−1−i)i>0は、水平位置xでの拡張された上部参照サンプルであり、r(−1−i,y)i>0は、垂直位置yでの拡張された左側の参照サンプルであり、r(−1−i,−1−i)i>0は、予測ブロックの境界に関する複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
ビデオデコーダは、3タップフィルタ、5タップフィルタ、7タップフィルタのいずれかを使用して、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得するように、拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプルを予測に使用するように構成されることができる。
ここで、pc(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
は、予測重みであり、dxは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
は、予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
をフィルタリングされた参照サンプルを使用する予測とし、
をフィルタリングされていない参照サンプルとする。組み合わせ予測
は、以下のように計算されることができる:
係数
は、位置に依存する項でスケーリングされた予測重みを記憶し、幅が16以下のブロックの場合は
であり、幅が16よりも大きいブロックの場合は
であり、高さが16以下のブロックの場合は
であり、および高さが16を超えるブロックの場合は
である。正規化係数
は、以下のように導出することができる:
参照サンプルフィルタリングに関連して既に説明したように、この組み合わせの参照サンプルフィルタリングは、通常の予測のフィルタリングとは異なる場合がある。例えば、3つ以下またはそれ以上の所定のローパスフィルタのうちの1つを使用して、境界サンプルを平滑化することができる。3つの所定のローパスフィルタは、1つの3タップ、1つの5タップ、および1つの7タップフィルタを含むことができる。平滑化をコンテンツに適合させるために、平滑化フィルタの選択は、ブロックサイズおよびイントラ予測モードに基づくことができる。hkをフィルタkのインパルス応答、および追加の保存された重み付けパラメータaとして定義すると、フィルタリングされた参照
は、フィルタ処理されていない参照
から以下のように計算される。ここで、「*」は畳み込みを表す。
異なるブロックサイズの異なる特性を再度考慮すると、ブロックサイズごとに1つの固定セットの予測パラメータ(
、aおよびフィルタインデックスk)を定義することができる。
に置き換えた。
拡張参照サンプルの別の実施形態は、以下のように、最も近い隅サンプルr(−1,−1)を、閉じた拡張垂直隅サンプル
および水平隅サンプル
で置き換えることを指す。
拡張参照サンプルの別の実施形態は、以下のように、最も近い隅サンプルr(−1,−1)を水平および垂直隅サンプル(双方とも隅サンプルを含む)の平均で置き換えることを定義する。
一実施形態では、組み合わされる予測
は、平面予測である。別の実施形態では、この組み合わせは、DCまたは角度などの他の画像内予測にも適用することができる。
ここで、w0(x,y)は、予測ブロック内の位置x,yに基づく第1の重みであり、wiは、予測ブロック内の位置x,yに基づく第2の重みであり、p0(x,y)は、位置x,yの第1の予測であり、pi(x,y)は、位置x,yの第2の予測であり、iは、第2の予測に使用される拡張参照サンプルを示す。
予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、予測モードの第2のセットの第2の予測モードを使用して予測ブロックの第2の予測を判定し、予測モードの第2のセットが、第1のセットの予測モードのサブセットを含み、サブセットが、複数の拡張参照サンプルに関連付けられるように構成されることができる。ビデオデコーダは、第1の予測(p0(x、y))と第2の予測(pi(x、y))とを加重(w0;wi)結合して、符号化データの予測ブロックの予測として、組み合わせ予測(p(x、y))を取得するように構成されることができる。
ここで、w0(x,y)は、予測ブロック内の位置x,yに基づく第1の重みであり、wiは、予測ブロック内の位置x,yに基づく第2の重みであり、p0(x,y)は、位置x,yの第1の予測であり、pi(x,y)は、位置x,yの第2の予測であり、iは、第2の予測に使用される拡張参照サンプルを示す。予測ブロック内の変化する位置x,yについて、拡張参照サンプルiは、変化する距離を含むことができる。あるいは、またはさらに、エリアインデックスiおよび/またはモードmによって示される、所定の拡張参照サンプルの異なるセットは、予測ブロックまでの異なる距離を含むことができる。
と拡張参照サンプルiを使用した予測
とを組み合わせることができる。
予測を組み合わせる既知の方法の1つは、重みを固定し、双方の予測に同じ予測モードを使用することである。これは、第2の予測モードを通知する必要をなくす。
を使用することができ、第2の部分は、最も近い参照サンプルと平面モードを使用して生成される。別の可能性は、順序を切り替えることである。すなわち、拡張参照サンプルに平面モードが使用される。
をブロックサイズごと、および予測モードごとに個別に指定することができる。さらにまた、重みをシーケンス、画像、またはスライスレベルで通知して、組み合わせをビデオコンテンツに適合させることができる。別の実施形態は、予測ブロック内の異なる領域に対して異なる参照サンプル予測に異なる重みを付けることである。これは、以下のように位置に依存する重み
をもたらすことができる:
1つの予測および拡張参照サンプルを使用する場合、予測モードおよび使用される参照領域インデックスiを通知すること、すなわち、モードおよび参照領域信号を実行することは最先端技術である。以下では、1つおよび/または複数の予測を使用する場合の予測モードコーディングの実施形態が提示され、続いて、拡張参照領域インデックスコーディングの実施形態が提示される。
1.インデックス通知が以下のようにモードmに依存することができるように、インデックスiの前の信号モードm:
a.モードmが拡張参照サンプルの許可されたモードのセットにない場合、インデックスiの通知はスキップされ、予測モードmが最も近い参照サンプルに適用される(i=0)
b.それ以外の場合、iが通知され、予測モードmがiによって示される参照サンプルに適用される。
a.iが拡張参照サンプル(i>0)を使用することを示している場合、通知することができるモードmのセットは、制限されたものと同じである。
1.本実施形態に関連して説明されるように、次の基本的な処理領域内の拡張参照を利用不可能としてマークする。そうすれば、例えば、画像、スライス、またはタイルの境界で、または画像内予測領域の参照として画像間予測領域からのサンプルを使用することを許可しない制約付き内部予測が使用される場合、他の利用不可能な参照サンプルのように扱うことができる。
Claims (155)
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記予測ブロックに直接隣接する少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、
置換サンプルによって利用不可能と判定された最も近い参照サンプルを置換し、
前記画像内予測に前記置換サンプルを使用するように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、
シーケンスにしたがって、前記利用可能性または利用不可能性を順番に判定し、
前記置換サンプルを、前記シーケンスで利用可能であると判定された最後の拡張参照サンプルのコピーとして判定し、および/または
前記置換サンプルを、次の拡張参照サンプルが前記シーケンスで利用可能であると判定されるコピーとして判定する
ように構成される、請求項1に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、
シーケンスにしたがって、前記利用可能性または利用不可能性を順番に判定し、
前記参照サンプルが利用不可能であると判定される前に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルと、前記参照サンプルが利用不可能であると判定された後に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルとの組み合わせに基づいて、前記置換サンプルを判定する
ように構成される、請求項2に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの最も近い参照サンプルの1つによって前記予測ブロックから分離され、
前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定し、
前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上である場合、前記複数の拡張参照サンプルの使用を通知し、
前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が前記所定の閾値を下回る場合、前記複数の拡張参照サンプルの前記使用の通知をスキップする
ように構成される、請求項1から3のいずれか一項に記載のビデオエンコーダ。 - ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
バイラテラルフィルタまたは3タップFIRフィルタを使用して、前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用する
ように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して前記複数の拡張参照サンプルをフィルタリングするように構成される、請求項5に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、角度予測モードを使用して前記予測ブロックを予測するように構成され、前記3タップフィルタ、5タップフィルタ、および7タップフィルタが、バイラテラルフィルタとして構成され、前記ビデオエンコーダが、前記角度予測に使用される角度に基づいて、前記3タップフィルタ、前記5タップフィルタ、および前記7タップフィルタのうちの1つを使用するように選択するように構成され、前記角度が前記角度予測モードの水平方向または垂直方向の間に配置され、および/または前記ビデオエンコーダが、前記予測ブロックのブロックサイズに基づいて、前記3タップフィルタ、前記5タップフィルタ、および前記7タップフィルタのうちの1つを使用するように選択するように構成される、請求項6に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、対角線に向かって水平方向または垂直方向から角度を増加させるために、タップが増加するフィルタを選択するように構成される、請求項7に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが、前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置され、
マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された前記拡張参照サンプルにマッピングし、
前記マッピングされた拡張参照サンプルを前記予測に使用する
ように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、前記予測ブロックを予測するために使用される予測モードにしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項9に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックを予測するための前記予測モードで使用される方向にしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項10に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記ビデオエンコーダが、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルが使用される場合は、境界フィルタリングを使用しないように構成され、または
前記ビデオエンコーダが、前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに対して境界フィルタリングを使用しないように構成される、ビデオエンコーダ。 - ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記拡張参照サンプルを使用して前記予測ブロックの予測を判定し、
前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
前記予測と前記フィルタリングされた拡張参照サンプルとを結合し、前記予測ブロックの組み合わせ予測を取得する
ように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、前記予測ブロックに関して、サンプルの主対角線または前記副対角線に配置されている前記予測サンプルおよび前記拡張参照サンプルを組み合わせるように構成される、請求項13に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、以下の判定ルールに基づいて前記予測サンプルと前記拡張参照サンプルとを組み合わせるように構成される:
ここで、pc(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
は、予測重みであり、dxは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張された上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張された左側の参照サンプルであり、i>0の場合のr(−1−i,−1−i)は、前記予測ブロックの境界に関する前記複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項13または14に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、3タップフィルタ、5タップフィルタ、7タップフィルタのうちの1つを使用して前記拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得し、前記予測のために前記フィルタリングされた拡張参照サンプルを使用するように構成される、請求項13から16のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックの拡張隅参照サンプルと、参照サンプル(r(−1−i,−1−i))の隅領域に配置された拡張参照サンプルとの組み合わせを使用するように構成される、請求項13から17のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、以下の判定ルールに基づいて前記組み合わせ予測を取得するように構成される:
ここで、pc(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
は、予測重みであり、dxは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張左参照サンプルであり、i>0の場合の
は、前記予測ブロックの境界に関して前記結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項18に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、前記画像内予測に基づいて前記予測p(x,y)を取得するように構成される、請求項13から19のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、画像内予測として平面予測のみを使用するように構成される、請求項20に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、符号化されたビデオブロックごとに、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別するパラメータセットを判定するように構成される、請求項13から21のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別する前記パラメータセットを判定するように構成される、請求項22に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記予測モードの前記第1のセットのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられるように構成され、
前記ビデオエンコーダが、前記第1の予測(p0(x,y))と前記第2の予測(pi(x,y))とを加重(w0;wi)結合して、前記符号化データの前記予測ブロックの予測として組み合わせ予測(p(x,y))を取得するように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、前記第1の予測および前記第2の予測を使用するように構成される、請求項24に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、他の予測モードを通知しない一方で、前記第1の予測モードまたは前記第2の予測モードのいずれかを通知するように構成される、請求項24または25に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記第1の予測モードおよび前記第2の予測モードのうちの1つとして平面予測モードのみを使用するように構成される、請求項24から26のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックのブロックサイズに基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みを適応させ、および/または
前記第1の予測モードに基づいて前記第1の重みを適応させるかまたは前記第2の予測モードに基づいて前記第2の重みを適応させるように構成される、請求項24から27のいずれか一項に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、位置に基づいて、前記組み合わせ予測の前記第1の予測に適用される第1の重みと、前記組み合わせ予測の前記第2の予測に適用される第2の重みとを適応させるように構成される、請求項24から28のいずれか一項に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知し、
その後、前記予測モードが前記予測モードの第2のセットに含まれている場合、前記予測モードに使用される前記拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記使用される予測モードが前記予測モードの第2のセットに含まれていない場合、前記パラメータ情報の通知をスキップする
ように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、前記モード情報がDCモードまたは平面モードを示すときに、前記パラメータ情報の通知をスキップするように構成される、請求項31に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記複数の参照サンプルのサブセットが、最も近い参照サンプルのみまたは前記拡張参照サンプルを含み、
その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知し、前記モード情報が、モードのサブセットからの予測モードを示し、前記サブセットが、前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限される
ように構成される、ビデオエンコーダ。 - 前記最も近い参照サンプルに加えて、前記第2のセットの予測モードに含まれるモードの前記拡張参照サンプルが使用される、請求項31から33のいずれか一項に記載のビデオエンコーダ。
- 前記第1のセットの予測モードが、前記最も近い参照サンプルとともに使用することができる予測モードを記述し、前記第2のセットの予測モードが、前記拡張参照サンプルでの使用も許可された前記第1のセットの予測モードの予測モードも記述する、請求項31から34のいずれか一項に記載のビデオエンコーダ。
- 前記パラメータ情報の値の範囲が、前記最も近い参照値のみの使用および拡張参照値の異なるサブセットの使用をカバーする、請求項31から35のいずれか一項に記載のビデオエンコーダ。
- 拡張参照サンプルの異なる部分が、前記予測ブロックまでの異なる距離を含む、請求項36に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記パラメータ情報を、前記予測モードに使用される参照サンプルの数および距離を示す所定の数の値のうちの1つに設定するように構成される、請求項36または37に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、最も可能性の高いモードコーディングに基づいて、前記第1のセットの予測モードおよび/または前記第2のセットの予測モードを判定するように構成される、請求項31から38のいずれか一項に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むように構成され、
前記ビデオエンコーダが、前記第1の予測と前記第2の予測とを組み合わせて、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得するように構成される、ビデオエンコーダ。 - 前記予測ブロックが、前記第1の予測ブロックであり、前記ビデオエンコーダが、第2の予測ブロックに関連付けられた複数の拡張参照サンプルがない場合に前記第2の予測ブロックに関連付けられた複数の最も近い参照サンプルを使用して前記ビデオの前記第2の予測ブロックを予測するように構成され、
前記ビデオエンコーダが、前記符号化データ内の前記予測が予測の組み合わせに基づくか、または前記複数の最も近い参照サンプルがない場合に前記複数の拡張参照サンプルを使用する予測に基づくことを示す結合情報を通知するように構成される、請求項40に記載のビデオエンコーダ。 - 前記ビデオエンコーダが、前記第1の予測モードを所定の予測モードとして使用するように構成される、請求項40または41に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記第1の予測モードを、前記第2の予測モードと同じモードであり且つ前記拡張参照サンプルがない場合に前記最も近い参照サンプルを使用するものとして選択する、または前記第1の予測モードを事前設定された予測モードとして使用するように構成される、請求項42に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用するように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、前記セット内の複数が、参照サンプルとして使用される前記画像のサンプルのラインおよび/または行の数または組み合わせによって互いに異なるように、前記拡張参照サンプルの複数の所定のセットを判定するように構成される、請求項44に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックのブロックサイズおよび/または前記予測ブロックを予測するために使用される予測モードに基づいて、前記複数の拡張参照サンプルの所定のセットを判定するように構成される、請求項45に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、少なくとも所定の閾値である前記予測ブロックのブロックサイズについて前記複数の拡張参照サンプルのセットを判定し、前記ブロックサイズが前記所定の閾値を下回る場合、前記複数の拡張参照サンプルのセットの通知をスキップする、または符号化ツリーブロック内の前記複数の拡張参照サンプルのセットの位置に基づいて前記複数の拡張参照サンプルのセットの通知をスキップするように構成される、請求項45または46に記載のビデオエンコーダ。
- 前記所定の閾値が、前記予測ブロックの幅または高さに沿った所定の数のサンプル、および/または前記幅および前記高さに沿った前記予測ブロックの所定のアスペクト比である、請求項47に記載のビデオエンコーダ。
- 前記所定のサンプル数が8である、および/または前記アスペクト比が1/4よりも大きく且つ4よりも小さい、請求項48に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記複数の拡張参照サンプルを使用して第1の予測ブロックとして前記予測ブロックを予測し、前記前記拡張参照サンプルを使用せずに第2の予測ブロックを予測するように構成され、前記ビデオエンコーダが、前記第1の予測ブロックに関連付けられた前記複数の拡張サンプルの所定のセットを通知し、前記第2の予測ブロックに関連付けられた前記拡張参照サンプルの所定のセットを通知しないように構成される、請求項44から49のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットのうちの1つを示す情報と、前記画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を通知するように構成される、請求項44から50のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、それによって複数の拡張参照サンプルの前記示された特定の複数の前記セットにしたがって、または前記最も近い参照サンプルの示された使用にしたがって予測モードのみを示すように、前記画像内予測を示す前記情報を通知するように構成される、請求項51に記載のビデオエンコーダ。
- ビデオエンコーダであって、
画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化し、
前記画像内予測のために、前記複数の予測ブロックの予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されるように構成され、
前記ビデオエンコーダが、前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定し、
前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を通知するように構成される、ビデオエンコーダ。 - 前記ビデオエンコーダが、波面アプローチにしたがってブロックの並列符号化ラインによって前記画像を符号化し、角度予測に基づいて前記予測ブロックを予測するように構成される、前記ビデオエンコーダが、前記画像の既に予測されたブロックに配置されるように、前記予測ブロックを予測するために使用される前記拡張参照サンプルを判定するように構成される、請求項53に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに、シーケンスレベル、画像レベルまたはスライスレベルで利用不可能なサンプルまたは利用可能なサンプルとして異形に配置された前記拡張予測サンプルを通知するように構成される、請求項53または54に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記画像の並列符号化を示す情報とともに、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す前記情報を通知するように構成される、請求項53から55のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、複数の最も可能性の高い予測モードのリストを、前記予測モードのための前記複数の最も近い参照サンプルの使用または前記複数の拡張参照サンプルの前記使用に基づいて判定するように構成され、前記ビデオエンコーダが、前記予測モードで許可されているモードによって、前記使用されている参照サンプルに対して制限されている前記予測モードを置換するように構成される、請求項1から56のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、拡張参照サンプルを使用して、輝度情報のみを含む画像に予測を適用するように構成される、請求項1から57のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成される、請求項1から58のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、角度予測モードの可能な角度からの角度のサブセットのみを使用する前記角度予測モードを使用して前記予測を予測し、符号化情報をデコーダに通知することから未使用の角度を除外するように構成される、請求項1から59のいずれか一項に記載のビデオエンコーダ。
- 前記拡張参照サンプルが、最も近い参照サンプル、好ましくは少なくとも3つのラインおよび行に加えて、少なくとも2つのラインおよび行に配置される、請求項1から60のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記予測ブロックを予測するために複数の拡張参照サンプルの特定の複数のセットを使用するように構成され、前記ビデオエンコーダが、前記セットによって拡張された複数の最も近い参照サンプルと比較されたときの画像コンテンツの最も低い類似性を含むように前記複数のセットから前記特定の複数を選択するように構成される、請求項1から61のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、フラグを使用して拡張参照サンプルの使用を通知するように構成される、請求項62に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成され、前記ビデオエンコーダが、第1の変換手順を使用して前記予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して前記第1の変換結果を変換して、前記拡張参照サンプルが前記予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される、請求項1から63のいずれか一項に記載のビデオエンコーダ。
- 前記ビデオエンコーダが、二次変換の使用を通知し、または、
前記拡張参照サンプルの使用を示すときに前記二次変換の不使用を暗黙的に通知し、前記符号化データに二次変換の結果に関連する情報を含めないように構成される、請求項64に記載のビデオエンコーダ。 - 前記予測が、前記画像を復号するために量子化された信号と組み合わせて使用される残留信号の予測である、請求項1から65のいずれか一項に記載のビデオエンコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、
置換サンプルによって利用不可能と判定された最も近い参照サンプルを置換し、
前記画像内予測のために前記置換サンプルを使用するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、
シーケンスにしたがって順番に前記利用可能性または利用不可能性を判定し、
前記置換サンプルを、前記シーケンスで利用可能であると判定された最後の拡張参照サンプルのコピーとして判定し、および/または
前記置換サンプルを、次の拡張参照サンプルが前記シーケンスで利用可能であると判定されるコピーとして判定するように構成される、請求項67に記載のビデオデコーダ。 - 前記ビデオデコーダが、
シーケンスにしたがって順番に前記利用可能性または利用不可能性を判定し、
前記参照サンプルが利用不可能であると判定される前に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルと、前記参照サンプルが利用不可能であると判定された後に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルとの組み合わせに基づいて、前記置換サンプルを判定するように構成される、請求項68に記載のビデオデコーダ。 - 前記ビデオデコーダが、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定し、
前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上であることを示す情報と、前記複数の拡張参照サンプルの使用とを受信し、
前記情報がない場合に前記複数の拡張参照サンプルの使用をスキップするように構成される、請求項67から69のいずれか一項に記載のビデオデコーダ。 - ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、前記複数のフィルタリングされた拡張参照サンプルを取得し、
前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して前記複数の拡張参照サンプルをフィルタリングするように構成される、請求項71に記載のビデオエンコーダ。
- 前記3タップフィルタ、5タップフィルタおよび7タップフィルタが、バイラテラルフィルタとして構成され、前記ビデオデコーダが、角度予測モードを使用して前記予測ブロックを予測し、前記角度予測に使用される角度に基づいて、前記3タップフィルタ、前記5タップフィルタおよび前記7タップフィルタのうちの1つを使用することを選択するように構成され、前記角度が前記角度予測モードの水平方向または垂直方向の間に配置され、および/または前記ビデオデコーダが、前記予測ブロックのブロックサイズに基づいて、前記3タップフィルタ、前記5タップフィルタおよび前記7タップフィルタのうちの1つを使用するように選択するように構成される、請求項72に記載のビデオデコーダ。
- 前記ビデオデコーダが、対角線に向かって水平方向または垂直方向に角度を増加させるために、タップが増加するフィルタを選択するように構成される、請求項73に記載のビデオエンコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
複数の最も近い参照サンプルが前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置され、
マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングし、
前記マッピングされた拡張参照サンプルを前記予測に使用するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、前記予測ブロックを予測するために使用される予測モードにしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項75に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックを予測するための前記予測モードで使用される方向にしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項76に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されるように構成され、
前記ビデオデコーダが、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルを使用する場合は、境界フィルタリングを使用しないように構成され、
前記ビデオデコーダが、前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに境界フィルタリングを使用しないように構成される、ビデオデコーダ。 - ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測において、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記拡張参照サンプルを使用して前記予測ブロックの予測を判定し、
前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
前記予測と前記フィルタリングされた拡張参照サンプルを結合し、前記予測ブロックの組み合わせ予測を取得するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、前記予測ブロックに関して、サンプルの主対角線または副対角線に配置されている前記予測サンプルおよび前記拡張参照サンプルを組み合わせるように構成される、請求項79に記載のビデオデコーダ。
- 前記ビデオデコーダが、以下の判定ルールに基づいて前記予測サンプルと前記拡張参照サンプルとを組み合わせるように構成される:
ここで、pc(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
は、予測重みであり、dxは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張された上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張された左側の参照サンプルであり、i>0の場合のr(−1−i,−1−i)は、前記予測ブロックの境界に関する前記複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項79または80に記載のビデオデコーダ。 - 前記ビデオデコーダが、3タップフィルタ、5タップフィルタおよび7タップフィルタのうちの1つを使用して前記拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得し、前記予測のために前記フィルタリングされた拡張参照サンプルを使用するように構成される、請求項79から82のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックの拡張隅参照サンプルと、参照サンプル(r(−1−i,−1−i))の隅領域に配置された拡張参照サンプルとの組み合わせを使用するように構成される、請求項79から83のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、以下の判定ルールに基づいて前記組み合わせ予測を取得するように構成される:
ここで、pc(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
は、予測重みであり、dxは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dyは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
は、前記予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項84に記載のビデオデコーダ。 - 前記ビデオデコーダが、前記画像内予測に基づいて前記予測p(x、y)を取得するように構成される、請求項79から85のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記画像内予測として平面予測のみを使用するように構成される、請求項86に記載のビデオデコーダ。
- 前記ビデオデコーダが、復号されたビデオブロックごとに、前記予測と前記フィルタリングされた拡張参照サンプルとの前記組み合わせを識別するパラメータセットを判定するように構成される、請求項79から87のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別する前記パラメータセットを判定するように構成される、請求項88に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが前記第1のセットの前記予測モードのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられるように構成され、
前記ビデオデコーダが、組み合わせ予測(p(x,y))を取得するために、前記符号化データの前記予測ブロックの予測として前記第1の予測(p0(x,y))と前記第2の予測(pi(x,y))とを加重(w0;wi)結合するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、前記第1の予測および前記第2の予測を使用するように構成される、請求項90に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記第1の予測モードを示す信号を受信せずに前記第2の予測モードを示す信号を受信し、前記第2の予測モードまたはパラメータ情報(i)から前記第1の予測モードを導出するように構成される、請求項90または91に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記第1の予測モードおよび前記第2の予測モードのうちの1つとして平面予測モードのみを使用するように構成される、請求項90から92のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックのブロックサイズに基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みを適応させ、および/または
前記第1の予測モードに基づいて前記第1の重みを適応させるかまたは前記第2の予測モードに基づいて前記第2の重みを適応させるように構成される、請求項90から93のいずれか一項に記載のビデオデコーダ。 - 前記ビデオデコーダが、前記予測ブロックにおける位置に基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みとを適合させるように構成される、請求項90から94のいずれか一項に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信し、
その後、前記予測モードに使用される前記拡張参照サンプルのサブセットを示し、それにより、前記予測モードが前記予測モードの前記第2のセットに含まれることを示すパラメータ情報(i)を受信し、前記パラメータ情報を受信しない場合、前記使用された予測モードが前記予測モードの第2のセットに含まれていないことを判定し、前記予測のために前記最も近い参照サンプルの使用を判定するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、前記パラメータ情報を受信しないときにDCモードまたは平面モードの使用を示すものとして前記モード情報を判定するように構成される、請求項97に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信し、前記複数の参照サンプルの前記サブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含み、
その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信し、前記モード情報がモードのサブセットからの予測モードを示し、前記サブセットが前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されるように構成される、ビデオデコーダ。 - 前記最も近い参照サンプルに加えて、前記第2のセットの予測モードに含まれるモードの前記拡張参照サンプルが使用される、請求項97から99に記載のビデオデコーダ。
- 前記第1のセットの予測モードが、前記最も近い参照サンプルとともに使用することができる予測モードを記述し、前記第2のセットの予測モードが、前記拡張参照サンプルでの使用も許可された前記第1のセットの予測モードの予測モードも記述する、請求項97から100のいずれか一項に記載のビデオデコーダ。
- 前記パラメータ情報の値の範囲が、前記最も近い参照値のみの使用および拡張参照値の異なるサブセットの使用をカバーする、請求項97から101のいずれか一項に記載のビデオデコーダ。
- 拡張参照サンプルの前記異なる部分が、前記予測ブロックまでの異なる距離を含む、請求項102に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記パラメータ情報を、前記予測モードに使用される参照サンプルの数および距離を示す所定の数の値のうちの1つに設定するように構成される、請求項102または103に記載のビデオデコーダ。
- 前記ビデオデコーダが、最も可能性の高いモードコーディングに基づいて、前記第1のセットの予測モードおよび/または前記第2のセットの予測モードを判定するように構成される、請求項97から104のいずれか一項に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むように構成され、
前記ビデオデコーダが、前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得するように構成される、ビデオデコーダ。 - 前記予測ブロックが、第1の予測ブロックであり、前記ビデオデコーダが、第2の予測ブロックに関連付けられた複数の拡張参照サンプルがない場合に前記第2の予測ブロックに関連付けられた複数の最も近い参照サンプルを使用して前記ビデオの前記第2の予測ブロックを予測するように構成され、
前記ビデオデコーダが、前記符号化データ内の前記予測が予測の組み合わせに基づくか、または前記複数の最も近い参照サンプルがない場合に前記複数の拡張参照サンプルを使用する予測に基づくことを示す結合情報を受信し、それに応じて符号化データを復号するように構成される、請求項106に記載のビデオデコーダ。 - 前記ビデオデコーダが、前記第1の予測モードを所定の予測モードとして使用するように構成される、請求項106または107に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記第1の予測モードを、前記第2の予測モードと同じモードであり且つ前記拡張参照サンプルがない場合に前記最も近い参照サンプルを使用するものとして選択する、または、前記第1の予測モードを事前設定された予測モードとして使用するように構成される、請求項108に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、
前記複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、前記セット内の複数が、参照サンプルとして使用される前記画像のサンプルのラインおよび/または行の数または組み合わせによって互いに異なるように、前記拡張参照サンプルの複数の所定のセットを判定するように構成される、請求項110に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックのブロックサイズおよび/または前記予測ブロックを予測するために使用される予測モードに基づいて、前記複数の拡張参照サンプルの所定のセットを判定するように構成される、請求項111に記載のビデオデコーダ。
- 前記ビデオデコーダが、少なくとも所定の閾値である前記予測ブロックのブロックサイズについて前記複数の拡張参照サンプルのセットを判定し、前記ブロックサイズが前記所定の閾値を下回る場合、前記複数の拡張参照サンプルのセットの使用をスキップするように構成される、請求項111または112に記載のビデオデコーダ。
- 前記所定の閾値が、前記予測ブロックの幅または高さに沿った所定の数のサンプル、および/または前記幅および前記高さに沿った前記予測ブロックの所定のアスペクト比である、請求項113に記載のビデオデコーダ。
- 前記所定のサンプル数が8である、および/または前記アスペクト比が1/4よりも大きく且つ4よりも小さい、請求項114に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記複数の拡張参照サンプルを使用して第1の予測ブロックとして前記予測ブロックを予測し、前記拡張参照サンプルを使用しない第2の予測ブロックを予測するように構成され、前記ビデオデコーダが、前記第1の予測ブロックに関連付けられた複数の拡張参照サンプルの所定のセットを示す情報を受信し、それぞれの信号がない場合に前記第2の予測ブロックに関連付けられた拡張参照サンプルの所定のセットを判定するように構成される、請求項110から115のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットのうちの1つを示す情報と、前記画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を通知するように構成される、請求項110から116のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、それによって複数の拡張参照サンプルの前記示された特定の複数の前記セットにしたがって、または前記最も近い参照サンプルの示された使用にしたがって予測モードのみを示すように、前記画像内予測を示す情報を通知するように構成される、請求項117に記載のビデオデコーダ。
- ビデオデコーダであって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、各画像について、複数の予測ブロックが復号され、
前記画像内予測のために、前記複数の予測ブロックの予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用するように構成され、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
前記ビデオデコーダが、前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定し、
前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を受信するように構成される、ビデオデコーダ。 - 前記ビデオデコーダが、波面アプローチにしたがってブロックの並列復号ラインによって前記画像を復号し、角度予測に基づいて前記予測ブロックを予測するように構成され、前記ビデオデコーダが、前記画像の既に予測されたブロックに配置されるように、前記予測ブロックを予測するために使用される前記拡張参照サンプルを判定するように構成される、請求項119に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに、シーケンスレベル、画像レベルまたはスライスレベルで利用不可能なサンプルまたは利用可能なサンプルとして異形に配置された前記拡張予測サンプルを示す情報を受信するように構成される、請求項119または120に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記画像の並列復号を示す情報とともに、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す前記情報を受信するように構成される、請求項119から121のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、複数の最も可能性の高い予測モードのリストを、前記予測モードのための前記複数の最も近い参照サンプルの使用または前記複数の拡張参照サンプルの前記使用に基づいて判定するように構成され、前記ビデオデコーダが、前記予測モードで許可されているモードによって、前記使用されている参照サンプルに対して制限されている前記予測モードを置換するように構成される、請求項68から122のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、拡張参照サンプルを使用して、輝度情報のみを含む画像に予測を適用するように構成される、請求項68から123のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成される、請求項68から124のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記角度予測モードの可能な角度からの角度のサブセットのみを使用する前記角度予測モードを使用して前記予測を予測し、前記予測から未使用の角度を除外するように構成される、請求項68から125のいずれか一項に記載のビデオデコーダ。
- 前記拡張参照サンプルが、最も近い参照サンプル、好ましくは少なくとも3つのラインおよび行に加えて、少なくとも2つのラインおよび行に配置される、請求項68から126のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記予測ブロックを予測するために複数の拡張参照サンプルの特定の複数のセットを使用するように構成され、前記ビデオデコーダが、前記セットによって拡張された複数の最も近い参照サンプルと比較されたときの画像コンテンツの最も低い類似性を含むように前記複数のセットから前記特定の複数を選択するように構成される、請求項68から127のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、フラグによって拡張参照サンプルの使用を示す情報を受信するように構成される、請求項128に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成され、前記ビデオデコーダが、第1の変換手順を使用して前記予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して前記第1の変換結果を変換して、前記拡張参照サンプルが前記予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される、請求項68から129のいずれか一項に記載のビデオデコーダ。
- 前記ビデオデコーダが、前記二次変換の使用を示す情報を受信し、または、
前記拡張参照サンプルの使用を示すときに前記二次変換の不使用を導出し、前記符号化データの二次変換の結果に関連する情報を受信しないように構成される、請求項130に記載のビデオデコーダ。 - 前記予測が、前記画像を復号するために量子化された信号と組み合わせて使用される残留信号の予測である、請求項68から131のいずれか一項に記載のビデオデコーダ。
- ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記予測ブロックに直接隣接する少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定することと、
置換サンプルによって利用不可能と判定された拡張参照サンプルを置換することと、
前記画像内予測に置換サンプルを使用することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
バイラテラルフィルタを使用して、前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが、前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置されることと、
マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングすることと、
前記マッピングされた拡張参照サンプルを前記予測に使用することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルが使用される場合は、境界フィルタリングを使用しない、または
前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに対して境界フィルタリングを使用しないことと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記拡張参照サンプルを使用して前記予測ブロックの予測を判定することと、
前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
前記予測と前記フィルタリングされた拡張参照サンプルとを結合し、前記予測ブロックの組み合わせ予測を取得することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記予測モードの第1のセットのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられることと、
前記第1の予測(p0(x,y))と前記第2の予測(pi(x,y))とを加重(w0;wi)結合して、前記符号化データの前記予測ブロックの予測として組み合わせ予測(p(x,y))を取得することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知することと、
その後、前記予測モードが前記予測モードの第2のセットに含まれている場合、前記予測モードに使用される前記拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記使用される予測モードが前記予測モードの第2のセットに含まれていない場合、前記パラメータ情報の通知をスキップすることと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を通知することであって、前記複数の参照サンプルの前記サブセットが、最も近い参照サンプルのみまたは拡張参照サンプルを含むことと、
その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知することであって、前記モード情報が、モードのサブセットからの予測モードを示し、前記サブセットが、前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されることと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むことと、
前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用することと、を備える、ビデオを符号化する方法。 - ビデオを符号化する方法であって、
画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化することと、
前記画像内予測のために、複数の予測ブロックの予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定することと、
前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を通知することと、を備える、ビデオを符号化する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定することと、
置換サンプルによって利用不可能と判定された拡張参照サンプルを置換することと、
前記画像内予測のために前記置換サンプルを使用することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することと、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
バイラテラルフィルタを使用して前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することと、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置されることと、
マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングすることと、
前記マッピングされた拡張参照サンプルを前記予測に使用することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
拡張サンプルが使用されないモードで境界フィルタリングを行い、前記拡張サンプルを使用する場合は、境界フィルタリングを使用しないことと、
前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに境界フィルタリングを使用しないことと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測において、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記拡張参照サンプルを使用して前記予測ブロックの予測を判定することと、
前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
前記予測と前記フィルタリングされた拡張参照サンプルを結合し、前記予測ブロックの組み合わせ予測を取得することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが前記第1のセットの前記予測モードのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられることと、
組み合わせ予測(p(x,y))を取得するために、前記符号化データの前記予測ブロックの予測として前記第1の予測(p0(x,y))と前記第2の予測(pi(x,y))とを加重(w0;wi)結合することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信することと、
その後、前記予測モードに使用される前記拡張参照サンプルのサブセットを示し、それにより、前記予測モードが前記予測モードの前記第2のセットに含まれることを示すパラメータ情報(i)を受信し、前記パラメータ情報を受信しない場合、前記使用された予測モードが前記予測モードの第2のセットに含まれていないことを判定し、前記予測のために前記最も近い参照サンプルの使用を判定することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの前記第1のセットのサブセットであることと、
前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信することであって、前記複数の参照サンプルの前記サブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含むことと、
その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信することであって、前記モード情報がモードのサブセットからの予測モードを示し、前記サブセットが前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されることと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むことと、
前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離されることと、
複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用することと、を備える、ビデオを復号する方法。 - ビデオを復号する方法であって、
画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することであって、各画像について、複数の予測ブロックが復号されることと、
前記画像内予測のために、複数の予測ブロックの予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定することと、
前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を受信することと、を備える、ビデオを復号する方法。 - コンピュータ上で実行されるときに、請求項133から154のいずれか一項に記載の方法を実行するためのプログラムコードを有するコンピュータプログラムを記憶した非一時的記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023088847A JP2023109986A (ja) | 2018-06-29 | 2023-05-30 | 拡張参照画像内予測 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18180960 | 2018-06-29 | ||
EP18180960.9 | 2018-06-29 | ||
PCT/EP2019/067412 WO2020002641A1 (en) | 2018-06-29 | 2019-06-28 | Extended reference intra-picture prediction |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023088847A Division JP2023109986A (ja) | 2018-06-29 | 2023-05-30 | 拡張参照画像内予測 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021530160A true JP2021530160A (ja) | 2021-11-04 |
Family
ID=62837810
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573307A Pending JP2021530160A (ja) | 2018-06-29 | 2019-06-28 | 拡張参照画像内予測 |
JP2023088847A Pending JP2023109986A (ja) | 2018-06-29 | 2023-05-30 | 拡張参照画像内予測 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023088847A Pending JP2023109986A (ja) | 2018-06-29 | 2023-05-30 | 拡張参照画像内予測 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11606554B2 (ja) |
EP (1) | EP3815360A1 (ja) |
JP (2) | JP2021530160A (ja) |
KR (2) | KR20230107907A (ja) |
CN (2) | CN117812254A (ja) |
TW (2) | TW202247652A (ja) |
WO (1) | WO2020002641A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7259013B2 (ja) | 2018-10-05 | 2023-04-17 | テンセント・アメリカ・エルエルシー | マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10834393B2 (en) * | 2018-09-10 | 2020-11-10 | Tencent America LLC | Intra interpolation filter for multi-line intra prediction |
US11153563B2 (en) * | 2019-03-12 | 2021-10-19 | Qualcomm Incorporated | Combined in-loop filters for video coding |
US11363284B2 (en) * | 2019-05-09 | 2022-06-14 | Qualcomm Incorporated | Upsampling in affine linear weighted intra prediction |
WO2020228671A1 (en) | 2019-05-10 | 2020-11-19 | Beijing Bytedance Network Technology Co., Ltd. | Multiple secondary transform matrices for video processing |
US11290731B2 (en) * | 2019-05-22 | 2022-03-29 | Tencent America LLC | Method and apparatus for video coding |
EP3967032A4 (en) * | 2019-06-07 | 2022-07-27 | Beijing Bytedance Network Technology Co., Ltd. | CONDITIONAL SIGNALING OF A REDUCED SECONDARY TRANSFORM FOR VIDEO BIANARY FLOWS |
JP7422858B2 (ja) | 2019-08-03 | 2024-01-26 | 北京字節跳動網絡技術有限公司 | ビデオ処理方法、装置、記憶媒体及び記憶方法 |
CN114223208B (zh) | 2019-08-17 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 为视频中的缩减二次变换的边信息的上下文建模 |
US11553208B2 (en) * | 2019-11-27 | 2023-01-10 | Tencent America LLC | Method and system of video coding using a subset of available intra prediction modes for multiple reference lines |
WO2023113512A1 (ko) * | 2021-12-17 | 2023-06-22 | 주식회사 케이티 | 영상 부호화/복호화 방법 및 장치 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013535919A (ja) * | 2010-07-31 | 2013-09-12 | オ,ス−ミ | 予測ブロック生成装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013514718A (ja) * | 2009-12-17 | 2013-04-25 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 映像符号化の方法及び装置 |
KR20130091717A (ko) * | 2010-07-31 | 2013-08-19 | 엠앤케이홀딩스 주식회사 | 예측 블록 생성 장치 |
US9628789B2 (en) | 2011-11-18 | 2017-04-18 | Qualcomm Incorporated | Reference mode selection in intra mode coding |
KR101569912B1 (ko) * | 2013-12-17 | 2015-11-27 | 세종대학교산학협력단 | 영상의 복호화/부호화 방법 및 장치 |
EP3262836B1 (en) * | 2015-03-02 | 2020-07-29 | HFI Innovation Inc. | Method and apparatus for intrabc mode with fractional-pel block vector resolution in video coding |
US20170099490A1 (en) * | 2015-10-02 | 2017-04-06 | Qualcomm Incorporated | Constrained intra-prediction for block copy mode |
US20190200011A1 (en) * | 2016-09-08 | 2019-06-27 | Lg Electronics Inc. | Intra-prediction mode-based image processing method and apparatus therefor |
US10382781B2 (en) * | 2016-09-28 | 2019-08-13 | Qualcomm Incorporated | Interpolation filters for intra prediction in video coding |
CN110832855B (zh) * | 2017-07-03 | 2023-04-14 | 汉阳大学校产学协力团 | 利用包含追加区域的分割单位的影像解码方法以及装置 |
US10419754B1 (en) * | 2018-04-02 | 2019-09-17 | Tencent America LLC | Method and apparatus for video decoding using multiple line intra prediction |
US20190387251A1 (en) * | 2018-06-19 | 2019-12-19 | Mediatek Inc. | Methods and Apparatuses of Video Processing with Overlapped Block Motion Compensation in Video Coding Systems |
EP3815361A1 (en) * | 2018-06-26 | 2021-05-05 | InterDigital VC Holdings, Inc. | Multiple reference intra prediction using variable weights |
US11159806B2 (en) * | 2018-06-28 | 2021-10-26 | Qualcomm Incorporated | Position dependent intra prediction combination with multiple reference lines for intra prediction |
-
2019
- 2019-06-28 KR KR1020237023168A patent/KR20230107907A/ko not_active Application Discontinuation
- 2019-06-28 TW TW111113854A patent/TW202247652A/zh unknown
- 2019-06-28 WO PCT/EP2019/067412 patent/WO2020002641A1/en active Application Filing
- 2019-06-28 KR KR1020217003103A patent/KR102555363B1/ko active IP Right Grant
- 2019-06-28 EP EP19734780.0A patent/EP3815360A1/en active Pending
- 2019-06-28 JP JP2020573307A patent/JP2021530160A/ja active Pending
- 2019-06-28 CN CN202410103275.1A patent/CN117812254A/zh active Pending
- 2019-06-28 TW TW108122924A patent/TWI764012B/zh active
- 2019-06-28 CN CN201980057073.5A patent/CN112640450A/zh active Pending
-
2020
- 2020-12-28 US US17/135,058 patent/US11606554B2/en active Active
-
2023
- 2023-01-31 US US18/104,288 patent/US20230188715A1/en active Pending
- 2023-05-30 JP JP2023088847A patent/JP2023109986A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013535919A (ja) * | 2010-07-31 | 2013-09-12 | オ,ス−ミ | 予測ブロック生成装置 |
Non-Patent Citations (3)
Title |
---|
"SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services - Coding of movi", RECOMMENDATION ITU-T H.265 (04/2013) HIGH EFFICIENCY VIDEO CODING, JPN6022012653, 7 June 2013 (2013-06-07), pages 106 - 107, ISSN: 0004977826 * |
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001 (version 1), JPN6022012652, 19 August 2017 (2017-08-19), ISSN: 0004739754 * |
VAN DER AUWERA, GEERT ET AL.: "Description of Core Experiment 3: Intra Prediction and Mode Coding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 10TH MEETING: SAN, vol. JVET-J1023 (version 3), JPN6022012654, 21 June 2018 (2018-06-21), ISSN: 0004977825 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7259013B2 (ja) | 2018-10-05 | 2023-04-17 | テンセント・アメリカ・エルエルシー | マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112640450A (zh) | 2021-04-09 |
US20230188715A1 (en) | 2023-06-15 |
CN117812254A (zh) | 2024-04-02 |
TWI764012B (zh) | 2022-05-11 |
EP3815360A1 (en) | 2021-05-05 |
WO2020002641A1 (en) | 2020-01-02 |
US11606554B2 (en) | 2023-03-14 |
JP2023109986A (ja) | 2023-08-08 |
US20210120240A1 (en) | 2021-04-22 |
KR20230107907A (ko) | 2023-07-18 |
KR20210024166A (ko) | 2021-03-04 |
TW202247652A (zh) | 2022-12-01 |
TW202017369A (zh) | 2020-05-01 |
KR102555363B1 (ko) | 2023-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021530160A (ja) | 拡張参照画像内予測 | |
US11792409B2 (en) | Method and apparatus for encoding/decoding an image | |
JP6615290B2 (ja) | ビデオ符号化方法、ビデオ復号方法、ビデオエンコーダ、及びビデオデコーダ | |
CN111937395B (zh) | 用于编码/解码图像的方法和装置 | |
EP3800883A1 (en) | Intra-frame prediction method and device | |
US11533470B2 (en) | Method and apparatus for encoding/decoding an image signal | |
KR20180001478A (ko) | 비디오 신호 처리 방법 및 장치 | |
JP2017011732A (ja) | 映像符号化装置 | |
KR20170116850A (ko) | 인트라 예측 기반의 비디오 신호 처리 방법 및 장치 | |
CN112335249A (zh) | 用于编码/解码图像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220331 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220408 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220623 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230530 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230607 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230810 |