JP2021530160A - 拡張参照画像内予測 - Google Patents

拡張参照画像内予測 Download PDF

Info

Publication number
JP2021530160A
JP2021530160A JP2020573307A JP2020573307A JP2021530160A JP 2021530160 A JP2021530160 A JP 2021530160A JP 2020573307 A JP2020573307 A JP 2020573307A JP 2020573307 A JP2020573307 A JP 2020573307A JP 2021530160 A JP2021530160 A JP 2021530160A
Authority
JP
Japan
Prior art keywords
prediction
image
block
extended
reference samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020573307A
Other languages
English (en)
Inventor
ブロス・ベンジャミン
マークル・フィリップ
ヴァルター・ジモーネ
シュヴァルツ・ハイコー
マルペ・デトレフ
ヴィーガンド・トーマス
カイデル・パウル
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2021530160A publication Critical patent/JP2021530160A/ja
Priority to JP2023088847A priority Critical patent/JP2023109986A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成される。ビデオエンコーダは、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうち1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、さらに、複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、置換サンプルによって利用不可能であると判定された最も近い参照サンプルを置換するように構成される。ビデオエンコーダは、画像内予測に置換サンプルを使用するように構成される。

Description

本発明は、ビデオ符号化、特に画像内予測を含むハイブリッドビデオ符号化に関する。本発明は、さらに、それぞれ、ビデオエンコーダ、ビデオデコーダ、およびビデオの符号化、復号化のための方法に関する。
H.265/HEVCは、エンコーダおよび/またはデコーダでの並列処理を向上または有効化するためのツールを既に提供しているビデオコーデックである。例えば、HEVCは、互いに独立して符号化されたタイルの配列への画像の細分割をサポートする。HEVCでサポートされている別の概念はWPPに関連しており、それによれば、連続するCTUラインの処理で最小のCTUオフセットが守られている場合、画像のCTU行またはCTUラインを左から右に並列に(すなわち、ストライプで)処理することができる。しかしながら、ビデオエンコーダおよび/またはビデオデコーダの並列処理機能をさらに効率的にサポートするビデオコーデックを手元に有することが好ましい。
したがって、本発明の目的は、予測ブロックを予測するために使用される参照サンプルに関して、エンコーダおよび/またはデコーダにおけるより効率的な処理を可能にするビデオコーデックを提供することである。
この目的は、本出願の独立請求項の主題によって達成される。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測のために、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルは、予測ブロックに直接隣接する、複数の参照サンプルの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、さらに、複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、置換サンプルによって利用不可能であると判定された最も近い参照サンプルを置換するように構成される。ビデオエンコーダは、画像内予測に置換サンプルを使用するように構成される。これは、例えば、バッファ/メモリにサンプルのラインまたは行を有し、メモリにサンプルの列を実際には有しない、したがって利用不可能である場合に発生する可能性がある、そのようなサンプルが利用不可能である場合であっても、最も近い参照サンプルを使用して予測の概念を使用することを可能にする。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルは、予測ブロックに直接隣接する、複数の参照サンプルの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、さらに、複数のフィルタリングされた拡張参照サンプルを取得するために、バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、画像内予測のために複数のフィルタリングされた拡張参照サンプルを使用するように構成される。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルは、予測ブロックに直接隣接する、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、複数の最も近い参照サンプルが、予測ブロックの第1の画像方向に沿って、および予測ブロックの第2の画像方向に沿って配置され、マッピングされた参照サンプルが第1の画像方向に沿った予測ブロックの拡張を超えるように、第2の方向に沿って配置された最も近い参照サンプルの少なくとも一部を第1の方向に沿って配置された拡張参照サンプルにマッピングするように構成される。ビデオエンコーダは、マッピングされた拡張参照サンプルを予測に使用するように構成される。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用するように構成され、複数の参照サンプルの各拡張参照サンプルが複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、ビデオエンコーダは、拡張サンプルが使用されないモードで境界フィルタリングし、拡張サンプルが使用される場合は、境界フィルタリングを使用しないように構成され、または、ビデオエンコーダは、複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、拡張サンプルについて境界フィルタリングを使用しないように構成される。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測において、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを判定するように構成され、複数の参照サンプルの各拡張参照サンプルが、複数の拡張参照サンプルの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、さらに、拡張参照サンプルを使用して予測ブロックの予測を判定し、拡張参照サンプルをフィルタリングして、複数のフィルタリングされた拡張参照サンプルを取得し、予測とフィルタリングされた拡張参照サンプルとを結合して予測ブロックの組み合わせ予測を取得するように構成される。
実施形態によれば、ビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成され、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含む、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第2のセットが、第1のセットの予測モードのサブセットを含み、サブセットが複数の拡張参照サンプルに関連付けられる、予測モードの第2のセットの第2の予測モードを使用して予測ブロックの第2の予測を判定するように構成される。ビデオエンコーダは、第1の予測(p(x、y))と第2の予測(p(x、y))とを加重(w;w)結合して、符号化データの予測ブロックの予測として、組み合わせ予測(p(x、y))を取得するように構成される。
実施形態によれば、ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、例えば、拡張参照サンプルがない場合、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を通知し、その後、予測モードが予測モードの第2のセットに含まれる場合、予測モードに使用される拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、使用される予測モードが予測モードの第2のセットに含まれない場合にパラメータ情報の通知をスキップすることにより、パラメータの特定値が選択または判定されるというデコーダにおける結論を可能にするように構成され、所定の性質が、通知のスキップを可能にし、すなわち、信号がないことには、有益な意味が与えられる。例えば、不在は、最も近い参照サンプルを使用する必要があることを示すことができる。
実施形態によれば、ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用するように構成され、予測モードの第2のセットが予測モードの第1のセットのサブセットである。ビデオエンコーダは、利用可能な参照データを使用して、第1のセットおよび/または第2のセットを生成することができ、および/または画像から導出された情報を使用してセットを判定することができる。第1のセットのサブセットである第2のセットは、双方のセットが等しい場合を含む。ビデオエンコーダは、予測モードに使用される複数の参照サンプルのサブセットを示すパラメータ情報を通知し、複数の参照サンプルのサブセットが最も近い参照サンプルのみまたは拡張参照サンプルを含み、その後、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を通知するように構成され、モード情報が、モードのサブセットからの予測モードを示し、サブセットが、パラメータ情報(i)にしたがって許可された予測モードのセットに制限される。使用された参照サンプルの関連付け、すなわち最も近いまたは拡張されたものに基づいて、示された参照サンプルに関連付けられた予測モードのみが適用されるため、制限されたセットの識別が可能である。
実施形態によれば、ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、第2のセットの予測モードの第2の予測モードを使用して予測ブロックの第2の予測を判定し、第1のセットの予測モードのサブセットを含む第2のセットの予測モードが複数の拡張参照サンプルに関連付けられるように構成される。ビデオエンコーダは、第1の予測と第2の予測とを結合して、符号化データ内の予測ブロックの予測として組み合わせ予測を取得するように構成される。
実施形態によれば、ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルの所定のセットにしたがって、複数の拡張参照サンプルを使用するように構成される。複数の拡張参照サンプルは、例えば、識別子によって識別されるエリアインデックスのリストに含まれることができる。
実施形態によれば、ビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化し、画像内予測のために、複数の予測ブロックの予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように拡張参照サンプルを判定し、隣接する予測ブロックがまだ予測されていないことを判定し、予測ブロックに関連付けられ、隣接する予測ブロックに利用不可能なサンプルとして配置された拡張予測サンプルを示す情報を通知するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、予測ブロックに直接隣接する、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、置換サンプルによって利用不可能と判定された最も近い参照サンプルを置換し、画像内予測に置換サンプルを使用するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、画像内予測のために複数のフィルタリングされた拡張参照サンプルを使用するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の最も近い参照サンプルが予測ブロックの第1の画像方向に沿って、および予測ブロックの第2の画像方向に沿って配置され、マッピングされた参照サンプルが第1の画像方向に沿った予測ブロックの拡張を超えるように、第2の方向に沿って配置された最も近い参照サンプルの少なくとも一部を第1の方向に沿って配置された拡張参照サンプルにマッピングし、マッピングされた拡張参照サンプルを予測に使用するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルが少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオデコーダは、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルを使用する場合は、境界フィルタリングを使用せず、または、複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、拡張サンプルに境界フィルタリングを使用しないように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、拡張参照サンプルを使用して予測ブロックの予測を判定し、拡張参照サンプルをフィルタリングして複数のフィルタリングされた拡張参照サンプルを取得し、予測とフィルタリングされた拡張参照サンプルとを結合して予測ブロックの組み合わせ予測を取得するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、予測モードの第2のセットの第2の予測モードを使用して予測ブロックの第2の予測を判定し、予測モードの第2のセットが、第1のセットの予測モードのサブセットを含み、サブセットが、複数の拡張参照サンプルに関連付けられるように構成される。ビデオデコーダは、第1の予測と第2の予測とを加重結合して、符号化データ内の予測ブロックの予測として組み合わせ予測を取得するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を受信し、その後、予測モードに使用される拡張参照サンプルのサブセットを示し、それにより、予測モードが予測モードの第2のセットに含まれることを示すパラメータ情報(i)を受信し、パラメータ情報を受信しない場合、使用された予測モードが予測モードの第2のセットに含まれていないことを判定し、予測のための最も近い参照サンプルの使用を判定するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、予測モードに使用される複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信し、複数の参照サンプルのサブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含み、その後、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を受信し、モード情報がモードのサブセットからの予測モードを示し、サブセットがパラメータ情報(i)にしたがって許可された予測モードのセットに制限されるように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、第2のセットの予測モードの第2の予測モードを使用して予測ブロックの第2の予測を判定し、第1のセットの予測モードのサブセットを含む第2のセットの予測モードが複数の拡張参照サンプルに関連付けられるように構成される。ビデオデコーダは、第1の予測と第2の予測とを結合して、符号化データ内の予測ブロックの予測として組み合わせ予測を取得するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルの所定のセットにしたがって、複数の拡張参照サンプルを使用するように構成される。
実施形態によれば、ビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号するように構成され、各画像について複数の予測ブロックが復号され、画像内予測のために、複数の予測ブロックの予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、予測ブロックに直接隣接する複数の参照サンプルのうち少なくとも1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオデコーダは、複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように拡張参照サンプルを判定し、隣接する予測ブロックがまだ予測されていないことを判定し、予測ブロックに関連付けられ、隣接する予測ブロックに利用不可能なサンプルとして配置された拡張予測サンプルを示す情報を受信するように構成される。
さらなる実施形態は、ビデオを符号化および復号する方法、ならびにコンピュータプログラム製品に関する。
本特許出願の前述の実施形態に関して、全ての実施形態などの前述の実施形態のうちの2つ以上が同時にビデオコーデックに実装されるように、同じものを組み合わせることができることに留意されたい。
さらに、本特許出願の有利な実施形態は、従属請求項の対象であり、本特許出願の好ましい実施形態は、その中の図に関して以下に説明される。
実施形態にかかるデコーダを備える、実施形態にかかるビデオエンコーダの概略ブロック図を示している。 実施形態にかかるビデオストリームを符号化する方法の概略フローチャートを示している。 実施形態で使用される直接隣接する(最も近い)参照サンプルおよび拡張参照サンプルの例を示している。 実施形態にかかる、予測サンプルの4x2ブロックに対する5つの角度の画像内予測角度の例を示している。 実施形態にかかる、予測サンプルの4x2ブロックに対する5つの角度の画像内予測角度の例を示している。 実施形態にかかる、予測サンプルの4x2ブロックに対する5つの角度の画像内予測角度の例を示している。 実施形態にかかる、予測サンプルの4x2ブロックに対する5つの角度の画像内予測角度の例を示している。 実施形態にかかる、予測サンプルの4x2ブロックに対する5つの角度の画像内予測角度の例を示している。 実施形態で使用される角度予測の方向を示すための概略図を示している。 フィルタで使用されるタップの数の依存性の例を説明するための表を示しており、その数は、予測ブロックのブロックサイズおよび予測モードに依存している。 フィルタで使用されるタップの数の依存性の例を説明するための表を示しており、その数は、予測ブロックのブロックサイズおよび予測モードに依存している。 角度パラメータの定義を使用した角度予測に関連する実施形態を示している。 角度パラメータの定義を使用した角度予測に関連する実施形態を示している。 角度パラメータの定義を使用した角度予測に関連する実施形態を示している。 実施形態にかかる参照サンプルのマッピングに関連する垂直オフセットの導出を示している。 実施形態にかかる参照サンプルのマッピングに関連する垂直オフセットの導出を示している。 実施形態にかかる参照サンプルのマッピングに関連する垂直オフセットの導出を示している。 実施形態にかかる水平オフセットの導出を示している。 実施形態にかかる水平オフセットの導出を示している。 実施形態にかかる水平オフセットの導出を示している。 対角左上角の実施形態および実施形態にかかる最も近い参照サンプルの使用を示している。 実施形態にかかる左上対角予測の場合の主参照としての拡張上部参照サンプルの隣のサイド参照としての拡張左参照サンプルの投影例を示している。 実施形態にかかる拡張された上部参照サンプルの隣のサイド参照としての最も近い左参照サンプルの投影例を示している。 実施形態にかかる参照領域の特定のセットのための例示的な切り捨てられた単一コードを示している。 実施形態にかかる使用可能なブロックサイズの概略図を示している。 実施形態にかかる使用可能なブロックサイズの概略図を示している。 予測ブロックの角度が45度の垂直角度予測の実施形態にかかる概略図を示している。 実施形態にかかる対角垂直画像内予測の場合に必要な最も近い参照サンプルおよび拡張参照サンプルの例を示している。 実施形態にかかる対角垂直画像内予測の場合に必要な最も近い参照サンプルおよび拡張参照サンプルの例を示している。
等しいまたは同等の要素または同等または同等の機能を有する要素は、異なる図で発生する場合であっても、同等または同等の参照符号によって以下の説明で示されている。
以下の説明では、本発明の実施形態のより完全な説明を提供するために、複数の詳細が示されている。しかしながら、本発明の実施形態がこれらの特定の詳細なしで実施されることができることは当業者にとって明らかであろう。他の例では、本発明の実施形態を曖昧にすることを回避するために、周知の構造および装置が詳細ではなくブロック図の形態で示されている。さらに、以下に説明する異なる実施形態の特徴は、特に明記しない限り、互いに組み合わせることができる。
ハイブリッドビデオコーディングでは、画像内予測を使用して、利用可能な隣接サンプル、すなわち参照サンプルから予測信号を生成することにより、画像サンプルの領域を符号化する。予測信号は、残差信号を取得するために元の信号から差し引かれる。この残差信号または予測誤差は、例えば、画像内予測ブロック1001を備えたハイブリッドビデオエンコーダである実施形態にかかるビデオエンコーダ1000の概略ブロック図を示す図1に示されるように、さらに変換、スケーリング、量子化、およびエントロピー符号化される。ビデオエンコーダ1000は、複数の画像を含む入力ビデオ信号1002を受信するように構成され、画像のシーケンスがビデオを形成する。ビデオエンコーダ1000は、信号1002をサンプルの領域に分割するように、すなわち、入力ビデオ信号1002からブロックを形成するように構成されたブロック1004を備える。ビデオエンコーダ1000のコントローラ1006は、ブロック1004を制御し、エンコーダ1000の一部とすることができるデコーダ1008を制御するように構成される。出力ビットストリーム1012および生成された出力ビデオ信号1014、すなわち符号化データを受信および復号するデコーダは、それに応じて実装されることができる。特に、ブロック1004によってブロックに分割された入力ビデオ信号1002である信号1022の動き推定のためのブロック1018とともに、変換、スケーリング、および量子化ブロック1016は、出力ビットストリーム1012のエントロピー符号化を可能にするために、量子化された変換係数および動き情報の双方に関する情報を提供することができる。
次に、量子化された変換された係数は、潜在的なループ内フィルタリング操作の前に、再構築された残差信号を生成するためにスケーリングおよび逆変換される。この信号を予測信号に再度追加して、デコーダでも利用可能な再構成を取得することができる。再構成された信号を使用して、同じ画像内のコーディング順序で後続のサンプルを予測することができる。
画像内予測の詳細は、図2を参照されたい。まず、予測に使用される参照サンプルは、再構成されたサンプルに基づいてブロック1042で生成される。この段階はまた、例えば、画像、スライスまたはタイルの境界で利用不可能な隣接するサンプルの置換も含む。第2に、ブロック1044において、参照サンプルをフィルタリングして、参照信号の不連続性を排除することができる。第3に、ブロック1046において、予測サンプルは、イントラ予測モードにしたがって参照サンプルを使用して計算される。予測モードは、例えば、DCモードでそれらを平均化するかまたは角度予測モードで1つの予測角度に沿ってそれらをコピーすることにより、参照サンプルから予測信号がどのように生成されるかを記述する。エンコーダは、選択するイントラ予測モードを判定する必要があり、選択されたイントラ予測モードは、デコーダへのエントロピーコーディングによってビットストリームで通知される。デコーダ側では、エントロピー復号によってビットストリームからイントラ予測モードが抽出される。第4に、そしておそらく最後に、ブロック1048において、予測サンプルはまた、信号を平滑化するためにフィルタリングされることができる。換言すれば、図2は、画像内予測プロセスまたは方法のフローチャートを示している。一般に、画像内のサンプル間の相関は、距離が長くなるにつれて減少する。したがって、直接隣接するサンプルは、一般に、サンプルの面積を予測するための参照サンプルとして適している。しかしながら、直接隣接する参照サンプルが均一な領域(オクルージョン)内のエッジまたはオブジェクトを表す場合がある。これらの場合、予測するサンプル(均一またはテクスチャ領域)と直接隣接する参照サンプル(エッジ)との間の相関は低くなる。拡張参照画像内予測は、直接隣接していないより離れた参照サンプルを組み込むことにより、この問題を解決する。最も近い参照サンプルを拡張するという概念は知られているが、画像内予測プロセスおよび通知の全ての部分に対するいくつかの新規の改善が、本発明の実施形態で定義され、以下に説明される。
拡張参照画像内予測は、拡張参照サンプルを使用してサンプル領域の予測信号を生成することを可能にする。拡張参照サンプルは、直接隣接していない利用可能な参照サンプルである。以下では、実施形態にかかる拡張参照サンプルを使用する改善された参照サンプル生成、フィルタリング、予測、および予測フィルタリングがさらに詳細に説明される。拡張参照サンプルを使用した予測と、直接隣接するサンプルまたはフィルタリングされていない参照サンプルを使用した予測とを組み合わせる特殊なケースについては、後に説明する。その後、拡張参照サンプルの予測モードおよび拡張参照領域通知を改善するために、実施形態にかかる様々な方法が説明される。さらに、拡張参照サンプルを用いた並列符号化を容易にするための実施形態が説明される。
参照サンプルの生成のために、現在のビデオコーディング標準は、直接隣接するサンプルを使用して現在のブロックを予測する。文献では、最も近い直接隣接するサンプルに加えて、複数の参照線を使用することが提案された。画像内予測で使用される追加の参照ラインは、以下において詳細に拡張参照サンプルとさらに呼ばれる。その後、実施形態にかかる、利用不可能な拡張参照サンプルを置換するための改善された方法が説明される。
予測される16×8ブロックの最も近い参照サンプルラインおよび3つの拡張参照サンプルラインを示す例が、直接隣接する(最も近い)参照サンプル1062および拡張参照サンプル1064、1064および1064の例を示す図3に示されている。
最も近い参照サンプル1062および拡張参照サンプル1064、1064および1064は、予測される予測ブロック1066に隣接して配置され、画像の2つの方向、すなわち方向x、および方向xに垂直に配置される方向yに沿って配置される。方向xに沿って、予測ブロックは、0からW−1の範囲のサンプルを持つ拡張Wを含む。方向yに沿って、予測ブロックは、0からH−1の範囲のサンプルを持つ拡張Hを含む。
インデックスiを有する参照領域は、それぞれの参照サンプル、すなわち、インデックスi=0を有する最も近い参照サンプル、すなわち、直接隣接して配置され、拡張参照サンプルが少なくとも最も近い参照サンプル1062によって予測ブロック1066から離間している参照サンプル間の距離を示すことができる。例えば、参照領域インデックスiは、予測ブロック1066とそれぞれの参照サンプル1062または1064との間の距離の延長を示すことができる。例として、方向xに沿ってパラメータxを増加させることは、右に移動することと呼ぶことができ、逆に、xを減少させることは、左に移動することと呼ぶことができる。
あるいは、またはさらに、負の方向yに沿ってインデックスiを減少させることは、画像の上方または上部に向かって移動することと呼ぶことができ、パラメータyの増加に伴い、画像の下方または下部に向かって移動することが示されることができる。上、下、左および右のような用語は、本発明の理解を単純化するために使用される。他の実施形態によれば、そのような用語は、本実施形態の範囲を限定することなく、変形、変更、または他の任意の方向に置き換えることができる。例として、予測ブロックから左に配置されている、すなわちx<0を有する参照サンプル1062および/または1064は、左参照サンプルと呼ぶことができる。予測ブロック1066の左上端が位置0,0を有すると仮定して、<0を有するように配置された参照サンプル1062および/または1064は、上部参照サンプルと呼ぶことができる。識別されている参照サンプル、左側の参照サンプル、および上部の参照サンプルは、隅参照サンプルと呼ぶことができる。したがって、x方向に沿って拡張Wを超える参照サンプルは、右参照サンプルと呼ぶことができ、予測ブロック1066の拡張Hを超える参照サンプルは、下部参照サンプルと呼ぶことができる。
予測に使用する参照サンプルを示すために、参照サンプルの各ラインは、参照領域インデックスiに関連付けられている。最も近い参照サンプルには、インデックスi=0、拡張参照サンプルの次のラインi=1などが与えられる。図3の表記を使用すると、上の参照サンプルは、xが0からMの範囲で
Figure 2021530160
で記述でき、左の参照サンプルは、yが0からNの範囲で
Figure 2021530160
で記述できる。参照サンプルの水平方向の延長の場合のパラメータMと垂直方向の延長の場合のパラメータNは、画像内予測に依存する。例えば、図4eに関連して説明するように、右上の対角予測を時計回りの最大角度として使用する場合、上部の参照サンプルは、水平方向に
Figure 2021530160
サンプルを拡張する必要がある。例えば図4aで説明するように、左下の対角予測を反時計回りの最大角度として使用する場合、左の参照サンプルは、垂直方向に
Figure 2021530160
サンプルを拡張する必要がある。図3のように、Wは予測ブロックの幅を表し、Hは高さを表す。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、ブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化するように構成されることができ、ブロックベースの予測符号化は、画像内予測を含む。ビデオエンコーダは、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用することができ、複数の拡張参照サンプルの各拡張参照サンプルは、少なくとも予測ブロックに直接隣接する、複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオエンコーダは、複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定することができ、置換サンプルによって利用できないと判定される最も近い参照サンプルを置き換えることができる。ビデオエンコーダは、画像内予測のために置換サンプルを使用することができる。
利用可能性または利用不可能性を判定するために、ビデオエンコーダは、シーケンスにしたがってサンプルを順次チェックし、シーケンスで利用可能であると判定される最後の拡張参照サンプルのコピーとして置換サンプルを判定することができ、および/または次の拡張参照サンプルがシーケンスで利用可能であると判定されるコピーとして置換サンプルを判定することができる。
ビデオエンコーダは、さらに、シーケンスにしたがって順次利用可能性または利用不可能性を判定し、利用可能であると判定され且つ参照サンプルが利用不可能であると判定され、拡張参照サンプルが利用可能であると判定される前にシーケンスに配置され、参照サンプルが利用不可能であると判定された後、順番に配置される拡張参照サンプルの組み合わせに基づいて置換サンプルを判定することができる。
あるいは、またはさらに、ビデオエンコーダは、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定するように構成されることができる。ビデオエンコーダは、複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上である場合に、複数の拡張参照サンプルの使用を通知することができ、複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値を下回る場合、複数の拡張参照サンプルの使用の通知をスキップすることができる。
したがって、ビデオデコーダ1008またはビデオストリームを再び生成するためのビデオデコーダなどのそれぞれのデコーダは、画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定するように構成されることができる。ビデオデコーダは、置換サンプルによって利用不可能と判定された拡張参照サンプルを置換し、画像内予測のために置換サンプルを使用することができる。
ビデオデコーダは、さらに、シーケンスにしたがって順番に利用可能性または利用不可能性を判定し、置換サンプルを、シーケンスで利用可能であると判定された最後の拡張参照サンプルのコピーとして判定し、および/または置換サンプルを、次の拡張参照サンプルがシーケンスで利用可能であると判定されるコピーとして判定するように構成されることができる。
さらに、ビデオデコーダは、シーケンスにしたがって順番に利用可能性または利用不可能性を判定し、参照サンプルが利用可能であると判定され且つ参照サンプルが利用不可能であると判定され、拡張参照サンプルが利用可能であると判定される前にシーケンスに配置され、参照サンプルが利用不可能であると判定された後、順番に配置される拡張参照サンプルの組み合わせに基づいて置換サンプルを判定するように構成されることができる。
ビデオデコーダは、代替的に、またはさらに、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定し、複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上であり、複数の拡張参照サンプルの使用である場合に、複数の拡張参照サンプルの使用を示す受信情報を通知し、情報がない場合、すなわち、複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値を下回る場合、複数の拡張参照サンプルの使用をスキップするように構成されることができる。
隣接する参照サンプルが利用できない場合、実施形態によれば、拡張参照サンプル置換を実行することができる。例えば、利用不可能なサンプルは、利用可能な最も近い隣接サンプル、最も近い2つの組み合わせ、または利用可能な隣接サンプルがない場合に例えば2bitdepth−1などの所定の値によって置き換えることができる。例えば、それらが画像、スライス、またはタイルの境界の外側にある場合、または画像内予測領域の参照として画像間予測領域からのサンプルを使用することを許可しない制約付き内部予測が使用される場合、参照サンプルは利用不可能である。
例えば、予測される現在のブロックが左側の画像境界にある場合、左および左上隅の参照サンプルは利用不可能である。この場合、左および左上隅の参照サンプルは、最初に利用可能な上参照サンプルに置き換えられる。この最初に利用可能な上参照サンプルは、最初のサンプル、すなわち
Figure 2021530160
である場合、最も近い(i=0)および拡張(i>0)参照サンプルの置換は、以下のように定式化されることができる。
Figure 2021530160
Figure 2021530160
パラメータiは、エンコーダ/デコーダシステム内で0よりも大きい任意の最大値、例えば、5以上または10以上などの1、2、3、4以上とすることができる。
制約付きイントラ予測を使用すると、画像間予測を使用して符号化されているため、1つ以上の隣接ブロックが使用できない場合がある。例えば、左側のHサンプル
Figure 2021530160

Figure 2021530160
は、画像間予測ブロック内にあり、制約付きイントラ予測が有効になっているため利用不可能である。
一実施形態では、各参照サンプルの利用可能性チェックプロセスは、順次、例えば、左下から右上へ、またはその逆に行われ、この方向に沿って利用できない最初のサンプルは、利用可能な最後のサンプルに置き換えられる。以前に利用可能なサンプルがない場合、利用不可能なサンプルは、次に利用可能なサンプルに置き換えられる。右下から開始する実施形態では、W右下のサンプル
Figure 2021530160

Figure 2021530160
が利用可能である。したがって、左側のサンプルは、以下のように置き換えられる。
Figure 2021530160
別の実施形態では、利用可能な参照サンプル間の利用不可能な参照サンプルは、各側から1つずつ、2つの最も近いサンプル間を線形補間することによって生成されることができる。
拡張参照領域サンプルのほとんどが利用できないと判定された場合、拡張参照サンプルを使用しても、最も近い参照サンプルを使用した場合と比較して何のメリットもない。したがって、参照領域インデックスの通知を保存することができ、その通知は、拡張参照サンプルの少なくとも半分が使用可能なブロックに制限することができる。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、画像内予測のために複数のフィルタリングされた拡張参照サンプルを使用するように構成されることができる。
この実施形態にかかるビデオエンコーダは、複数のフィルタリングされた拡張参照サンプルを複数のフィルタリングされていない拡張参照サンプルと組み合わせて、複数の組み合わされた参照値を取得するように構成されることができ、ビデオエンコーダは、画像内予測の複数の組み合わされた参照値を使用するように構成される。
あるいは、またはさらに、ビデオエンコーダは、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して、複数の拡張参照サンプルをフィルタリングするように構成されることができる。
ビデオエンコーダは、さらに、角度予測モードを使用して予測ブロックを予測することを選択するように構成されることができ、3タップフィルタ、5タップフィルタ、および7タップフィルタは、バイラテラルフィルタとして構成され、ビデオエンコーダは、角度予測に使用される角度に基づいて、3タップフィルタ、5タップフィルタ、および7タップフィルタのいずれかを使用するように選択するように構成され、角度は、角度予測モードの水平方向または垂直方向の間に配置され、および/またはビデオデコーダは、予測ブロックのブロックサイズに基づいて、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用するように選択するように構成される。図4fに示されるように、角度εは、予測ブロック1066の水平境界1072および/または垂直境界1074に関して予測ブロック1066を予測するために使用され、水平方向と垂直方向の間の対角1076に向かって測定される角度予測の方向の角度を表すことができる。すなわち、角度予測の角度は最大で45°である。角度εが大きくなると、フィルタで使用できるタップの数が増える。あるいは、またはさらに、ブロックサイズは、フィルタを選択するための基礎または依存関係を定義することができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、画像内予測のために複数のフィルタリングされた拡張参照サンプルを使用するように構成されることができる。
ビデオデコーダは、さらに、複数のフィルタリングされた拡張参照サンプルを複数のフィルタリングされていない拡張参照サンプルと組み合わせて、複数の組み合わされた参照値を取得するように構成されることができ、ビデオデコーダは、画像内予測のために複数の組み合わされた参照値を使用するように構成される。
あるいは、またはさらに、ビデオデコーダは、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して、複数の拡張参照サンプルをフィルタリングするように構成されることができる。エンコーダについて説明したように、3タップフィルタ、5タップフィルタ、および7タップフィルタは、バイラテラルフィルタとして構成され、ビデオデコーダは、角度予測モードを使用して予測ブロックを予測し、角度予測に使用される角度に基づいて、3タップフィルタ、5タップフィルタ、および7タップフィルタのいずれかを使用するように選択するように構成され、角度は、角度予測モードの水平方向または垂直方向の間に配置され、および/またはビデオデコーダは、予測ブロックのブロックサイズに基づいて、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用するように選択するように構成される。
例えば、バイラテラルフィルタの代わりに、3タップFIRフィルタを使用することができる。これは、(バイラテラルフィルタを使用しない場合であっても)最も近い参照サンプルのみをフィルタ処理し、拡張参照サンプルをフィルタ処理しないままにすることを可能にする。
サンプル領域が大きい場合、参照サンプルに不連続性が発生し、予測が歪む可能性がある。これに対する最先端の解決策は、参照サンプルに線形平滑化フィルタを適用することである。例えば所定の閾値と比較することによって検出することができる不連続性の場合、強力な平滑化を適用することができる。これは、通常、隅参照サンプル間を補間することによって参照サンプルを生成する。
しかしながら、線形平滑化フィルタは、保存する必要のあるエッジ構造を削除することもできる。参照サンプルフィルタリングの実施形態にしたがって拡張参照サンプルにバイラテラルフィルタを適用することにより、鋭いエッジの望ましくない平滑化を防ぐことができる。バイラテラルフィルタリングは、正確な水平方向と正確な垂直方向から逸脱する大きなブロックとイントラ予測角度に対してより効率的であるため、フィルタを適用するかどうかとフィルタの長さの判定は、ブロックサイズおよび/または予測モードに依存することができる。一例の設計は、W×Hに関して64×64よりも小さく64×64以上のブロックサイズの依存関係を示す図4gに示すように依存関係を組み込むことができ、図4hは、W×Hに関して64×64よりも小さく且つ64×64以上のブロックサイズの異なる依存関係を示す。図4gの実施形態では、画像内予測モードは、例えば、平面モード、DCモード、ほぼ水平モード、ほぼ垂直モード、または角度モードの異なる角度のうちの1つとすることができる。図4hの実施形態では、より遠い水平およびより遠い垂直として識別される角度をさらに選択することができ、例えば、ほぼ水平またはほぼ垂直と比較した場合、図4fに示す角度εの値が大きい。見られるように、より大きなブロックサイズは、より多くの量のデータのフィルタリングを容易にするために、より多くのタップ数をもたらすことができ、さらに、εの増加はまた、タップの増加をもたらすことができる。図4hによれば、実施形態は、ほぼ水平およびほぼ垂直モードに小さな3タップフィルタを適用し、水平および垂直方向からの距離が増加するにつれてフィルタ長を増加させることができる。予測モードとブロックサイズの双方に依存するものとして示されているが、フィルタの選択または少なくともタップの数は、代わりに、双方の一方および/または追加のパラメータのみに依存することができる。
参照サンプルフィルタリングの別の実施形態では、フィルタリングされた参照サンプルを使用する画像内予測は、位置依存予測の組み合わせに関連して説明されるように、位置依存の重み付けを使用してフィルタリングされていない参照サンプルと組み合わせることができる。この場合、フィルタ処理された参照サンプルを使用する予測の参照サンプルは、非結合予測の場合とは異なる参照サンプルフィルタリングを使用することができる。例えば、フィルタリングは、3タップ、5タップ、および7タップのフィルタのセットから選択することができる。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の最も近い参照サンプルが予測ブロックの第1の画像方向に沿って、および予測ブロックの第2の画像方向に沿って配置され、マッピングされた参照サンプルが第1の画像方向に沿った予測ブロックの拡張を超えるように、第2の方向に沿って配置された最も近い参照サンプルの少なくとも一部を第1の方向に沿って配置された拡張参照サンプルにマッピングし、マッピングされた拡張参照サンプルを予測に使用するように構成されることができる。
ビデオエンコーダは、さらに、予測ブロックを予測するために使用される予測モードにしたがって、最も近い参照サンプルの部分をマッピングするように構成されることができる。ビデオエンコーダは、予測ブロックを予測するための予測モードで使用される方向にしたがって、最も近い参照サンプルの部分をマッピングするように構成されることができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の最も近い参照サンプルが予測ブロックの第1の画像方向に沿って、および予測ブロックの第2の画像方向に沿って配置され、
マッピングされた参照サンプルが第1の画像方向に沿った予測ブロックの拡張を超えるように、第2の方向に沿って配置された最も近い参照サンプルの少なくとも一部を第1の方向に沿って配置された拡張参照サンプルにマッピングし、マッピングされた拡張参照サンプルを予測に使用するように構成されることができる。
ビデオデコーダは、予測ブロックを予測するために使用される予測モードにしたがって、最も近い参照サンプルの部分をマッピングするように構成されることができる。ビデオデコーダは、予測ブロックを予測するための予測モードで使用される方向にしたがって、最も近い参照サンプルの部分をマッピングするように構成されることができる。
原則として、直接隣接する参照サンプルを使用する全ての画像内予測は、拡張参照サンプルを使用するように適合させることができる。文献では、以下の3つの予測が採用されている。
・平面
・DC
・角度
以下では、本発明の実施形態を説明するために、拡張参照サンプルについて各予測を詳細に説明する。
平面予測は、図3に示す境界からのW×H予測サンプルの双一次内挿である。右と下の境界はまだ再構築されていないため、右の境界サンプルは、右上隅のサンプル
Figure 2021530160
と等しく設定され、下の境界サンプルは、左下隅のサンプル
Figure 2021530160
と等しく設定される。
Figure 2021530160
Figure 2021530160
Figure 2021530160
拡張参照サンプルの場合、垂直方向および水平方向の予測
Figure 2021530160
および
Figure 2021530160
は、参照領域のインデックスiに依存する。
Figure 2021530160
Figure 2021530160
拡張参照サンプルを改善するための一実施形態は、以下のように、垂直および水平予測
Figure 2021530160
および
Figure 2021530160
において、最も近い右上隅サンプル
Figure 2021530160
および最も近い左下隅サンプル
Figure 2021530160
を使用することである。
Figure 2021530160
Figure 2021530160
別の実施形態は、距離に依存する重み付けとともに、水平および垂直の予測に隅参照サンプルを含めることを定義する。拡張された参照領域が遠くなるほど、すなわちパラメータiが大きくなるほど、予測に使用できる左上隅のサンプルが多くなる。i=0の場合、1つのサンプル
Figure 2021530160
、すなわち予測ブロックに隣接するか距離0であり、i>0の場合、i個の垂直隅サンプル
Figure 2021530160

Figure 2021530160
、i個の水平隅サンプル
Figure 2021530160

Figure 2021530160
と隅サンプル
Figure 2021530160
が存在する。実施形態にかかる1つの実施形態は、水平および垂直隅サンプル(双方とも隅サンプルを含む)を平均し、以下のように、垂直および水平予測においてそれを
Figure 2021530160
および
Figure 2021530160
による距離依存の重み付けとともに含む。
Figure 2021530160
Figure 2021530160
Figure 2021530160
Figure 2021530160
別の実施形態は、最も近い右上のサンプル、最も近い左下のサンプル、および拡張隅サンプルを使用する2つの前の実施形態の組み合わせである。
DC予測は、参照サンプル値DCの平均を計算し、W×Hブロック内の全ての予測サンプル
Figure 2021530160
を平均に等しく設定する。
Figure 2021530160
平均値DCの場合、予測ブロックの左側にNサンプル、右側にMサンプルのみを使用することができ、Nは高さHに設定することができ、Mは幅Wに設定することができる。
Figure 2021530160
拡張参照サンプルの場合、平均値DCは、参照領域インデックスiに依存する。
Figure 2021530160
一実施形態では、予測ブロックの左上にある隅サンプルも平均で使用することができる。
Figure 2021530160
角度予測は、指定された方向または角度に沿って予測サンプルを導出することにより、予測サンプルを計算する。最も単純な予測方向は、予測サンプルの4×2ブロックの5つの角度の画像内予測角度の例を示す図4aから図4eに示されている水平、垂直、および3つの対角線である。各方向に沿った参照サンプルは、常に完全な(整数の)サンプル位置を指していることがわかる。文献に記載されている拡張参照サンプル(緑色)の変更は容易であり、方向を拡張するだけである。予測サンプルのブロックのサイズは、4×2であるが、角度内予測は、任意のブロックサイズに拡張することができる。
実施形態によれば、方向が非整数サンプル位置を指すことができるように、より細かい予測角度粒度を使用することができる。これらは、最も近い整数のサンプル位置を使用した補間によって生成することができる。内挿は、単純な双一次フィルタまたはより高度なフィルタ、例えば3次またはガウス4タップフィルタを使用して実行することができる。
水平と垂直の間の予測角度、例えば対角線の左上の角度とその間の全ての角度の場合、左と上からの参照サンプルを使用して予測が生成される。そのような生成を容易にするために、参照サンプル投影を使用することができる。対角線の左上と垂直の間の全ての頂角について、上部の参照サンプルを主参照として表示し、左側のサンプルを副参照として表示することができる。左上の水平線と対角線の間の全ての水平角について、左側の参照サンプルを主参照として表示し、上部の参照サンプルを副参照として表示することができる。計算を単純化するために、すなわち、主参照サンプル計算と副参照サンプル計算とを切り替えないために、副参照サンプルは、主参照サンプルのラインを延長するために予測角度に沿って投影される。上部の主参照の左側
Figure 2021530160
または左側の主参照の上の各参照サンプル
Figure 2021530160
は、逆予測角度にしたがって、対応する副参照サンプルに投影される。予測角度に応じて、投影はサブサンプル位置を指すことができる。
図5aから図5cは、左上の対角予測角度および他の2つの垂直角度についての1/32サンプル精度で与えられる角度パラメータAの定義を使用する角度予測に関連する実施形態を示している。以下の実施形態は、1/32のサンプル精度および垂直対左上対角線の間の垂直予測角度を想定しており、他の任意の値を実装することができる。33個の予測角度範囲は、図5aから図5cに示すように、0(垂直)から32(左上の対角線)の範囲の角度パラメータ
Figure 2021530160
で表すことができる。Aは、32サンプルなどの所与の第1の画像拡張に対する第2の画像方向に沿った距離と呼ぶことができる。図5aでは、Aは32サンプル、すなわち32であり、Aに垂直な画像方向に沿った32サンプルの画像拡張に基づいて45°の角度になる。図5bでは、A=17、図5cでは、A=1である。
角度パラメータ
Figure 2021530160
に基づいて、各主参照サンプル
Figure 2021530160
の左側の参照列への垂直オフセット
Figure 2021530160
は、以下のように計算されることができる:
Figure 2021530160
Figure 2021530160
Figure 2021530160
パラメータ
Figure 2021530160
に基づく垂直オフセット
Figure 2021530160
と最大水平オフセット
Figure 2021530160
の導出を図6aから図6cおよび図7aから図7cに示し、図6aから図6cは、図5aから図5cにかかる、A=32、17、1の左上の水平予測角度の水平変位xが与えられた場合の垂直オフセットの計算を示している。
図7aから図7cは、A=32、17、1の左上の水平予測角度の予測ブロックの高さ
Figure 2021530160
が与えられた場合の最大水平オフセット
Figure 2021530160
の計算を示している。
この実施形態では、垂直オフセットを丸めることにより、サブサンプル位置の代わりに最も近い整数参照サンプルが使用される。これは、計算を容易にする。しかしながら、補間されたサブサンプル側の参照サンプルを投影することもできる。
図8は、対角左上角(
Figure 2021530160
)と最も近い参照サンプルの実施形態を示している。高さが8サンプル(
Figure 2021530160
)の場合、4つ(
Figure 2021530160
)の左参照サンプルを対角線方向に投影して、主参照サンプルライン、すなわち最も近い上部参照サンプルを延長することができることがわかる。実施形態によれば、図示されたサイズの画像、ブロック、スライスなどは、例としてのみ与えられ、他の任意の値を含むことができる。
図8は、実施形態にかかる、角度パラメータA=17で左上水平方向の場合の主参照としての最も近い上部参照サンプルの隣のサイド参照としての最も近い左参照サンプルの投影例を示している。
参照領域インデックスiの拡張参照サンプルの場合、投影は、以下のように適合させることができる:
Figure 2021530160
Figure 2021530160
Figure 2021530160
図9は、
Figure 2021530160
を用いた延長基準線を用いた、対角左上角(
Figure 2021530160
)および高さ8サンプル(
Figure 2021530160
)の実施形態を示している。ここでは、2つの(
Figure 2021530160
)左参照サンプルを対角線方向に投影して、主参照サンプルライン、すなわち最も近い上部参照サンプルを延長することができる。
図9は、実施形態にかかる、角度パラメータA=17での左上対角予測の場合の主参照としての拡張上部参照サンプルの隣の副参照としての拡張左参照サンプルの投影例を示している。
左と上からの参照サンプルを使用する場合、拡張参照サンプルは、最も近い参照サンプルと拡張参照サンプルとを組み合わせることを可能にする。図9からの単純なアプローチのこの実施形態は、主方向、すなわち主参照に沿った拡張参照サンプルを利用することを可能にし、参照サンプルのより長い距離は、最も近い参照サンプル上の閉塞またはエッジの場合に有益である可能性がある。しかしながら、副参照の場合、予測されるサンプルと最も近い参照サンプルの間の相関は、拡張参照サンプルと予測されるサンプルの間よりも高くなる可能性がある。
例えば、拡張された主参照サンプル
Figure 2021530160
を最も近い副参照サンプル
Figure 2021530160
と組み合わせる1つの方法は、以下のように定式化することができる:
Figure 2021530160
Figure 2021530160
Figure 2021530160
Figure 2021530160
この組み合わせは、前の図に関連して説明したのと同じ実施形態に基づいて図10に示されている。ここで、ラインに配置された拡張参照サンプル1064は、予測方向(垂直)内の主参照サンプル(上)に使用され、列に配置された最も近い参照サンプル1062は、主参照サンプルラインを延長するための、予測方向に沿った拡張参照サンプルライン(一番上の行)に投影される副参照サンプルに使用されることができる。
図10は、角度パラメータA=17を使用した左上対角予測の場合の、主参照としての拡張上部参照サンプルの隣の副参照としての最も近い左側参照サンプルの投影例を示している。図10の実施形態によれば、最も近い参照サンプルは、拡張参照サンプルを生成するためのソースとして使用される、すなわち、最も近い参照サンプルは、拡張参照サンプルにマッピングされる。あるいは、拡張参照サンプルを拡張参照サンプルにマッピングすることもできる。図9を参照されたい。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用するように構成されることができ、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオデコーダは、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルを使用する場合は、境界フィルタリングを使用せず、または、複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、拡張サンプルに境界フィルタリングを使用しないように構成される。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用するように構成され、複数の拡張参照サンプルの各拡張参照サンプルが少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離される。ビデオデコーダは、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルを使用する場合は、境界フィルタリングを使用せず、または、複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、拡張サンプルに境界フィルタリングを使用しないように構成される。
拡張参照サンプルは、予測サンプルに直接隣接していないため、特定のブロック境界での不連続性は、最も近い参照サンプルを使用した場合ほど深刻ではない可能性がある。したがって、以下にしたがって予測フィルタリングを実行することは有益である:
・拡張参照サンプルが使用されている場合、境界フィルタリング操作を実行しない、または
・拡張参照サンプルの代わりに最も近い参照サンプルを使用して、境界平滑化を変更する。
拡張予測を使用すると、最も近い参照サンプルと拡張参照サンプルからの予測を組み合わせて、組み合わせた予測を取得することができる。文献では、最も近い参照サンプルを使用する予測と、所定の重みを有する拡張参照サンプルを使用する予測との固定された組み合わせが説明されている。この場合、双方の予測は、全ての参照領域に同じ予測モードを使用し、モードを通知すると、予測の組み合わせも通知される。一方、これは、参照サンプル領域を示すための通知オーバーヘッドを削減するが、2つの異なる予測モードを2つの異なる参照サンプル領域と組み合わせる柔軟性も失われる。柔軟性を高めるために考えられる組み合わせについて、以下に詳細に説明する。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測において、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、拡張参照サンプルを使用して予測ブロックの予測を判定し、拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得するように構成されることができる。ビデオエンコーダは、予測ブロックの組み合わせ予測を取得するために、予測とフィルタリングされた拡張参照サンプルとを結合するように構成される。
ビデオエンコーダは、予測ブロックに関してサンプルの主対角線または副対角線に配置されている予測サンプルと拡張参照サンプルとを組み合わせるように構成されることができる。
ビデオエンコーダは、以下の判定ルールに基づいて予測サンプルと拡張参照サンプルとを組み合わせるように構成されることができる:
Figure 2021530160
ここで、p(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
Figure 2021530160
は、予測重みであり、dは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、r(x,−1−i)i>0は、水平位置xでの拡張された上部参照サンプルであり、r(−1−i,y)i>0は、垂直位置yでの拡張された左側の参照サンプルであり、r(−1−i,−1−i)i>0は、予測ブロックの境界に関する複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
正規化係数は、判定ルールに基づいて判定されることができる。
Figure 2021530160
ビデオエンコーダは、3タップフィルタ、5タップフィルタ、7タップフィルタのいずれかを使用して、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得するように、拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプルを予測に使用するように構成されることができる。
ビデオエンコーダは、予測ブロックの拡張隅参照サンプルと、参照サンプルの隅領域に配置された拡張参照サンプル(r(−1−i,−1−i))との組み合わせを使用するように構成されることができる。
ビデオエンコーダは、以下の判定ルールに基づいて組み合わされた予測を取得するように構成されることができる:
Figure 2021530160
ここで、p(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
Figure 2021530160
は、予測重みであり、dは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
Figure 2021530160
は、予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
ビデオエンコーダは、画像内予測に基づいて予測p(x,y)を取得するように構成されることができる。
ビデオエンコーダは、画像内予測として平面予測のみを使用するように構成されることができる。
ビデオエンコーダは、符号化されたビデオブロックごとに、予測とフィルタリングされた拡張参照サンプルとの組み合わせを識別するパラメータセットを判定するように構成されることができる。ビデオエンコーダは、予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、予測とフィルタリングされた拡張参照サンプルとの組み合わせを識別するパラメータセットを判定するように構成されることができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、拡張参照サンプルを使用して予測ブロックの予測を判定し、拡張参照サンプルをフィルタリングして複数のフィルタリングされた拡張参照サンプルを取得し、予測とフィルタリングされた拡張参照サンプルとを結合して予測ブロックの組み合わせ予測を取得するように構成されることができる。
ビデオデコーダは、予測ブロックに関してサンプルの主対角線または副対角線に配置されている予測サンプルと拡張参照サンプルとを組み合わせるように構成されることができる。
ビデオエンコーダは、以下の判定ルールに基づいて予測サンプルと拡張参照サンプルとを組み合わせるように構成されることができる:
Figure 2021530160
ここで、p(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
Figure 2021530160
は、予測重みであり、dは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、r(x,−1−i)i>0は、水平位置xでの拡張された上部参照サンプルであり、r(−1−i,y)i>0は、垂直位置yでの拡張された左側の参照サンプルであり、r(−1−i,−1−i)i>0は、予測ブロックの境界に関する複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
正規化係数は、判定ルールに基づいて判定されることができる。
Figure 2021530160
ビデオデコーダは、3タップフィルタ、5タップフィルタ、7タップフィルタのいずれかを使用して、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得するように、拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプルを予測に使用するように構成されることができる。
ビデオデコーダは、予測ブロックの拡張隅参照サンプルと、参照サンプル(r(−1−i,−1−i))の隅領域に配置されている拡張参照サンプルとの組み合わせを使用するように構成されることができる。
ビデオデコーダは、以下の判定ルールに基づいて組み合わされた予測を取得するように構成されることができる:
Figure 2021530160
ここで、p(x,y)は、予測ブロック内の座標xとyの組み合わせ予測を示し、p(x,y)は、予測ブロック内の座標xとyの予測を示し、
Figure 2021530160
は、予測重みであり、dは、次元xの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
Figure 2021530160
は、予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す。
ビデオデコーダは、画像内予測に基づいて予測p(x,y)を取得するように構成されることができる。ビデオデコーダは、例えば、画像内予測として平面予測のみを使用することができる。
ビデオエンコーダは、復号されたビデオブロックごとに、予測とフィルタリングされた拡張参照サンプルとの組み合わせを識別するパラメータセットを判定するように構成されることができる。
ビデオデコーダは、予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、予測とフィルタリングされた拡張参照サンプルとの組み合わせを識別するパラメータセットを判定するように構成されることができる。
参照サンプルをフィルタリングする場合、それぞれのサンプルの位置に基づいて、フィルタリングされたサンプルを使用する予測をフィルタリングされていない参照サンプルと組み合わせて、位置に依存する予測の組み合わせを取得することができる。例示的な実施形態によれば、
Figure 2021530160
をフィルタリングされた参照サンプルを使用する予測とし、
Figure 2021530160
をフィルタリングされていない参照サンプルとする。組み合わせ予測
Figure 2021530160
は、以下のように計算されることができる:
Figure 2021530160
係数
Figure 2021530160
は、位置に依存する項でスケーリングされた予測重みを記憶し、幅が16以下のブロックの場合は
Figure 2021530160
であり、幅が16よりも大きいブロックの場合は
Figure 2021530160
であり、高さが16以下のブロックの場合は
Figure 2021530160
であり、および高さが16を超えるブロックの場合は
Figure 2021530160
である。正規化係数
Figure 2021530160
は、以下のように導出することができる:
Figure 2021530160
参照サンプルフィルタリングに関連して既に説明したように、この組み合わせの参照サンプルフィルタリングは、通常の予測のフィルタリングとは異なる場合がある。例えば、3つ以下またはそれ以上の所定のローパスフィルタのうちの1つを使用して、境界サンプルを平滑化することができる。3つの所定のローパスフィルタは、1つの3タップ、1つの5タップ、および1つの7タップフィルタを含むことができる。平滑化をコンテンツに適合させるために、平滑化フィルタの選択は、ブロックサイズおよびイントラ予測モードに基づくことができる。hをフィルタkのインパルス応答、および追加の保存された重み付けパラメータaとして定義すると、フィルタリングされた参照
Figure 2021530160
は、フィルタ処理されていない参照
Figure 2021530160
から以下のように計算される。ここで、「*」は畳み込みを表す。
Figure 2021530160
異なるブロックサイズの異なる特性を再度考慮すると、ブロックサイズごとに1つの固定セットの予測パラメータ(
Figure 2021530160
、aおよびフィルタインデックスk)を定義することができる。
最も近い参照サンプルのこの既知の組み合わせは、フィルタリングされた参照サンプルおよびフィルタリングされていない参照サンプルに拡張参照サンプルを使用することによって、実施形態によって改善することができる。以下に、実施形態にかかる、拡張参照サンプルを用いた予測の組み合わせを示し、以下のように、最も近い隅サンプルr(−1,−1)を拡張隅サンプル
Figure 2021530160
に置き換えた。
Figure 2021530160
拡張参照サンプルの別の実施形態は、以下のように、最も近い隅サンプルr(−1,−1)を、閉じた拡張垂直隅サンプル
Figure 2021530160
および水平隅サンプル
Figure 2021530160
で置き換えることを指す。
Figure 2021530160

拡張参照サンプルの別の実施形態は、以下のように、最も近い隅サンプルr(−1,−1)を水平および垂直隅サンプル(双方とも隅サンプルを含む)の平均で置き換えることを定義する。
Figure 2021530160
一実施形態では、組み合わされる予測
Figure 2021530160
は、平面予測である。別の実施形態では、この組み合わせは、DCまたは角度などの他の画像内予測にも適用することができる。
あるいは、またはさらに、予測をサンプルと組み合わせるために、異なる拡張予測モードを組み合わせることができる。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、第2のセットの予測モードの第2の予測モードを使用して予測ブロックの第2の予測を判定し、第1のセットの予測モードのサブセットを含む第2のセットの予測モードが複数の拡張参照サンプルに関連付けられるように構成される。ビデオエンコーダは、第1の予測(p(x、y))と第2の予測(p(x、y))とを加重(w;w)結合して、符号化データの予測ブロックの予測として、組み合わせ予測(p(x、y))を取得するように構成されることができる。
ビデオエンコーダは、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、第1の予測および第2の予測を使用するように構成されることができる。
ビデオエンコーダは、他の予測モードを通知せずに、第1の予測モードまたは第2の予測モードのいずれかを通知するように構成されることができる。例えば、第1のモードは、特定のインデックスiまたはインデックスmに関連してのみ使用されることができる特定の予測モードなどの追加の暗黙の情報に基づいてパラメータiから導出されることができる。
ビデオエンコーダは、そのような暗黙の情報の例として、第1の予測モードおよび第2の予測モードの1つとして平面予測モードを排他的に使用するように構成されることができる。
ビデオエンコーダは、予測ブロックのブロックサイズに基づいて、結合予測の第1の予測に適用される第1の重みと、結合予測の第2の予測に適用される第2の重みを適合させ、および/または第1の予測モードに基づいて第1の重みをまたは第2の予測モードに基づいて第2の重みを適合させるように構成されることができる。
ビデオエンコーダは、予測ブロック内の位置および/または距離に基づいて、結合予測の第1の予測に適用される第1の重みと、結合予測の第2の予測に適用される第2の重みとを適合させるように構成されることができる。
ビデオエンコーダは、以下の判定ルールに基づいて第1の重みおよび第2の重みを適応させるように構成されることができる。
Figure 2021530160
ここで、w(x,y)は、予測ブロック内の位置x,yに基づく第1の重みであり、wは、予測ブロック内の位置x,yに基づく第2の重みであり、p(x,y)は、位置x,yの第1の予測であり、p(x,y)は、位置x,yの第2の予測であり、iは、第2の予測に使用される拡張参照サンプルを示す。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、
予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、予測モードの第2のセットの第2の予測モードを使用して予測ブロックの第2の予測を判定し、予測モードの第2のセットが、第1のセットの予測モードのサブセットを含み、サブセットが、複数の拡張参照サンプルに関連付けられるように構成されることができる。ビデオデコーダは、第1の予測(p(x、y))と第2の予測(p(x、y))とを加重(w;w)結合して、符号化データの予測ブロックの予測として、組み合わせ予測(p(x、y))を取得するように構成されることができる。
ビデオデコーダは、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、第1の予測および第2の予測を使用するように構成されることができる。これは、低負荷の通知を取得することを可能にする。
ビデオデコーダは、第1の予測モードを示す信号を受信せずに第2の予測モードを示す信号を受信し、第2の予測モードまたはパラメータ情報(i)から第1の予測モードを導出するように構成されることができる。
ビデオデコーダは、第1の予測モードおよび第2の予測モードの1つとして平面予測モードを排他的に使用するように構成されることができる。
ビデオデコーダは、予測ブロックのブロックサイズに基づいて、結合予測の第1の予測に適用される第1の重みと、結合予測の第2の予測に適用される第2の重みを適合させ、および/または第1の予測モードに基づいて第1の重みをまたは第2の予測モードに基づいて第2の重みを適合させるように構成されることができる。
ビデオデコーダは、予測ブロック内の位置および/または距離に基づいて、結合予測の第1の予測に適用される第1の重みと、結合予測の第2の予測に適用される第2の重みとを適合させるように構成されることができる。
ビデオデコーダは、以下の判定ルールに基づいて第1の重みおよび第2の重みを適応させるように構成されることができる。
Figure 2021530160
ここで、w(x,y)は、予測ブロック内の位置x,yに基づく第1の重みであり、wは、予測ブロック内の位置x,yに基づく第2の重みであり、p(x,y)は、位置x,yの第1の予測であり、p(x,y)は、位置x,yの第2の予測であり、iは、第2の予測に使用される拡張参照サンプルを示す。予測ブロック内の変化する位置x,yについて、拡張参照サンプルiは、変化する距離を含むことができる。あるいは、またはさらに、エリアインデックスiおよび/またはモードmによって示される、所定の拡張参照サンプルの異なるセットは、予測ブロックまでの異なる距離を含むことができる。
異なる参照サンプル領域を使用する場合、以下のように、最も近い参照サンプルモードを使用した予測
Figure 2021530160
と拡張参照サンプルiを使用した予測
Figure 2021530160
とを組み合わせることができる。
Figure 2021530160
予測を組み合わせる既知の方法の1つは、重みを固定し、双方の予測に同じ予測モードを使用することである。これは、第2の予測モードを通知する必要をなくす。
この厳しい制限を緩和するための実施形態は、モードの特定の組み合わせのみを許可することを定義する。これは、第2のモードの通知を必要とするが、第1のモードと比較して、通知するモードの数を制限する。予測モード通知の詳細は、モードおよび参照通知に関連して提供される。実施形態にかかる1つの有望な組み合わせは、第2のモードとして平面のみを使用することであり、その結果、イントラモードの追加の通知は時代遅れになる。例えば、加重和の第1の部分として任意のイントラモードで
Figure 2021530160
を使用することができ、第2の部分は、最も近い参照サンプルと平面モードを使用して生成される。別の可能性は、順序を切り替えることである。すなわち、拡張参照サンプルに平面モードが使用される。
重みを予測サイズとモードに適合させるために、重み
Figure 2021530160
をブロックサイズごと、および予測モードごとに個別に指定することができる。さらにまた、重みをシーケンス、画像、またはスライスレベルで通知して、組み合わせをビデオコンテンツに適合させることができる。別の実施形態は、予測ブロック内の異なる領域に対して異なる参照サンプル予測に異なる重みを付けることである。これは、以下のように位置に依存する重み
Figure 2021530160
をもたらすことができる:
Figure 2021530160
1つの予測および拡張参照サンプルを使用する場合、予測モードおよび使用される参照領域インデックスiを通知すること、すなわち、モードおよび参照領域信号を実行することは最先端技術である。以下では、1つおよび/または複数の予測を使用する場合の予測モードコーディングの実施形態が提示され、続いて、拡張参照領域インデックスコーディングの実施形態が提示される。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用する1000ように構成されることができ、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、第2のサブセットが、エンコーダによって判定されることができ、サブセットがまた、双方のセットの一致を含むことができる。ビデオエンコーダは、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を通知し、その後、予測モードが予測モードの第2のセットに含まれる場合、予測モードに使用される拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、使用された予測モードが予測モードの第2のセットに含まれていない場合にパラメータ情報の通知をスキップすることにより、パラメータiが0などの所定の値を有するという結論を可能にするように構成されることができる。
ビデオエンコーダは、モード情報がDCモードまたは平面モードを示す場合、パラメータ情報の通知をスキップするように構成されることができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測符号化によって、符号化データで符号化された画像をビデオに復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであるように構成されることができる。予測モードの第2のセットは、予測モードの第1のセットのサブセットであり、エンコーダによって判定および/または通知されることができる。サブセットであることは、双方のセットの一致を含むことができる。ビデオエンコーダは、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を受信し、その後、予測モードに使用される拡張参照サンプルのサブセットを示し、それにより、予測モードが予測モードの第2のセットに含まれることを示すパラメータ情報(i)を受信し、パラメータ情報を受信しない場合、使用された予測モードが予測モードの第2のセットに含まれていないことを判定し、予測のための最も近い参照サンプルの使用を判定するように構成されることができる。
ビデオデコーダは、パラメータ情報を受信しないときにDCモードまたは平面モードの使用を示すものとしてモード情報を判定するように構成されることができる。
拡張参照サンプルの許可されたイントラ予測モードのセットが制限されている場合、すなわち最も近い参照サンプルの許可されたイントラ予測モードのサブセットである場合、例えば、サブセットが拡張参照サンプルの制限付き予測モードと呼ばれる場合、モードmおよびインデックスiを通知する方法が2つ存在する:
1.インデックス通知が以下のようにモードmに依存することができるように、インデックスiの前の信号モードm:
a.モードmが拡張参照サンプルの許可されたモードのセットにない場合、インデックスiの通知はスキップされ、予測モードmが最も近い参照サンプルに適用される(i=0)
b.それ以外の場合、iが通知され、予測モードmがiによって示される参照サンプルに適用される。
2.モード信号が以下のようにインデックスiに依存することができるように、モードmの前の信号インデックスi:
a.iが拡張参照サンプル(i>0)を使用することを示している場合、通知することができるモードmのセットは、制限されたものと同じである。
b.それ以外の場合(i=0)、通知される許可されたモードmのセットは、制限されていないモードのセットと等しい。
例えば、モードmが、最も可能性の高いモード(MPM)リストへのインデックスを使用したMPMコーディングを使用して通知された場合、許可されたモードのセットにないモードは、MPMリストに含まれない。
すなわち、代替的にまたは追加的に実装されることができる第2のオプションによれば、ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、予測モードに使用される複数の参照サンプルのサブセットを示すパラメータ情報(i)を通知し、複数の参照サンプルのサブセットが最も近い参照サンプルのみまたは拡張参照サンプルを含み、その後、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を通知し、モード情報がモードのサブセットからの予測モードを示し、サブセットがパラメータ情報(i)にしたがって許可された予測モードのセットに制限されるように構成される。
双方のオプションについて、ビデオデコーダは、最も近い参照サンプルに加えて、予測モードの第2のセットに含まれるモードの拡張参照サンプルが使用されるように適合される。
さらに、ビデオエンコーダは、予測モードの第1のセットが最も近い参照サンプルで使用することが可能である予測モードを記述するように適合されることができ、予測モードの第2のセットは、拡張参照サンプルによって使用されることも可能にされる予測モードの第1のセットの予測モードを記述する。
パラメータ情報の値の範囲、すなわち、エリアインデックスiによって表され得る値のドメインは、最も近い参照値のみの使用および拡張された参照値の異なるサブセットの使用をカバーすることができる。図11に関連して説明されるように、iは、最も近い参照値のみの使用(i=0)、拡張参照値の特定のセット、または拡張参照値のセットの組み合わせ(例えば、ラインおよび/または列または距離)を表すことができる。
実施形態によれば、拡張参照サンプルの異なる部分は、予測ブロックまでの異なる距離を含む。
ビデオエンコーダは、パラメータ情報を所定の数の値の1つに設定するように構成されることができ、その値は、予測モードに使用される参照サンプルの数および距離を示す。
ビデオエンコーダは、最も可能性の高いモードコーディングに基づいて、予測モードの第1のセットおよび/または予測モードの第2のセットを判定するように構成されることができる。
第2のオプションの対応するデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、最も近い参照サンプルを使用して予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、拡張参照サンプルを使用して予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、予測モードの第2のセットが予測モードの第1のセットのサブセットであり、予測モードに使用される複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信し、複数の参照サンプルのサブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含み、その後、予測ブロックを予測するために使用される予測モードを示すモード情報(m)を受信し、モード情報がモードのサブセットからの予測モードを示し、サブセットがパラメータ情報(i)にしたがって許可された予測モードのセットに制限されるように構成される。
第1のオプションおよび/または第2のオプションにかかるデコーダは、例えば、予測とサンプルおよび/または予測の組み合わせを組み合わせることによって、最も近い参照サンプルに加えて、予測モードの第2のセットに含まれるモードの拡張参照サンプルが使用されるように適合されることができる。
予測モードの第1のセットは、最も近い参照サンプルでの使用が許可される予測モードを記述することができ、予測モードの第2のセットは、拡張参照サンプルでの使用も許可される予測モードの第1のセットの予測モードを記述することができる。
エンコーダについて説明したように、パラメータ情報の値の範囲は、最も近い参照値のみの使用と、拡張参照値の異なるサブセットの使用とをカバーする。
拡張参照サンプルの異なる部分は、予測ブロックまでの異なる距離を含むことができる。
ビデオデコーダは、パラメータ情報を所定の数の値の1つに設定するように構成されることができ、その値は、予測モードに使用される参照サンプルの数および距離を示す。
ビデオデコーダは、最も可能性の高いモード(MPM)コーディングに基づいて、予測モードの第1のセットおよび/または予測モードの第2のセットを判定するように構成されることができる、すなわち、それぞれのリストを生成することができ、リストは、それぞれのサンプルの使用が許可されているモードのみを含むように適合されることができる。
あるいは、またはさらに、最も近い参照サンプルおよび拡張された参照サンプルからの予測を組み合わせることに関連する実施形態が実装されることができる。
ビデオエンコーダ1000などの実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測のために、画像の予測ブロックを符号化するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、第2のセットの予測モードの第2の予測モードを使用して予測ブロックの第2の予測を判定し、予測モードの第2のセットが、複数の拡張参照サンプルに関連付けられている第1のセットの予測モードのサブセットを含み、第1の予測と第2の予測とを結合して符号化データ内の予測ブロックの予測として組み合わせ予測を取得するように構成されることができる。
予測ブロックは、第1の予測ブロックとすることができ、ビデオエンコーダは、第2の予測ブロックに関連する複数の拡張参照サンプルがない場合に、第2の予測ブロックに関連する複数の最も近い参照サンプルを使用してビデオの第2の予測ブロックを予測するように構成されることができる。ビデオエンコーダは、符号化データ内の予測が予測の組み合わせに基づくか、または複数の最も近い参照サンプルがない場合に複数の拡張参照サンプルを使用する予測に基づくことを示すbipredフラグなどの組み合わせ情報を通知するように構成されることができる。
ビデオエンコーダは、第1の予測モードを所定の予測モードとして使用するように構成されることができる。
ビデオエンコーダは、第1の予測モードを第2の予測モードと同じモードであり且つ拡張参照サンプルがない場合に最も近い参照サンプルを使用するとして選択し、または、第1の予測モードを平面予測モードなどの事前設定された予測モードとして使用するように構成されることができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測のために、画像の予測ブロックを復号するために、予測ブロックに直接隣接する画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、予測モードのセットの第1の予測モードを使用して予測ブロックの第1の予測を判定し、予測モードの第1のセットが、拡張参照サンプルがない場合に複数の最も近い参照サンプルを使用する予測モードを含み、予測モードの第2のセットの第2の予測モードを使用して予測ブロックの第2の予測を判定し、予測モードの第2のセットが、第1のセットの予測モードのサブセットを含み、サブセットが、複数の拡張参照サンプルに関連付けられるように構成されることができる。ビデオデコーダは、第1の予測と第2の予測とを組み合わせて、符号化データ内の予測ブロックの予測として組み合わされた予測を取得するように構成されることができる。
予測ブロックは、第1の予測ブロックとすることができ、ビデオデコーダは、第2の予測ブロックに関連する複数の拡張参照サンプルがない場合に、第2の予測ブロックに関連する複数の最も近い参照サンプルを使用してビデオの第2の予測ブロックを予測するように構成されることができる。ビデオデコーダは、さらに、符号化データ内の予測が予測の組み合わせに基づくか、または複数の最も近い参照サンプルがない場合に複数の拡張参照サンプルを使用する予測に基づくことを示す結合情報を受信し、それに応じて符号化データを復号するように構成されることができる。
ビデオデコーダは、第1の予測モードを所定の予測モードとして使用するように構成されることができる。
ビデオデコーダは、第1の予測モードを第2の予測モードと同じモードであり且つ拡張参照サンプルがない場合に最も近い参照サンプルを使用するとして選択し、または、第1の予測モードを平面モードなどのプリセット予測モードとして使用するように構成されることができる。
参照領域インデックスiが拡張参照サンプルの使用を示す場合(i>0)、バイ予測フラグ(bipredフラグ)と以下で呼ぶバイナリ情報またはフラグなどのそれぞれの情報を使用して、拡張参照サンプルを使用する予測が最も近い参照サンプルを使用する予測と組み合わされるかどうかを通知する。
bipredフラグが最も近い(i=0)および拡張参照サンプル(i>0)からの予測の組み合わせを示す場合、拡張参照サンプルmのモードは、ここで説明するように、参照領域インデックスiの前または後に通知される。最も近い参照サンプル予測mのモードは固定されており、例えば、常に平面などの特定のモードに設定するか、拡張参照サンプルと同じモードに設定する。
以下に説明するように、実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、画像内予測において、画像の予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルの所定のセットにしたがって複数の拡張参照サンプルを使用し、すなわち、エリアインデックスのリストが生成および/または使用されることができ、リストが、最も近い参照サンプルのみ、拡張参照サンプルの少なくとも1つの距離、および/または拡張参照サンプルの異なる距離の組み合わせなどの参照サンプルの特定のサブセットを示すように構成されることができる。
ビデオエンコーダは、セット内の複数が、参照サンプルとして使用される画像のサンプルのラインおよび/または行の数または組み合わせによって互いに異なるように、拡張参照サンプルの複数の所定のセットを判定するように構成されることができる。
ビデオエンコーダは、予測ブロックのブロックサイズおよび/または予測ブロックを予測するために使用される予測モードに基づいて、複数の拡張参照サンプルの所定のセットを判定するように構成されることができる。
ビデオエンコーダは、予測ブロックのブロックサイズが少なくとも所定の閾値である複数の拡張参照サンプルのセットを判定し、ブロックサイズが所定の閾値を下回る場合に複数の拡張参照サンプルのセットの通知をスキップするように構成されることができる。
所定の閾値は、予測ブロックの幅または高さに沿った所定のサンプル数、および/または幅および高さに沿った予測ブロックの所定のアスペクト比とすることができる。
所定のサンプル数は、任意の数であってもよいが、好ましくは8である。あるいは、またはさらに、アスペクト比は、おそらくアスペクト比の1つの商を定義する8つのサンプルの数に基づいて、1/4よりも大きく且つ4未満とすることができる。
ビデオエンコーダは、複数の拡張参照サンプルを使用して第1の予測ブロックとして予測ブロックを予測し、拡張参照サンプルを使用せずに第2の予測ブロック(同じまたは異なる画像の一部とすることができる)を予測するように構成されることができ、ビデオエンコーダは、第1の予測ブロックに関連付けられた複数の拡張参照サンプルの所定のセットを通知し、第2の予測ブロックに関連付けられた拡張参照サンプルの所定のセットを通知しないように構成される。所定のセットは、例えば、参照領域インデックスiによって示されることができる。
ビデオエンコーダは、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットの1つを示す情報、および画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を通知するように構成されることができる。
ビデオエンコーダは、それによって複数の拡張参照サンプルの複数のセットの示された特定の複数にしたがって、または最も近い参照サンプルのみの示された使用にしたがって予測モードを示すように、画像内予測を示す情報を通知するように構成されることができる。
対応するビデオデコーダは、画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、画像内予測において、画像の予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用し、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、複数の拡張参照サンプルの所定のセットにしたがって、複数の拡張参照サンプルを使用するように構成される。
ビデオデコーダは、セット内の複数が、参照サンプルとして使用される画像のサンプルの行および/または行の数または組み合わせによって互いに異なるように、拡張参照サンプルの複数の所定のセットを判定するように構成されることができる。
ビデオデコーダは、予測ブロックのブロックサイズおよび/または予測ブロックを予測するために使用される予測モードに基づいて、複数の拡張参照サンプルの所定のセットを判定するように構成されることができる。
ビデオエンコーダは、予測ブロックのブロックサイズが少なくとも所定の閾値である複数の拡張参照サンプルのセットを判定し、ブロックサイズが所定の閾値を下回る場合に複数の拡張参照サンプルのセットの使用をスキップするように構成されることができる。
例えば、位置(x0,y0)にある現在のブロックの左上のサンプルが符号化ツリーブロック(CTB)内の最初の行にある場合、セットの通知(パラメータ情報iまたは同様の構文を使用することができる)をスキップすることができる。CTBは、画像が分割され、さらにブロックのサブ分割のルートとなる基本的な処理ユニットと見なすことができる。
これは、垂直y座標y0がCTBサイズの倍数でないかどうかをチェックすることによって実行されることができる。例えば、CTBサイズが64輝度サンプルの場合、最初のCTB行では、CTB内の上記のブロックは、y0=0を有し、第2のCTB行では、それらは、y0=64を有するというようになる。したがって、このCTBの上限にあるCTB内の全てのブロック(例えば、以下のモジュロ演算によってチェックされることができる:y0%CtbSizeY==0)の場合、パラメータiまたは同様の構文の通知は、スキップされることができる。
したがって、所定の閾値は、予測ブロックの幅または高さに沿った所定のサンプル数、および/または幅および高さに沿った予測ブロックの所定のアスペクト比とすることができる。
したがって、所定のサンプル数は、8とすることができ、および/またはアスペクト比は、1/4よりも大きく且つ4未満である必要があり得る。
ビデオデコーダは、複数の拡張参照サンプルを使用して第1の予測ブロックとして予測ブロックを予測し、拡張参照サンプルを使用しない第2の予測ブロックを予測するように構成されることができ、ビデオデコーダは、例えば、エリアインデックスiを使用して、第1の予測ブロックに関連付けられた複数の拡張参照サンプルの所定のセットを示す情報を受信し、それぞれの信号がない場合に第2の予測ブロックに関連付けられた拡張参照サンプルの所定のセットを判定するように構成される。
ビデオデコーダは、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットの1つを示す情報と、画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を受信するように構成されることができる。
ビデオデコーダは、それにより、複数の拡張参照サンプルの複数のセットの示された特定の複数にしたがって、または最も近い参照サンプルのみの示された使用にしたがって予測モードを示すように、画像内予測を示す情報を受信するように構成されることができる。
参照領域インデックスは、ブロックごとに変更することができるため、インデックスは、適用される全ての予測ブロックのビットストリームで送信されることができる。実施形態は、デコーダが正しいサンプルを使用できるようにするための拡張参照サンプル領域通知に関する。この領域は、拡張参照サンプルまたは最も近い参照サンプルを示すパラメータiに対応することができる。通知とさらに離れた拡張参照サンプルの使用をトレードオフするために、拡張参照サンプルラインの所定のセットを使用することができる。例えば、インデックス1と3のラインである2つの追加の拡張参照ラインのみを使用することができる。実施形態にかかるセットは、|I|=3であるI={0,1,3}とすることができる。これは、参照サンプル領域を最大3行まで拡張することを可能にするが、必要なのは2つの通知のみである。セットはまた、4行、例えばI={0,1,3,4}に拡張されることもでき、第1のMaxNumRefAreaIdx要素のみが使用されるが、MaxNumRefAreaIdxは、シーケンス、画像、またはスライスレベルで固定または通知されることができる。セットIへのインデックスnは、3および4に等しいMaxNumRefAreaIdxの特定の参照領域セットの切り捨てられた単一コードの例を示す図11に示される表に示すように、エントロピーコーディングと切り捨てられた単一コードを使用してビットストリームで通知されることができる。
異なるブロックサイズの異なる空間特性を説明するために、参照サンプルラインのセットはまた、予測ブロックサイズおよび/またはイントラ予測モードにも依存することができる。別の実施形態では、セットは、小さなブロックの場合はインデックス2の追加の1行のみを含み、インデックス1および3行の大きいブロックの場合は2行のみを含む。イントラ予測モードに依存するセット選択の実施形態は、水平方向と垂直方向との間の予測方向のための参照サンプルラインの異なるセットを有することである。
通知を必要としない小さなブロックサイズに対して空のセットを選択することにより、参照領域インデックスの通知をより大きなブロックサイズに制限することもできる。これは、基本的に、ブロックサイズが小さい場合の拡張参照サンプルの使用を無効にすることができる。一実施形態では、拡張参照サンプルの使用は、幅Wおよび高さHの双方が8以上であるブロックに制限されることができる。それに加えて、例えば、32×8ブロック、または前述の対称性に基づいて8×32ブロックなど、一方の側がもう一方の側の4分の1以下であるブロックもまた、拡張参照サンプルの使用から除外されることができる。図12aおよび図12bは、参照符号1102によって示されるように、一般に画像内予測(図12a)のためにいくつかのブロックサイズが既に除外され、ブロックがそれに応じて陰影付けされているこの実施形態を示している。この実施形態では、画像内予測スライスおよび画像間予測スライスは、異なるブロックサイズの組み合わせを可能にすることが想定されている。サンプル1104およびそれに応じて陰影が付けられたブロックは、拡張参照サンプル、すなわち、i>0には許可されない。図12aおよび図12bは、画像内予測スライスおよび画像間予測スライスの拡張参照サンプルに対する制限の例を示している。見られるように、ブロックサイズ、特にブロックのアスペクト比に依存するブロックの許容または制限は、商W/HおよびH/Wに対して対称とすることができる。
拡張参照サンプルを使用しない他のイントラ予測モードが存在する場合、参照領域インデックスは、拡張参照サンプルを使用する予測モードが通知された場合にのみ通知される。別の方法は、他の全てのイントラモード情報が通知される前に、参照エリアインデックスを通知することである。参照領域インデックスiが拡張参照サンプル(i>0)を示している場合、拡張参照サンプルを使用しないモード情報の通知(例えば、テンプレートマッチングやトレーニング済み予測子など)はスキップされることができる。これは、拡張参照サンプルを使用する予測の予測残差に適用されない特定の変換の通知情報をスキップすることもできる。
以下では、並列符号化の考慮事項を参照する実施形態を参照する。
実施形態にかかるビデオエンコーダは、画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化し、画像内予測のために、複数の予測ブロックの予測ブロックを符号化するために、画像の複数の拡張参照サンプルを使用するように構成されることができ、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、ビデオエンコーダは、複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように拡張参照サンプルを判定し、隣接する予測ブロックがまだ予測されていないことを判定し、予測ブロックに関連付けられ、隣接する予測ブロックに利用不可能なサンプルとして配置された拡張予測サンプルを示す情報を通知するように構成されることができる。
ビデオエンコーダは、波面アプローチにしたがってブロックの並列符号化線によって画像を符号化し、角度予測に基づいて予測ブロックを予測するように構成されることができ、ビデオエンコーダは、画像の既に予測されたブロックに配置されるように予測ブロックを予測するために使用される拡張参照サンプルを判定するように構成される。波面アプローチによれば、第2のラインの符号化または復号は、例えば、1つのブロックによって分離された第1のラインの復号を追跡することができる。例えば、45°の垂直角度モードでは、2行目から開始するときに、右上の最大1ブロックを復号して符号化されることができる。
ビデオエンコーダは、予測ブロックに関連付けられ、隣接する予測ブロックに、シーケンスレベル、すなわち、画像のシーケンス、画像レベル、またはスライスレベルで利用不可能なサンプルまたは利用可能なサンプルとして異形に配置される拡張予測サンプルを通知するように構成されることができ、スライスは、画像の一部である。
ビデオエンコーダは、予測ブロックに関連付けられ、画像の並列符号化を示す情報とともに利用不可能なサンプルとして隣接する予測ブロックに配置された拡張予測サンプルを示す情報を通知するように構成されることができる。
対応するデコーダは、画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、各画像について、複数の予測ブロックが復号され、画像内予測のために、複数の予測ブロックの予測ブロックを復号するために、画像の複数の拡張参照サンプルを使用するように構成されることができ、複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、ビデオデコーダは、複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように拡張参照サンプルを判定し、隣接する予測ブロックがまだ予測されていないことを判定し、予測ブロックに関連付けられ、隣接する予測ブロックに利用不可能なサンプルとして配置された拡張予測サンプルを示す情報を受信するように構成される。
ビデオデコーダは、波面アプローチにしたがってブロックの並列復号ラインによって画像を復号し、角度予測に基づいて予測ブロックを予測するように構成されることができ、ビデオデコーダは、画像の既に予測されたブロックに配置されるように予測ブロックを予測するために使用される拡張参照サンプルを判定するように構成される。
ビデオデコーダは、予測ブロックに関連付けられ、隣接する予測ブロックに、シーケンスレベル、画像レベル、またはスライスレベルで利用できないサンプルまたは利用可能なサンプルとして異形に配置された拡張予測サンプルを示す情報を受信するように構成されることができる。
ビデオデコーダは、予測ブロックに関連付けられ、画像の並列復号を示す情報とともに利用不可能なサンプルとして隣接する予測ブロックに配置された拡張予測サンプルを示す情報を受信するように構成されることができる。
角度画像内予測では、参照サンプルが指定された方向に沿って現在の予測領域にコピーされる。この方向が右上を指している場合、必要な参照サンプル領域もまた、予測領域の境界までの距離が大きくなるほど右にシフトする。図13は、W×H予測ブロックの45度の角度での垂直角度予測の実施形態を示している。最も近い参照サンプル領域(青)がHサンプルを現在のW×Hブロックの右上に拡張していることがわかる。予測をより離れた参照サンプル領域に拡張すると、拡張参照サンプル(緑)は、H+1、H+2、・・・個のサンプルを現在のW×Hブロックの右上に拡張する。
例えば、正方形符号化ツリーユニット(CTU)が基本処理ユニットとして使用される場合、最大イントラ予測ブロックサイズは、最大ブロックサイズ、すなわち、CTUブロックサイズN×Nに等しくすることができる。図14aおよび図14bは、W×H予測ブロックがN×NのCTUブロックサイズに等しい、図13からの実施形態を示している。それに対応して、拡張参照サンプル1064および/または1064は、右上のCTU(CTU2)にまたがり、少なくとも1つのサンプルを次のCTU(CTU3)に到達させる。すなわち、45°垂直角度予測の拡張参照サンプル1064および/または1064の一部は、未処理のCTU3に配置されることができる。CTU3およびCTU5が並行して処理される場合、これらのサンプルは、利用不可能とすることができる。
図14aおよび図14bは、対角垂直画像内予測の場合に必要な最も近い参照サンプル1062および拡張参照サンプル1064の例を示している。
図14bでは、2つのCTUラインを見ることができる。波面のようなアプローチを使用して2つのラインを並列に符号化する場合、CTU2が符号化され、CTU3の符号化が開始されると、第2のCTUラインの符号化は、CTU5から開始することができる。この場合、一部の参照サンプル1104は、CTU3の内部に位置するため、拡張参照サンプルを用いた45度垂直角度予測は、CTU5では使用されることができない。以下のアプローチは、この問題を解決することができる:
1.本実施形態に関連して説明されるように、次の基本的な処理領域内の拡張参照を利用不可能としてマークする。そうすれば、例えば、画像、スライス、またはタイルの境界で、または画像内予測領域の参照として画像間予測領域からのサンプルを使用することを許可しない制約付き内部予測が使用される場合、他の利用不可能な参照サンプルのように扱うことができる。
2.参照サンプルが現在の領域の右上にある複数の基本処理ユニットに拡張されないように、領域および画像内予測モードにのみ拡張参照サンプルの使用を許可する。
双方のアプローチは、シーケンス、画像、またはスライスレベルの高レベルフラグによって切り替え可能にすることができる。このようにして、エンコーダは、エンコーダの並列処理スキームで必要な場合に制限を適用するようにデコーダに通知することができる。必要がない場合、エンコーダは、制限が適用されないことをデコーダに通知することができる。
別の方法は、双方の制限の通知を並列符号化方式の通知と組み合わせることである。例えば、波面並列処理が有効にされ、ビットストリームで通知される場合、拡張参照サンプルの制限も適用される。
以下に、いくつかの有利な実施形態を説明する。
1.一実施形態では、イントラ予測は、参照サンプルエリアインデックスi=1およびi=3を有する2つの追加の参照ラインを使用している(図3を参照)。これらの拡張参照サンプルラインでは、ここで説明されている角度予測のみが許可される。参照サンプルエリアインデックスiの通知は、図11に関連してMaxNumRefAreaIdx=3で説明されているように実行され、イントラ予測モードを通知する前に通知される。参照領域インデックスが0に等しくない場合、すなわち拡張参照ラインが使用されている場合、DCおよび平面内予測モードは使用されない。不要な通知を回避するために、DCモードと平面モードは、イントラ予測モードの通知から除外される。イントラ予測モードは、最も可能性の高いモード(MPM)のリストへのインデックスを使用して符号化されることができる。MPMリストは、隣接するブロックから派生した固定数の予測モード候補を含む。隣接するブロックが最も近い参照ライン(i=0)を使用して符号化されている場合、DCまたは平面モードを使用することができるため、MPMリストの導出プロセスは、DCおよび平面モードを含まないように変更される。削除された場合、DCモードと平面モードは、水平、垂直、左下の対角角モードに置き換えられて、リストを埋めることができる(図4aから図4eを参照)。これは、冗長性を回避する方法で行われ、例えば、隣接ブロックから派生した第1の候補モードが垂直であり、第2の候補モードがDCの場合、DCモードは、まだリストにないため、垂直モードではなく水平モードに置き換えられる。i>0の場合にDCおよび平面モードの不要な通知を防ぐ別の方法は、予測モードの後に参照領域インデックスiに通知し、予測モードにおいてiの通知を調整することである。イントラ予測モードがDCまたは平面に等しい場合、インデックスiは通知されない。しかしながら、MPMリストへのインデックスを使用してイントラ予測モードが通知される場合、この方法では解析の依存関係が導入されるため、前述の方法がこの方法よりも優先される。iを解析することができるようにするために、MPMリストの導出を必要とするイントラ予測モードを再構築する必要がある。一方、MPMリストの導出は、iを解析する前に再構築する必要がある隣接ブロックの予測モードを参照する。この望ましくない構文解析の依存関係は、予測モードの前にiを通知し、上述したようにそれに応じてMPMリストの派生を変更することによって解決される。ビデオエンコーダは、複数の最も可能性の高い予測モードのリストを、予測モードのための複数の最も近い参照サンプルの使用または複数の拡張参照サンプルの使用に基づいて判定するように構成されることができ、ビデオエンコーダは、予測モードで許可されているモードによって、使用されている参照サンプルに対して制限されている予測モードを置換するように構成される。対応するビデオデコーダは、複数の最も近い参照サンプルの使用または予測モードのための複数の拡張参照サンプルの使用に基づいて最も可能性の高い予測モードのリストを判定するように構成されることができ、ビデオデコーダは、予測モードで許可されたモードによって、使用された参照サンプルに対して制限された予測モードを置換するように構成される。
2.別の実施形態では、拡張参照サンプルのイントラ予測は、輝度サンプルのみに適用されるようにさらに制限される。すなわち、ビデオエンコーダは、輝度情報のみを含む画像に拡張参照サンプルを使用して予測を適用するように構成されることができる。したがって、ビデオデコーダは、輝度情報のみを含む画像に拡張参照サンプルを使用して予測を適用するように構成されることができる。
3.別の実施形態では、最も近い参照サンプル(i=0)の幅および高さを超える拡張参照サンプル(i>0)(図3のW+Hを参照)は、既に再構築されたサンプルを使用することによって生成されないが(利用可能な場合)、例えば図3の右上のサンプルの場合はr(23,−1−i)、左下のサンプルの場合はr(−1−i,23)など、最後のサンプルからのパディングによって生成される。これは、拡張参照サンプルラインのメモリアクセスを低減する。すなわち、ビデオエンコーダは、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成されることができる。したがって、ビデオデコーダは、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成されることができる。
4.別の実施形態では、毎秒の角度モードのみが、拡張された参照サンプルに使用されることができる。その結果、MPMリストの導出は、i>0の場合のDCモードと平面モードに加えて、これらのモードも除外するように変更される。すなわち、ビデオエンコーダは、角度予測モードの可能な角度からの角度のサブセットのみを使用する角度予測モードを使用して予測を予測し、デコーダへの符号化情報の通知から未使用の角度を除外するように構成されることができる。したがって、ビデオデコーダは、角度予測モードの可能な角度からの角度のサブセットのみを使用する角度予測モードを使用して予測を予測し、予測から未使用の角度を除外するように構成されることができる。
5.別の実施形態では、追加の参照サンプルラインの数が3に増加する(MaxNumRefAreaIdx=4による図11を参照)。すなわち、拡張参照サンプルは、最も近い参照サンプル、好ましくは少なくとも3ラインおよび行に加えて、少なくとも2ラインおよび行に配置されることができる。そのような構成は、ビデオエンコーダおよびデコーダに適用することができる。ビデオエンコーダは、予測ブロックを予測するために複数の拡張参照サンプルの特定の複数のセットを使用するように構成されることができ、ビデオエンコーダは、セットによって拡張された複数の最も近い参照サンプルと比較されたときの画像コンテンツの最も低い類似性を含むように複数のセットから特定の複数を選択し、すなわち、例えば、同じ参照領域インデックスを有する関連する参照サンプルを使用するように構成される。したがって、ビデオデコーダは、予測ブロックを予測するために、特定の複数の複数の拡張参照サンプルのセットを使用するように構成されることができ、ビデオデコーダは、セットによって拡張された複数の最も近い参照サンプルと比較したときの画像コンテンツの最も低い類似性を含むように、複数のセットから特定の複数を選択するように構成される。
6.別の実施形態では、インデックスiの代わりに、拡張参照サンプルが使用されるかどうかを示すフラグが通知される。拡張参照サンプルが使用されることをフラグが示している場合、インデックスi(i>0)は、参照ラインi>0と参照ラインi=0との間の類似性を計算することによって(例えば、絶対差の合計を使用して)導出される。類似性が最も低くなるインデックスiが選択される。その背後にある考え方は、拡張参照サンプル(i>0)と通常の参照サンプル(i=0)との相関が高いほど、結果の予測の相関が高くなるため、予測において拡張参照サンプルを使用しても追加のメリットがないということである。すなわち、ビデオエンコーダは、フラグまたは他の、おそらくバイナリの情報を使用して、拡張参照サンプルの使用を通知するように構成されることができる。したがって、ビデオデコーダは、そのようなフラグによる拡張参照サンプルの使用を示す情報を受信するように構成されることができる。
7.別の実施形態では、分離不可能な二次変換(NSST)のような二次変換は、予測内残差の第1の変換の後に適用されることができる。拡張参照サンプルラインの場合、二次変換は実行されず、i>0の場合はNSSTに関連する全ての通知が無効になる。すなわち、ビデオエンコーダは、拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成されることができ、ビデオエンコーダは、第1の変換手順を使用して予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して第1の変換結果を変換して、拡張参照サンプルが予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される。これは、第2の変換が使用されるかどうかの通知にも影響を与える可能性がある。すなわち、第2の変換の使用を通知する必要がある場合、拡張参照サンプルが使用されるときに通知がスキップされることができる。ビデオエンコーダは、二次変換の使用を通知し、または、拡張参照サンプルの使用を示すときに二次変換の不使用を暗黙的に通知し、符号化データに二次変換の結果に関連する情報を含めないように構成されることができる。
したがって、ビデオデコーダは、拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成されることができ、ビデオデコーダは、第1の変換手順を使用して予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して第1の変換結果を変換して、拡張された参照サンプルが予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される。ビデオデコーダは、二次変換の使用を示す情報を受信し、または、拡張参照サンプルの使用を示すときに二次変換の不使用を導出し、符号化データの二次変換の結果に関連する情報を受信しないように構成されることができる。
8.別の実施形態では、拡張参照サンプル(i>0)を使用する予測は、最も近い参照サンプル(i=0)を使用する平面予測と組み合わされる。異なる拡張予測モードの組み合わせに関連して概説されているように、すなわち、拡張参照サンプルを使用して、重み付けを固定(例えば、0.5および0.5)するか、ブロックサイズに依存するか、またはスライス、画像、またはシーケンスレベルで通知することができる。拡張参照サンプルが使用される場合(i>0)、追加のフラグは、組み合わせ予測が適用されるかどうかを示す。すなわち、ビデオエンコーダは、構成されることができる。したがって、ビデオデコーダは、構成されることができる。
9.別の実施形態では、通知化のオーバーヘッドを低減するために、上記からの組み合わされた予測の通知は省略される。代わりに、組み合わせ予測を適用するかどうかの判定は、最も近い参照サンプル(i=0)の分析に基づいて導出される。考えられる分析の1つは、最も近い参照サンプルの平坦度とすることができる。最も近い参照サンプル信号がフラット(エッジなし)の場合、組み合わせが適用され、高周波およびエッジが含まれている場合、組み合わせは適用されない。すなわち、ビデオエンコーダは、構成されることができる。したがって、ビデオデコーダは、構成されることができる。
いくつかの態様が装置の文脈で説明されたが、これらの態様は、対応する方法の説明も表すことは明らかであり、ブロックまたは装置は、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップの文脈で説明された態様は、対応する装置の対応するブロックまたは項目または機能の説明も表す。
特定の実装要件に応じて、本発明の実施形態は、ハードウェアまたはソフトウェアで実装されることができる。実装は、電子的に読み取り可能な制御信号が記憶され、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)、例えば、フロッピーディスク、DVD、CD、ROM、PROM、EPROM、EEPROMまたはフラッシュメモリなどのデジタル記憶媒体を使用して行うことができる。
本発明にかかるいくつかの実施形態は、本明細書に記載の方法の1つが実行されるように、プログラム可能なコンピュータシステムと協調することができる電子的に読み取り可能な制御信号を有するデータキャリアを備える。
一般に、本発明の実施形態は、プログラムコードを備えたコンピュータプログラム製品として実装されることができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに方法の1つを実行するために動作する。プログラムコードは、例えば、機械可読キャリアに記憶されてもよい。
他の実施形態は、機械可読キャリアに記憶された、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを備える。
換言すれば、本発明の方法の実施形態は、したがって、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法の1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムをその上に記録したデータキャリア(またはデジタル記憶媒体、またはコンピュータ可読媒体)である。
したがって、本発明の方法のさらなる実施形態は、本明細書に記載の方法の1つを実行するためのコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、例えば、インターネットなどのデータ通信接続を介して転送されるように構成されてもよい。
さらなる実施形態は、本明細書に記載の方法の1つを実行するように構成または適合された処理手段、例えば、コンピュータ、またはプログラマブルロジックデバイスを含む。
さらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムをその上にインストールしたコンピュータを備える。
いくつかの実施形態では、プログラマブルロジックデバイス(例えば、フィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能のいくつかまたは全てを実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法の1つを実行するためにマイクロプロセッサと協調することができる。一般に、方法は、好ましくは、任意のハードウェア装置によって実行される。
上述した実施形態は、本発明の原理を単に例示するものである。本明細書に記載された構成および詳細の変更および変形は、当業者にとって明らかであろうことが理解される。したがって、本明細書の実施形態の説明および説明として提示された特定の詳細によってではなく、差し迫った特許請求の範囲によってのみ限定されることが意図されている。

Claims (155)

  1. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記予測ブロックに直接隣接する少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、
    置換サンプルによって利用不可能と判定された最も近い参照サンプルを置換し、
    前記画像内予測に前記置換サンプルを使用するように構成される、ビデオエンコーダ。
  2. 前記ビデオエンコーダが、
    シーケンスにしたがって、前記利用可能性または利用不可能性を順番に判定し、
    前記置換サンプルを、前記シーケンスで利用可能であると判定された最後の拡張参照サンプルのコピーとして判定し、および/または
    前記置換サンプルを、次の拡張参照サンプルが前記シーケンスで利用可能であると判定されるコピーとして判定する
    ように構成される、請求項1に記載のビデオエンコーダ。
  3. 前記ビデオエンコーダが、
    シーケンスにしたがって、前記利用可能性または利用不可能性を順番に判定し、
    前記参照サンプルが利用不可能であると判定される前に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルと、前記参照サンプルが利用不可能であると判定された後に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルとの組み合わせに基づいて、前記置換サンプルを判定する
    ように構成される、請求項2に記載のビデオエンコーダ。
  4. 前記ビデオエンコーダが、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの最も近い参照サンプルの1つによって前記予測ブロックから分離され、
    前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定し、
    前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上である場合、前記複数の拡張参照サンプルの使用を通知し、
    前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が前記所定の閾値を下回る場合、前記複数の拡張参照サンプルの前記使用の通知をスキップする
    ように構成される、請求項1から3のいずれか一項に記載のビデオエンコーダ。
  5. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    バイラテラルフィルタまたは3タップFIRフィルタを使用して、前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
    前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用する
    ように構成される、ビデオエンコーダ。
  6. 前記ビデオエンコーダが、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して前記複数の拡張参照サンプルをフィルタリングするように構成される、請求項5に記載のビデオエンコーダ。
  7. 前記ビデオエンコーダが、角度予測モードを使用して前記予測ブロックを予測するように構成され、前記3タップフィルタ、5タップフィルタ、および7タップフィルタが、バイラテラルフィルタとして構成され、前記ビデオエンコーダが、前記角度予測に使用される角度に基づいて、前記3タップフィルタ、前記5タップフィルタ、および前記7タップフィルタのうちの1つを使用するように選択するように構成され、前記角度が前記角度予測モードの水平方向または垂直方向の間に配置され、および/または前記ビデオエンコーダが、前記予測ブロックのブロックサイズに基づいて、前記3タップフィルタ、前記5タップフィルタ、および前記7タップフィルタのうちの1つを使用するように選択するように構成される、請求項6に記載のビデオエンコーダ。
  8. 前記ビデオエンコーダが、対角線に向かって水平方向または垂直方向から角度を増加させるために、タップが増加するフィルタを選択するように構成される、請求項7に記載のビデオエンコーダ。
  9. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが、前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置され、
    マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された前記拡張参照サンプルにマッピングし、
    前記マッピングされた拡張参照サンプルを前記予測に使用する
    ように構成される、ビデオエンコーダ。
  10. 前記ビデオエンコーダが、前記予測ブロックを予測するために使用される予測モードにしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項9に記載のビデオエンコーダ。
  11. 前記ビデオエンコーダが、前記予測ブロックを予測するための前記予測モードで使用される方向にしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項10に記載のビデオエンコーダ。
  12. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記ビデオエンコーダが、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルが使用される場合は、境界フィルタリングを使用しないように構成され、または
    前記ビデオエンコーダが、前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに対して境界フィルタリングを使用しないように構成される、ビデオエンコーダ。
  13. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記拡張参照サンプルを使用して前記予測ブロックの予測を判定し、
    前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
    前記予測と前記フィルタリングされた拡張参照サンプルとを結合し、前記予測ブロックの組み合わせ予測を取得する
    ように構成される、ビデオエンコーダ。
  14. 前記ビデオエンコーダが、前記予測ブロックに関して、サンプルの主対角線または前記副対角線に配置されている前記予測サンプルおよび前記拡張参照サンプルを組み合わせるように構成される、請求項13に記載のビデオエンコーダ。
  15. 前記ビデオエンコーダが、以下の判定ルールに基づいて前記予測サンプルと前記拡張参照サンプルとを組み合わせるように構成される:
    Figure 2021530160
    ここで、p(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
    Figure 2021530160
    は、予測重みであり、dは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張された上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張された左側の参照サンプルであり、i>0の場合のr(−1−i,−1−i)は、前記予測ブロックの境界に関する前記複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項13または14に記載のビデオエンコーダ。
  16. 前記正規化係数が、以下の判定ルールに基づいて判定される、請求項15に記載のビデオエンコーダ。
    Figure 2021530160
  17. 前記ビデオエンコーダが、3タップフィルタ、5タップフィルタ、7タップフィルタのうちの1つを使用して前記拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得し、前記予測のために前記フィルタリングされた拡張参照サンプルを使用するように構成される、請求項13から16のいずれか一項に記載のビデオエンコーダ。
  18. 前記ビデオエンコーダが、前記予測ブロックの拡張隅参照サンプルと、参照サンプル(r(−1−i,−1−i))の隅領域に配置された拡張参照サンプルとの組み合わせを使用するように構成される、請求項13から17のいずれか一項に記載のビデオエンコーダ。
  19. 前記ビデオエンコーダが、以下の判定ルールに基づいて前記組み合わせ予測を取得するように構成される:
    Figure 2021530160
    ここで、p(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
    Figure 2021530160
    は、予測重みであり、dは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張左参照サンプルであり、i>0の場合の
    Figure 2021530160
    は、前記予測ブロックの境界に関して前記結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項18に記載のビデオエンコーダ。
  20. 前記ビデオエンコーダが、前記画像内予測に基づいて前記予測p(x,y)を取得するように構成される、請求項13から19のいずれか一項に記載のビデオエンコーダ。
  21. 前記ビデオエンコーダが、画像内予測として平面予測のみを使用するように構成される、請求項20に記載のビデオエンコーダ。
  22. 前記ビデオエンコーダが、符号化されたビデオブロックごとに、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別するパラメータセットを判定するように構成される、請求項13から21のいずれか一項に記載のビデオエンコーダ。
  23. 前記ビデオエンコーダが、前記予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別する前記パラメータセットを判定するように構成される、請求項22に記載のビデオエンコーダ。
  24. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記予測モードの前記第1のセットのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられるように構成され、
    前記ビデオエンコーダが、前記第1の予測(p(x,y))と前記第2の予測(p(x,y))とを加重(w;w)結合して、前記符号化データの前記予測ブロックの予測として組み合わせ予測(p(x,y))を取得するように構成される、ビデオエンコーダ。
  25. 前記ビデオエンコーダが、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、前記第1の予測および前記第2の予測を使用するように構成される、請求項24に記載のビデオエンコーダ。
  26. 前記ビデオエンコーダが、他の予測モードを通知しない一方で、前記第1の予測モードまたは前記第2の予測モードのいずれかを通知するように構成される、請求項24または25に記載のビデオエンコーダ。
  27. 前記ビデオエンコーダが、前記第1の予測モードおよび前記第2の予測モードのうちの1つとして平面予測モードのみを使用するように構成される、請求項24から26のいずれか一項に記載のビデオエンコーダ。
  28. 前記ビデオエンコーダが、前記予測ブロックのブロックサイズに基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みを適応させ、および/または
    前記第1の予測モードに基づいて前記第1の重みを適応させるかまたは前記第2の予測モードに基づいて前記第2の重みを適応させるように構成される、請求項24から27のいずれか一項に記載のビデオエンコーダ。
  29. 前記ビデオエンコーダが、位置に基づいて、前記組み合わせ予測の前記第1の予測に適用される第1の重みと、前記組み合わせ予測の前記第2の予測に適用される第2の重みとを適応させるように構成される、請求項24から28のいずれか一項に記載のビデオエンコーダ。
  30. 前記ビデオエンコーダが、以下の判定ルールに基づいて前記第1の重みおよび前記第2の重みを適応させるように構成され、
    Figure 2021530160
    ここで、w(x,y)は、前記予測ブロック内の位置x,yに基づく前記第1の重みであり、wは、前記予測ブロック内の前記位置x,yに基づく前記第2の重みであり、p(x,y)は、前記位置x,yの前記第1の予測であり、p(x,y)は、前記位置x,yの前記第2の予測であり、iは、前記第2の予測に使用される前記拡張参照サンプルを示す、請求項29に記載のビデオエンコーダ。
  31. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
    前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知し、
    その後、前記予測モードが前記予測モードの第2のセットに含まれている場合、前記予測モードに使用される前記拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記使用される予測モードが前記予測モードの第2のセットに含まれていない場合、前記パラメータ情報の通知をスキップする
    ように構成される、ビデオエンコーダ。
  32. 前記ビデオエンコーダが、前記モード情報がDCモードまたは平面モードを示すときに、前記パラメータ情報の通知をスキップするように構成される、請求項31に記載のビデオエンコーダ。
  33. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
    前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記複数の参照サンプルのサブセットが、最も近い参照サンプルのみまたは前記拡張参照サンプルを含み、
    その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知し、前記モード情報が、モードのサブセットからの予測モードを示し、前記サブセットが、前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限される
    ように構成される、ビデオエンコーダ。
  34. 前記最も近い参照サンプルに加えて、前記第2のセットの予測モードに含まれるモードの前記拡張参照サンプルが使用される、請求項31から33のいずれか一項に記載のビデオエンコーダ。
  35. 前記第1のセットの予測モードが、前記最も近い参照サンプルとともに使用することができる予測モードを記述し、前記第2のセットの予測モードが、前記拡張参照サンプルでの使用も許可された前記第1のセットの予測モードの予測モードも記述する、請求項31から34のいずれか一項に記載のビデオエンコーダ。
  36. 前記パラメータ情報の値の範囲が、前記最も近い参照値のみの使用および拡張参照値の異なるサブセットの使用をカバーする、請求項31から35のいずれか一項に記載のビデオエンコーダ。
  37. 拡張参照サンプルの異なる部分が、前記予測ブロックまでの異なる距離を含む、請求項36に記載のビデオエンコーダ。
  38. 前記ビデオエンコーダが、前記パラメータ情報を、前記予測モードに使用される参照サンプルの数および距離を示す所定の数の値のうちの1つに設定するように構成される、請求項36または37に記載のビデオエンコーダ。
  39. 前記ビデオエンコーダが、最も可能性の高いモードコーディングに基づいて、前記第1のセットの予測モードおよび/または前記第2のセットの予測モードを判定するように構成される、請求項31から38のいずれか一項に記載のビデオエンコーダ。
  40. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記少なくとも複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むように構成され、
    前記ビデオエンコーダが、前記第1の予測と前記第2の予測とを組み合わせて、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得するように構成される、ビデオエンコーダ。
  41. 前記予測ブロックが、前記第1の予測ブロックであり、前記ビデオエンコーダが、第2の予測ブロックに関連付けられた複数の拡張参照サンプルがない場合に前記第2の予測ブロックに関連付けられた複数の最も近い参照サンプルを使用して前記ビデオの前記第2の予測ブロックを予測するように構成され、
    前記ビデオエンコーダが、前記符号化データ内の前記予測が予測の組み合わせに基づくか、または前記複数の最も近い参照サンプルがない場合に前記複数の拡張参照サンプルを使用する予測に基づくことを示す結合情報を通知するように構成される、請求項40に記載のビデオエンコーダ。
  42. 前記ビデオエンコーダが、前記第1の予測モードを所定の予測モードとして使用するように構成される、請求項40または41に記載のビデオエンコーダ。
  43. 前記ビデオエンコーダが、前記第1の予測モードを、前記第2の予測モードと同じモードであり且つ前記拡張参照サンプルがない場合に前記最も近い参照サンプルを使用するものとして選択する、または前記第1の予測モードを事前設定された予測モードとして使用するように構成される、請求項42に記載のビデオエンコーダ。
  44. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用するように構成される、ビデオエンコーダ。
  45. 前記ビデオエンコーダが、前記セット内の複数が、参照サンプルとして使用される前記画像のサンプルのラインおよび/または行の数または組み合わせによって互いに異なるように、前記拡張参照サンプルの複数の所定のセットを判定するように構成される、請求項44に記載のビデオエンコーダ。
  46. 前記ビデオエンコーダが、前記予測ブロックのブロックサイズおよび/または前記予測ブロックを予測するために使用される予測モードに基づいて、前記複数の拡張参照サンプルの所定のセットを判定するように構成される、請求項45に記載のビデオエンコーダ。
  47. 前記ビデオエンコーダが、少なくとも所定の閾値である前記予測ブロックのブロックサイズについて前記複数の拡張参照サンプルのセットを判定し、前記ブロックサイズが前記所定の閾値を下回る場合、前記複数の拡張参照サンプルのセットの通知をスキップする、または符号化ツリーブロック内の前記複数の拡張参照サンプルのセットの位置に基づいて前記複数の拡張参照サンプルのセットの通知をスキップするように構成される、請求項45または46に記載のビデオエンコーダ。
  48. 前記所定の閾値が、前記予測ブロックの幅または高さに沿った所定の数のサンプル、および/または前記幅および前記高さに沿った前記予測ブロックの所定のアスペクト比である、請求項47に記載のビデオエンコーダ。
  49. 前記所定のサンプル数が8である、および/または前記アスペクト比が1/4よりも大きく且つ4よりも小さい、請求項48に記載のビデオエンコーダ。
  50. 前記ビデオエンコーダが、前記複数の拡張参照サンプルを使用して第1の予測ブロックとして前記予測ブロックを予測し、前記前記拡張参照サンプルを使用せずに第2の予測ブロックを予測するように構成され、前記ビデオエンコーダが、前記第1の予測ブロックに関連付けられた前記複数の拡張サンプルの所定のセットを通知し、前記第2の予測ブロックに関連付けられた前記拡張参照サンプルの所定のセットを通知しないように構成される、請求項44から49のいずれか一項に記載のビデオエンコーダ。
  51. 前記ビデオエンコーダが、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットのうちの1つを示す情報と、前記画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を通知するように構成される、請求項44から50のいずれか一項に記載のビデオエンコーダ。
  52. 前記ビデオエンコーダが、それによって複数の拡張参照サンプルの前記示された特定の複数の前記セットにしたがって、または前記最も近い参照サンプルの示された使用にしたがって予測モードのみを示すように、前記画像内予測を示す前記情報を通知するように構成される、請求項51に記載のビデオエンコーダ。
  53. ビデオエンコーダであって、
    画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化し、
    前記画像内予測のために、前記複数の予測ブロックの予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されるように構成され、
    前記ビデオエンコーダが、前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定し、
    前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を通知するように構成される、ビデオエンコーダ。
  54. 前記ビデオエンコーダが、波面アプローチにしたがってブロックの並列符号化ラインによって前記画像を符号化し、角度予測に基づいて前記予測ブロックを予測するように構成される、前記ビデオエンコーダが、前記画像の既に予測されたブロックに配置されるように、前記予測ブロックを予測するために使用される前記拡張参照サンプルを判定するように構成される、請求項53に記載のビデオエンコーダ。
  55. 前記ビデオエンコーダが、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに、シーケンスレベル、画像レベルまたはスライスレベルで利用不可能なサンプルまたは利用可能なサンプルとして異形に配置された前記拡張予測サンプルを通知するように構成される、請求項53または54に記載のビデオエンコーダ。
  56. 前記ビデオエンコーダが、前記画像の並列符号化を示す情報とともに、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す前記情報を通知するように構成される、請求項53から55のいずれか一項に記載のビデオエンコーダ。
  57. 前記ビデオエンコーダが、複数の最も可能性の高い予測モードのリストを、前記予測モードのための前記複数の最も近い参照サンプルの使用または前記複数の拡張参照サンプルの前記使用に基づいて判定するように構成され、前記ビデオエンコーダが、前記予測モードで許可されているモードによって、前記使用されている参照サンプルに対して制限されている前記予測モードを置換するように構成される、請求項1から56のいずれか一項に記載のビデオエンコーダ。
  58. 前記ビデオエンコーダが、拡張参照サンプルを使用して、輝度情報のみを含む画像に予測を適用するように構成される、請求項1から57のいずれか一項に記載のビデオエンコーダ。
  59. 前記ビデオエンコーダが、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成される、請求項1から58のいずれか一項に記載のビデオエンコーダ。
  60. 前記ビデオエンコーダが、角度予測モードの可能な角度からの角度のサブセットのみを使用する前記角度予測モードを使用して前記予測を予測し、符号化情報をデコーダに通知することから未使用の角度を除外するように構成される、請求項1から59のいずれか一項に記載のビデオエンコーダ。
  61. 前記拡張参照サンプルが、最も近い参照サンプル、好ましくは少なくとも3つのラインおよび行に加えて、少なくとも2つのラインおよび行に配置される、請求項1から60のいずれか一項に記載のビデオエンコーダ。
  62. 前記ビデオエンコーダが、前記予測ブロックを予測するために複数の拡張参照サンプルの特定の複数のセットを使用するように構成され、前記ビデオエンコーダが、前記セットによって拡張された複数の最も近い参照サンプルと比較されたときの画像コンテンツの最も低い類似性を含むように前記複数のセットから前記特定の複数を選択するように構成される、請求項1から61のいずれか一項に記載のビデオエンコーダ。
  63. 前記ビデオエンコーダが、フラグを使用して拡張参照サンプルの使用を通知するように構成される、請求項62に記載のビデオエンコーダ。
  64. 前記ビデオエンコーダが、前記拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成され、前記ビデオエンコーダが、第1の変換手順を使用して前記予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して前記第1の変換結果を変換して、前記拡張参照サンプルが前記予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される、請求項1から63のいずれか一項に記載のビデオエンコーダ。
  65. 前記ビデオエンコーダが、二次変換の使用を通知し、または、
    前記拡張参照サンプルの使用を示すときに前記二次変換の不使用を暗黙的に通知し、前記符号化データに二次変換の結果に関連する情報を含めないように構成される、請求項64に記載のビデオエンコーダ。
  66. 前記予測が、前記画像を復号するために量子化された信号と組み合わせて使用される残留信号の予測である、請求項1から65のいずれか一項に記載のビデオエンコーダ。
  67. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記複数の最も近い参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定し、
    置換サンプルによって利用不可能と判定された最も近い参照サンプルを置換し、
    前記画像内予測のために前記置換サンプルを使用するように構成される、ビデオデコーダ。
  68. 前記ビデオデコーダが、
    シーケンスにしたがって順番に前記利用可能性または利用不可能性を判定し、
    前記置換サンプルを、前記シーケンスで利用可能であると判定された最後の拡張参照サンプルのコピーとして判定し、および/または
    前記置換サンプルを、次の拡張参照サンプルが前記シーケンスで利用可能であると判定されるコピーとして判定するように構成される、請求項67に記載のビデオデコーダ。
  69. 前記ビデオデコーダが、
    シーケンスにしたがって順番に前記利用可能性または利用不可能性を判定し、
    前記参照サンプルが利用不可能であると判定される前に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルと、前記参照サンプルが利用不可能であると判定された後に利用可能であると判定され且つ前記シーケンスに配置された拡張参照サンプルとの組み合わせに基づいて、前記置換サンプルを判定するように構成される、請求項68に記載のビデオデコーダ。
  70. 前記ビデオデコーダが、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を判定し、
    前記複数の拡張参照サンプルの利用可能な拡張参照サンプルの一部が所定の閾値以上であることを示す情報と、前記複数の拡張参照サンプルの使用とを受信し、
    前記情報がない場合に前記複数の拡張参照サンプルの使用をスキップするように構成される、請求項67から69のいずれか一項に記載のビデオデコーダ。
  71. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    バイラテラルフィルタを使用して複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、前記複数のフィルタリングされた拡張参照サンプルを取得し、
    前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用するように構成される、ビデオデコーダ。
  72. 前記ビデオデコーダが、3タップフィルタ、5タップフィルタ、および7タップフィルタのうちの1つを使用して前記複数の拡張参照サンプルをフィルタリングするように構成される、請求項71に記載のビデオエンコーダ。
  73. 前記3タップフィルタ、5タップフィルタおよび7タップフィルタが、バイラテラルフィルタとして構成され、前記ビデオデコーダが、角度予測モードを使用して前記予測ブロックを予測し、前記角度予測に使用される角度に基づいて、前記3タップフィルタ、前記5タップフィルタおよび前記7タップフィルタのうちの1つを使用することを選択するように構成され、前記角度が前記角度予測モードの水平方向または垂直方向の間に配置され、および/または前記ビデオデコーダが、前記予測ブロックのブロックサイズに基づいて、前記3タップフィルタ、前記5タップフィルタおよび前記7タップフィルタのうちの1つを使用するように選択するように構成される、請求項72に記載のビデオデコーダ。
  74. 前記ビデオデコーダが、対角線に向かって水平方向または垂直方向に角度を増加させるために、タップが増加するフィルタを選択するように構成される、請求項73に記載のビデオエンコーダ。
  75. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    複数の最も近い参照サンプルが前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置され、
    マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングし、
    前記マッピングされた拡張参照サンプルを前記予測に使用するように構成される、ビデオデコーダ。
  76. 前記ビデオデコーダが、前記予測ブロックを予測するために使用される予測モードにしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項75に記載のビデオデコーダ。
  77. 前記ビデオデコーダが、前記予測ブロックを予測するための前記予測モードで使用される方向にしたがって、前記最も近い参照サンプルの部分をマッピングするように構成される、請求項76に記載のビデオデコーダ。
  78. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されるように構成され、
    前記ビデオデコーダが、拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルを使用する場合は、境界フィルタリングを使用しないように構成され、
    前記ビデオデコーダが、前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに境界フィルタリングを使用しないように構成される、ビデオデコーダ。
  79. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測において、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記拡張参照サンプルを使用して前記予測ブロックの予測を判定し、
    前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得し、
    前記予測と前記フィルタリングされた拡張参照サンプルを結合し、前記予測ブロックの組み合わせ予測を取得するように構成される、ビデオデコーダ。
  80. 前記ビデオデコーダが、前記予測ブロックに関して、サンプルの主対角線または副対角線に配置されている前記予測サンプルおよび前記拡張参照サンプルを組み合わせるように構成される、請求項79に記載のビデオデコーダ。
  81. 前記ビデオデコーダが、以下の判定ルールに基づいて前記予測サンプルと前記拡張参照サンプルとを組み合わせるように構成される:
    Figure 2021530160
    ここで、p(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
    Figure 2021530160
    は、予測重みであり、dは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの前記拡張された上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの前記拡張された左側の参照サンプルであり、i>0の場合のr(−1−i,−1−i)は、前記予測ブロックの境界に関する前記複数の拡張参照サンプルの拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項79または80に記載のビデオデコーダ。
  82. 前記正規化係数が、以下の判定ルールに基づいて判定される、請求項83に記載のビデオデコーダ。
    Figure 2021530160
  83. 前記ビデオデコーダが、3タップフィルタ、5タップフィルタおよび7タップフィルタのうちの1つを使用して前記拡張参照サンプルをフィルタリングし、フィルタリングされた拡張参照サンプル(i>0の場合のr(x,−1−i)、r(−1−i,y)、r(−1−i,−1−i))(組み合わせ)を取得し、前記予測のために前記フィルタリングされた拡張参照サンプルを使用するように構成される、請求項79から82のいずれか一項に記載のビデオデコーダ。
  84. 前記ビデオデコーダが、前記予測ブロックの拡張隅参照サンプルと、参照サンプル(r(−1−i,−1−i))の隅領域に配置された拡張参照サンプルとの組み合わせを使用するように構成される、請求項79から83のいずれか一項に記載のビデオデコーダ。
  85. 前記ビデオデコーダが、以下の判定ルールに基づいて前記組み合わせ予測を取得するように構成される:
    Figure 2021530160
    ここで、p(x,y)は、前記予測ブロック内の座標xとyの前記組み合わせ予測を示し、p(x,y)は、前記予測ブロック内の座標xとyの前記予測を示し、
    Figure 2021530160
    は、予測重みであり、dは、次元xの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、dは、次元yの前記予測ブロックのサイズに応じて1または2に設定されたパラメータであり、i>0の場合のr(x,−1−i)は、水平位置xでの拡張上部参照サンプルであり、i>0の場合のr(−1−i,y)は、垂直位置yでの拡張左参照サンプルであり、i>0の場合の
    Figure 2021530160
    は、前記予測ブロックの境界に関して結合された拡張隅参照サンプルであり、b(x,y)は、正規化係数を示す、請求項84に記載のビデオデコーダ。
  86. 前記ビデオデコーダが、前記画像内予測に基づいて前記予測p(x、y)を取得するように構成される、請求項79から85のいずれか一項に記載のビデオデコーダ。
  87. 前記ビデオデコーダが、前記画像内予測として平面予測のみを使用するように構成される、請求項86に記載のビデオデコーダ。
  88. 前記ビデオデコーダが、復号されたビデオブロックごとに、前記予測と前記フィルタリングされた拡張参照サンプルとの前記組み合わせを識別するパラメータセットを判定するように構成される、請求項79から87のいずれか一項に記載のビデオデコーダ。
  89. 前記ビデオデコーダが、前記予測ブロックの異なるブロックサイズのセットを含むルックアップテーブルを使用して、前記予測および前記フィルタリングされた拡張参照サンプルの前記組み合わせを識別する前記パラメータセットを判定するように構成される、請求項88に記載のビデオデコーダ。
  90. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが前記第1のセットの前記予測モードのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられるように構成され、
    前記ビデオデコーダが、組み合わせ予測(p(x,y))を取得するために、前記符号化データの前記予測ブロックの予測として前記第1の予測(p(x,y))と前記第2の予測(p(x,y))とを加重(w;w)結合するように構成される、ビデオデコーダ。
  91. 前記ビデオデコーダが、有効な第1の予測モードおよび有効な第2の予測モードの可能な組み合わせの一部である所定の組み合わせにしたがって、前記第1の予測および前記第2の予測を使用するように構成される、請求項90に記載のビデオデコーダ。
  92. 前記ビデオデコーダが、前記第1の予測モードを示す信号を受信せずに前記第2の予測モードを示す信号を受信し、前記第2の予測モードまたはパラメータ情報(i)から前記第1の予測モードを導出するように構成される、請求項90または91に記載のビデオデコーダ。
  93. 前記ビデオデコーダが、前記第1の予測モードおよび前記第2の予測モードのうちの1つとして平面予測モードのみを使用するように構成される、請求項90から92のいずれか一項に記載のビデオデコーダ。
  94. 前記ビデオデコーダが、前記予測ブロックのブロックサイズに基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みを適応させ、および/または
    前記第1の予測モードに基づいて前記第1の重みを適応させるかまたは前記第2の予測モードに基づいて前記第2の重みを適応させるように構成される、請求項90から93のいずれか一項に記載のビデオデコーダ。
  95. 前記ビデオデコーダが、前記予測ブロックにおける位置に基づいて、前記組み合わせ予測における前記第1の予測に適用される第1の重みと、前記組み合わせ予測における前記第2の予測に適用される第2の重みとを適合させるように構成される、請求項90から94のいずれか一項に記載のビデオデコーダ。
  96. 前記ビデオデコーダが、以下の判定ルールに基づいて前記第1の重みおよび前記第2の重みを適応させるように構成され、
    Figure 2021530160
    ここで、w(x,y)は、前記予測ブロック内の位置x,yに基づく前記第1の重みであり、wは、前記予測ブロック内の前記位置x,yに基づく前記第2の重みであり、p(x,y)は、前記位置x,yの前記第1の予測であり、p(x,y)は、前記位置x,yの前記第2の予測であり、iは、前記第2の予測に使用される前記拡張参照サンプルを示す、請求項95に記載のビデオデコーダ。
  97. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
    前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信し、
    その後、前記予測モードに使用される前記拡張参照サンプルのサブセットを示し、それにより、前記予測モードが前記予測モードの前記第2のセットに含まれることを示すパラメータ情報(i)を受信し、前記パラメータ情報を受信しない場合、前記使用された予測モードが前記予測モードの第2のセットに含まれていないことを判定し、前記予測のために前記最も近い参照サンプルの使用を判定するように構成される、ビデオデコーダ。
  98. 前記ビデオデコーダが、前記パラメータ情報を受信しないときにDCモードまたは平面モードの使用を示すものとして前記モード情報を判定するように構成される、請求項97に記載のビデオデコーダ。
  99. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用し、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用し、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであり、
    前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信し、前記複数の参照サンプルの前記サブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含み、
    その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信し、前記モード情報がモードのサブセットからの予測モードを示し、前記サブセットが前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されるように構成される、ビデオデコーダ。
  100. 前記最も近い参照サンプルに加えて、前記第2のセットの予測モードに含まれるモードの前記拡張参照サンプルが使用される、請求項97から99に記載のビデオデコーダ。
  101. 前記第1のセットの予測モードが、前記最も近い参照サンプルとともに使用することができる予測モードを記述し、前記第2のセットの予測モードが、前記拡張参照サンプルでの使用も許可された前記第1のセットの予測モードの予測モードも記述する、請求項97から100のいずれか一項に記載のビデオデコーダ。
  102. 前記パラメータ情報の値の範囲が、前記最も近い参照値のみの使用および拡張参照値の異なるサブセットの使用をカバーする、請求項97から101のいずれか一項に記載のビデオデコーダ。
  103. 拡張参照サンプルの前記異なる部分が、前記予測ブロックまでの異なる距離を含む、請求項102に記載のビデオデコーダ。
  104. 前記ビデオデコーダが、前記パラメータ情報を、前記予測モードに使用される参照サンプルの数および距離を示す所定の数の値のうちの1つに設定するように構成される、請求項102または103に記載のビデオデコーダ。
  105. 前記ビデオデコーダが、最も可能性の高いモードコーディングに基づいて、前記第1のセットの予測モードおよび/または前記第2のセットの予測モードを判定するように構成される、請求項97から104のいずれか一項に記載のビデオデコーダ。
  106. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定し、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含み、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定し、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むように構成され、
    前記ビデオデコーダが、前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得するように構成される、ビデオデコーダ。
  107. 前記予測ブロックが、第1の予測ブロックであり、前記ビデオデコーダが、第2の予測ブロックに関連付けられた複数の拡張参照サンプルがない場合に前記第2の予測ブロックに関連付けられた複数の最も近い参照サンプルを使用して前記ビデオの前記第2の予測ブロックを予測するように構成され、
    前記ビデオデコーダが、前記符号化データ内の前記予測が予測の組み合わせに基づくか、または前記複数の最も近い参照サンプルがない場合に前記複数の拡張参照サンプルを使用する予測に基づくことを示す結合情報を受信し、それに応じて符号化データを復号するように構成される、請求項106に記載のビデオデコーダ。
  108. 前記ビデオデコーダが、前記第1の予測モードを所定の予測モードとして使用するように構成される、請求項106または107に記載のビデオデコーダ。
  109. 前記ビデオデコーダが、前記第1の予測モードを、前記第2の予測モードと同じモードであり且つ前記拡張参照サンプルがない場合に前記最も近い参照サンプルを使用するものとして選択する、または、前記第1の予測モードを事前設定された予測モードとして使用するように構成される、請求項108に記載のビデオデコーダ。
  110. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号し、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用し、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離され、
    前記複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用するように構成される、ビデオデコーダ。
  111. 前記ビデオデコーダが、前記セット内の複数が、参照サンプルとして使用される前記画像のサンプルのラインおよび/または行の数または組み合わせによって互いに異なるように、前記拡張参照サンプルの複数の所定のセットを判定するように構成される、請求項110に記載のビデオデコーダ。
  112. 前記ビデオデコーダが、前記予測ブロックのブロックサイズおよび/または前記予測ブロックを予測するために使用される予測モードに基づいて、前記複数の拡張参照サンプルの所定のセットを判定するように構成される、請求項111に記載のビデオデコーダ。
  113. 前記ビデオデコーダが、少なくとも所定の閾値である前記予測ブロックのブロックサイズについて前記複数の拡張参照サンプルのセットを判定し、前記ブロックサイズが前記所定の閾値を下回る場合、前記複数の拡張参照サンプルのセットの使用をスキップするように構成される、請求項111または112に記載のビデオデコーダ。
  114. 前記所定の閾値が、前記予測ブロックの幅または高さに沿った所定の数のサンプル、および/または前記幅および前記高さに沿った前記予測ブロックの所定のアスペクト比である、請求項113に記載のビデオデコーダ。
  115. 前記所定のサンプル数が8である、および/または前記アスペクト比が1/4よりも大きく且つ4よりも小さい、請求項114に記載のビデオデコーダ。
  116. 前記ビデオデコーダが、前記複数の拡張参照サンプルを使用して第1の予測ブロックとして前記予測ブロックを予測し、前記拡張参照サンプルを使用しない第2の予測ブロックを予測するように構成され、前記ビデオデコーダが、前記第1の予測ブロックに関連付けられた複数の拡張参照サンプルの所定のセットを示す情報を受信し、それぞれの信号がない場合に前記第2の予測ブロックに関連付けられた拡張参照サンプルの所定のセットを判定するように構成される、請求項110から115のいずれか一項に記載のビデオデコーダ。
  117. 前記ビデオデコーダが、各予測ブロックについて、複数の拡張参照サンプルの特定の複数のセットのうちの1つを示す情報と、前記画像内予測モードを示す情報の前にのみ最も近い参照サンプルの使用を通知するように構成される、請求項110から116のいずれか一項に記載のビデオデコーダ。
  118. 前記ビデオデコーダが、それによって複数の拡張参照サンプルの前記示された特定の複数の前記セットにしたがって、または前記最も近い参照サンプルの示された使用にしたがって予測モードのみを示すように、前記画像内予測を示す情報を通知するように構成される、請求項117に記載のビデオデコーダ。
  119. ビデオデコーダであって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号し、各画像について、複数の予測ブロックが復号され、
    前記画像内予測のために、前記複数の予測ブロックの予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用するように構成され、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、
    前記ビデオデコーダが、前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定し、
    前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を受信するように構成される、ビデオデコーダ。
  120. 前記ビデオデコーダが、波面アプローチにしたがってブロックの並列復号ラインによって前記画像を復号し、角度予測に基づいて前記予測ブロックを予測するように構成され、前記ビデオデコーダが、前記画像の既に予測されたブロックに配置されるように、前記予測ブロックを予測するために使用される前記拡張参照サンプルを判定するように構成される、請求項119に記載のビデオデコーダ。
  121. 前記ビデオデコーダが、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに、シーケンスレベル、画像レベルまたはスライスレベルで利用不可能なサンプルまたは利用可能なサンプルとして異形に配置された前記拡張予測サンプルを示す情報を受信するように構成される、請求項119または120に記載のビデオデコーダ。
  122. 前記ビデオデコーダが、前記画像の並列復号を示す情報とともに、前記予測ブロックに関連付けられ且つ前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す前記情報を受信するように構成される、請求項119から121のいずれか一項に記載のビデオデコーダ。
  123. 前記ビデオデコーダが、複数の最も可能性の高い予測モードのリストを、前記予測モードのための前記複数の最も近い参照サンプルの使用または前記複数の拡張参照サンプルの前記使用に基づいて判定するように構成され、前記ビデオデコーダが、前記予測モードで許可されているモードによって、前記使用されている参照サンプルに対して制限されている前記予測モードを置換するように構成される、請求項68から122のいずれか一項に記載のビデオデコーダ。
  124. 前記ビデオデコーダが、拡張参照サンプルを使用して、輝度情報のみを含む画像に予測を適用するように構成される、請求項68から123のいずれか一項に記載のビデオデコーダ。
  125. 前記ビデオデコーダが、最も近い拡張参照サンプルからパディングすることによって、第1および第2の画像方向に沿って最も近い参照サンプルの幅および/または高さを超える拡張参照サンプルを生成するように構成される、請求項68から124のいずれか一項に記載のビデオデコーダ。
  126. 前記ビデオデコーダが、前記角度予測モードの可能な角度からの角度のサブセットのみを使用する前記角度予測モードを使用して前記予測を予測し、前記予測から未使用の角度を除外するように構成される、請求項68から125のいずれか一項に記載のビデオデコーダ。
  127. 前記拡張参照サンプルが、最も近い参照サンプル、好ましくは少なくとも3つのラインおよび行に加えて、少なくとも2つのラインおよび行に配置される、請求項68から126のいずれか一項に記載のビデオデコーダ。
  128. 前記ビデオデコーダが、前記予測ブロックを予測するために複数の拡張参照サンプルの特定の複数のセットを使用するように構成され、前記ビデオデコーダが、前記セットによって拡張された複数の最も近い参照サンプルと比較されたときの画像コンテンツの最も低い類似性を含むように前記複数のセットから前記特定の複数を選択するように構成される、請求項68から127のいずれか一項に記載のビデオデコーダ。
  129. 前記ビデオデコーダが、フラグによって拡張参照サンプルの使用を示す情報を受信するように構成される、請求項128に記載のビデオデコーダ。
  130. 前記ビデオデコーダが、前記拡張参照サンプルまたは最も近い参照サンプルのみを選択的に使用するように構成され、前記ビデオデコーダが、第1の変換手順を使用して前記予測ブロックを予測することによって得られた残差を変換して、第1の変換結果を取得し、第2の変換手順を使用して前記第1の変換結果を変換して、前記拡張参照サンプルが前記予測ブロックを予測するために使用されないときに第2の変換結果を取得するように構成される、請求項68から129のいずれか一項に記載のビデオデコーダ。
  131. 前記ビデオデコーダが、前記二次変換の使用を示す情報を受信し、または、
    前記拡張参照サンプルの使用を示すときに前記二次変換の不使用を導出し、前記符号化データの二次変換の結果に関連する情報を受信しないように構成される、請求項130に記載のビデオデコーダ。
  132. 前記予測が、前記画像を復号するために量子化された信号と組み合わせて使用される残留信号の予測である、請求項68から131のいずれか一項に記載のビデオデコーダ。
  133. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記予測ブロックに直接隣接する少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定することと、
    置換サンプルによって利用不可能と判定された拡張参照サンプルを置換することと、
    前記画像内予測に置換サンプルを使用することと、を備える、ビデオを符号化する方法。
  134. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    バイラテラルフィルタを使用して、前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
    前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用することと、を備える、ビデオを符号化する方法。
  135. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが、前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置されることと、
    マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングすることと、
    前記マッピングされた拡張参照サンプルを前記予測に使用することと、を備える、ビデオを符号化する方法。
  136. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプル、および複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    拡張サンプルが使用されないモードで境界フィルタリングを行い、拡張サンプルが使用される場合は、境界フィルタリングを使用しない、または
    前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに対して境界フィルタリングを使用しないことと、を備える、ビデオを符号化する方法。
  137. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、前記複数の参照サンプルのうちの少なくとも1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記拡張参照サンプルを使用して前記予測ブロックの予測を判定することと、
    前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
    前記予測と前記フィルタリングされた拡張参照サンプルとを結合し、前記予測ブロックの組み合わせ予測を取得することと、を備える、ビデオを符号化する方法。
  138. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記予測モードの第1のセットのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられることと、
    前記第1の予測(p(x,y))と前記第2の予測(p(x,y))とを加重(w;w)結合して、前記符号化データの前記予測ブロックの予測として組み合わせ予測(p(x,y))を取得することと、を備える、ビデオを符号化する方法。
  139. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
    前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知することと、
    その後、前記予測モードが前記予測モードの第2のセットに含まれている場合、前記予測モードに使用される前記拡張参照サンプルのサブセットを示すパラメータ情報(i)を通知し、前記使用される予測モードが前記予測モードの第2のセットに含まれていない場合、前記パラメータ情報の通知をスキップすることと、を備える、ビデオを符号化する方法。
  140. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
    前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を通知することであって、前記複数の参照サンプルの前記サブセットが、最も近い参照サンプルのみまたは拡張参照サンプルを含むことと、
    その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を通知することであって、前記モード情報が、モードのサブセットからの予測モードを示し、前記サブセットが、前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されることと、を備える、ビデオを符号化する方法。
  141. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測のために、画像の予測ブロックを符号化するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むことと、
    前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得することと、を備える、ビデオを符号化する方法。
  142. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、ビデオの画像を符号化データに符号化することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用することと、を備える、ビデオを符号化する方法。
  143. ビデオを符号化する方法であって、
    画像内予測を含むブロックベースの予測符号化によって、複数の予測ブロックを符号化データに符号化することと、
    前記画像内予測のために、複数の予測ブロックの予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定することと、
    前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を通知することと、を備える、ビデオを符号化する方法。
  144. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測において、画像の予測ブロックを符号化するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記複数の拡張参照サンプルのそれぞれの利用可能性または利用不可能性を順次判定することと、
    置換サンプルによって利用不可能と判定された拡張参照サンプルを置換することと、
    前記画像内予測のために前記置換サンプルを使用することと、を備える、ビデオを復号する方法。
  145. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することと、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    バイラテラルフィルタを使用して前記複数の拡張参照サンプルの少なくともサブセットをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
    前記画像内予測のために前記複数のフィルタリングされた拡張参照サンプルを使用することと、を備える、ビデオを復号する方法。
  146. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することと、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離され、複数の最も近い参照サンプルが前記予測ブロックの第1の画像方向に沿って、および前記予測ブロックの第2の画像方向に沿って配置されることと、
    マッピングされた参照サンプルが前記第1の画像方向に沿った前記予測ブロックの拡張を超えるように、前記第2の方向に沿って配置された前記最も近い参照サンプルの少なくとも一部を前記第1の方向に沿って配置された拡張参照サンプルにマッピングすることと、
    前記マッピングされた拡張参照サンプルを前記予測に使用することと、を備える、ビデオを復号する方法。
  147. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    拡張サンプルが使用されないモードで境界フィルタリングを行い、前記拡張サンプルを使用する場合は、境界フィルタリングを使用しないことと、
    前記複数の最も近い参照サンプルの少なくともサブセットを境界フィルタリングし、前記拡張サンプルに境界フィルタリングを使用しないことと、を備える、ビデオを復号する方法。
  148. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測において、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび複数の拡張参照サンプルを判定することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記拡張参照サンプルを使用して前記予測ブロックの予測を判定することと、
    前記拡張参照サンプルをフィルタリングし、複数のフィルタリングされた拡張参照サンプルを取得することと、
    前記予測と前記フィルタリングされた拡張参照サンプルを結合し、前記予測ブロックの組み合わせ予測を取得することと、を備える、ビデオを復号する方法。
  149. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが前記第1のセットの前記予測モードのサブセットを含み、前記サブセットが前記複数の拡張参照サンプルに関連付けられることと、
    組み合わせ予測(p(x,y))を取得するために、前記符号化データの前記予測ブロックの予測として前記第1の予測(p(x,y))と前記第2の予測(p(x,y))とを加重(w;w)結合することと、を備える、ビデオを復号する方法。
  150. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの第1のセットのサブセットであることと、
    前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信することと、
    その後、前記予測モードに使用される前記拡張参照サンプルのサブセットを示し、それにより、前記予測モードが前記予測モードの前記第2のセットに含まれることを示すパラメータ情報(i)を受信し、前記パラメータ情報を受信しない場合、前記使用された予測モードが前記予測モードの第2のセットに含まれていないことを判定し、前記予測のために前記最も近い参照サンプルの使用を判定することと、を備える、ビデオを復号する方法。
  151. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の最も近い参照サンプルを含む複数の参照サンプルおよび複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記最も近い参照サンプルを使用して前記予測ブロックを予測するための予測モードの第1のセットの1つである予測モードを使用すること、または、前記拡張参照サンプルを使用して前記予測ブロックを予測するための予測モードの第2のセットの1つである予測モードを使用することであって、前記予測モードの第2のセットが前記予測モードの前記第1のセットのサブセットであることと、
    前記予測モードに使用される前記複数の参照サンプルのサブセットを示すパラメータ情報(i)を受信することであって、前記複数の参照サンプルの前記サブセットが最も近い参照サンプルのみまたは少なくとも1つの拡張参照サンプルを含むことと、
    その後、前記予測ブロックを予測するために使用される前記予測モードを示すモード情報(m)を受信することであって、前記モード情報がモードのサブセットからの予測モードを示し、前記サブセットが前記パラメータ情報(i)にしたがって許可された予測モードのセットに制限されることと、を備える、ビデオを復号する方法。
  152. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測のために、画像の予測ブロックを復号するために、前記予測ブロックに直接隣接する前記画像の複数の最も近い参照サンプルおよび/または複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    予測モードのセットの第1の予測モードを使用して前記予測ブロックの第1の予測を判定することであって、前記予測モードの第1のセットが、前記拡張参照サンプルがない場合に前記複数の最も近い参照サンプルを使用する予測モードを含むことと、
    予測モードの第2のセットの第2の予測モードを使用して前記予測ブロックの第2の予測を判定することであって、前記予測モードの第2のセットが、前記複数の拡張参照サンプルに関連付けられている前記第1のセットの前記予測モードのサブセットを含むことと、
    前記第1の予測と前記第2の予測とを結合して、前記符号化データ内の前記予測ブロックの予測として組み合わせ予測を取得することと、を備える、ビデオを復号する方法。
  153. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、データをビデオに符号化することで符号化された画像を復号することと、
    前記画像内予測において、画像の予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって予測ブロックから分離されることと、
    複数の拡張参照サンプルの所定のセットにしたがって、前記複数の拡張参照サンプルを使用することと、を備える、ビデオを復号する方法。
  154. ビデオを復号する方法であって、
    画像内予測を含むブロックベースの予測復号によって、符号化データで符号化された画像をビデオに復号することであって、各画像について、複数の予測ブロックが復号されることと、
    前記画像内予測のために、複数の予測ブロックの予測ブロックを復号するために、前記画像の複数の拡張参照サンプルを使用することであって、前記複数の拡張参照サンプルの各拡張参照サンプルが、少なくとも前記予測ブロックに直接隣接する前記複数の参照サンプルのうちの1つの最も近い参照サンプルによって前記予測ブロックから分離されることと、
    前記複数の予測ブロックの隣接する予測ブロックの少なくとも部分的な一部となるように前記拡張参照サンプルを判定し、前記隣接する予測ブロックがまだ予測されていないことを判定することと、
    前記予測ブロックに関連付けられ、前記隣接する予測ブロックに利用不可能なサンプルとして配置された前記拡張予測サンプルを示す情報を受信することと、を備える、ビデオを復号する方法。
  155. コンピュータ上で実行されるときに、請求項133から154のいずれか一項に記載の方法を実行するためのプログラムコードを有するコンピュータプログラムを記憶した非一時的記憶媒体。
JP2020573307A 2018-06-29 2019-06-28 拡張参照画像内予測 Pending JP2021530160A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023088847A JP2023109986A (ja) 2018-06-29 2023-05-30 拡張参照画像内予測

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18180960 2018-06-29
EP18180960.9 2018-06-29
PCT/EP2019/067412 WO2020002641A1 (en) 2018-06-29 2019-06-28 Extended reference intra-picture prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023088847A Division JP2023109986A (ja) 2018-06-29 2023-05-30 拡張参照画像内予測

Publications (1)

Publication Number Publication Date
JP2021530160A true JP2021530160A (ja) 2021-11-04

Family

ID=62837810

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020573307A Pending JP2021530160A (ja) 2018-06-29 2019-06-28 拡張参照画像内予測
JP2023088847A Pending JP2023109986A (ja) 2018-06-29 2023-05-30 拡張参照画像内予測

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023088847A Pending JP2023109986A (ja) 2018-06-29 2023-05-30 拡張参照画像内予測

Country Status (7)

Country Link
US (2) US11606554B2 (ja)
EP (1) EP3815360A1 (ja)
JP (2) JP2021530160A (ja)
KR (2) KR20230107907A (ja)
CN (2) CN117812254A (ja)
TW (2) TW202247652A (ja)
WO (1) WO2020002641A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7259013B2 (ja) 2018-10-05 2023-04-17 テンセント・アメリカ・エルエルシー マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834393B2 (en) * 2018-09-10 2020-11-10 Tencent America LLC Intra interpolation filter for multi-line intra prediction
US11153563B2 (en) * 2019-03-12 2021-10-19 Qualcomm Incorporated Combined in-loop filters for video coding
US11363284B2 (en) * 2019-05-09 2022-06-14 Qualcomm Incorporated Upsampling in affine linear weighted intra prediction
WO2020228671A1 (en) 2019-05-10 2020-11-19 Beijing Bytedance Network Technology Co., Ltd. Multiple secondary transform matrices for video processing
US11290731B2 (en) * 2019-05-22 2022-03-29 Tencent America LLC Method and apparatus for video coding
EP3967032A4 (en) * 2019-06-07 2022-07-27 Beijing Bytedance Network Technology Co., Ltd. CONDITIONAL SIGNALING OF A REDUCED SECONDARY TRANSFORM FOR VIDEO BIANARY FLOWS
JP7422858B2 (ja) 2019-08-03 2024-01-26 北京字節跳動網絡技術有限公司 ビデオ処理方法、装置、記憶媒体及び記憶方法
CN114223208B (zh) 2019-08-17 2023-12-29 北京字节跳动网络技术有限公司 为视频中的缩减二次变换的边信息的上下文建模
US11553208B2 (en) * 2019-11-27 2023-01-10 Tencent America LLC Method and system of video coding using a subset of available intra prediction modes for multiple reference lines
WO2023113512A1 (ko) * 2021-12-17 2023-06-22 주식회사 케이티 영상 부호화/복호화 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535919A (ja) * 2010-07-31 2013-09-12 オ,ス−ミ 予測ブロック生成装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013514718A (ja) * 2009-12-17 2013-04-25 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 映像符号化の方法及び装置
KR20130091717A (ko) * 2010-07-31 2013-08-19 엠앤케이홀딩스 주식회사 예측 블록 생성 장치
US9628789B2 (en) 2011-11-18 2017-04-18 Qualcomm Incorporated Reference mode selection in intra mode coding
KR101569912B1 (ko) * 2013-12-17 2015-11-27 세종대학교산학협력단 영상의 복호화/부호화 방법 및 장치
EP3262836B1 (en) * 2015-03-02 2020-07-29 HFI Innovation Inc. Method and apparatus for intrabc mode with fractional-pel block vector resolution in video coding
US20170099490A1 (en) * 2015-10-02 2017-04-06 Qualcomm Incorporated Constrained intra-prediction for block copy mode
US20190200011A1 (en) * 2016-09-08 2019-06-27 Lg Electronics Inc. Intra-prediction mode-based image processing method and apparatus therefor
US10382781B2 (en) * 2016-09-28 2019-08-13 Qualcomm Incorporated Interpolation filters for intra prediction in video coding
CN110832855B (zh) * 2017-07-03 2023-04-14 汉阳大学校产学协力团 利用包含追加区域的分割单位的影像解码方法以及装置
US10419754B1 (en) * 2018-04-02 2019-09-17 Tencent America LLC Method and apparatus for video decoding using multiple line intra prediction
US20190387251A1 (en) * 2018-06-19 2019-12-19 Mediatek Inc. Methods and Apparatuses of Video Processing with Overlapped Block Motion Compensation in Video Coding Systems
EP3815361A1 (en) * 2018-06-26 2021-05-05 InterDigital VC Holdings, Inc. Multiple reference intra prediction using variable weights
US11159806B2 (en) * 2018-06-28 2021-10-26 Qualcomm Incorporated Position dependent intra prediction combination with multiple reference lines for intra prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013535919A (ja) * 2010-07-31 2013-09-12 オ,ス−ミ 予測ブロック生成装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"SERIES H: AUDIOVISUAL AND MULTIMEDIA SYSTEMS Infrastructure of audiovisual services - Coding of movi", RECOMMENDATION ITU-T H.265 (04/2013) HIGH EFFICIENCY VIDEO CODING, JPN6022012653, 7 June 2013 (2013-06-07), pages 106 - 107, ISSN: 0004977826 *
CHEN, JIANLE ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001 (version 1), JPN6022012652, 19 August 2017 (2017-08-19), ISSN: 0004739754 *
VAN DER AUWERA, GEERT ET AL.: "Description of Core Experiment 3: Intra Prediction and Mode Coding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 10TH MEETING: SAN, vol. JVET-J1023 (version 3), JPN6022012654, 21 June 2018 (2018-06-21), ISSN: 0004977825 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7259013B2 (ja) 2018-10-05 2023-04-17 テンセント・アメリカ・エルエルシー マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム

Also Published As

Publication number Publication date
CN112640450A (zh) 2021-04-09
US20230188715A1 (en) 2023-06-15
CN117812254A (zh) 2024-04-02
TWI764012B (zh) 2022-05-11
EP3815360A1 (en) 2021-05-05
WO2020002641A1 (en) 2020-01-02
US11606554B2 (en) 2023-03-14
JP2023109986A (ja) 2023-08-08
US20210120240A1 (en) 2021-04-22
KR20230107907A (ko) 2023-07-18
KR20210024166A (ko) 2021-03-04
TW202247652A (zh) 2022-12-01
TW202017369A (zh) 2020-05-01
KR102555363B1 (ko) 2023-07-13

Similar Documents

Publication Publication Date Title
JP2021530160A (ja) 拡張参照画像内予測
US11792409B2 (en) Method and apparatus for encoding/decoding an image
JP6615290B2 (ja) ビデオ符号化方法、ビデオ復号方法、ビデオエンコーダ、及びビデオデコーダ
CN111937395B (zh) 用于编码/解码图像的方法和装置
EP3800883A1 (en) Intra-frame prediction method and device
US11533470B2 (en) Method and apparatus for encoding/decoding an image signal
KR20180001478A (ko) 비디오 신호 처리 방법 및 장치
JP2017011732A (ja) 映像符号化装置
KR20170116850A (ko) 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
CN112335249A (zh) 用于编码/解码图像的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220331

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230530

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230607

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230810