JP2022531544A - 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 - Google Patents

平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 Download PDF

Info

Publication number
JP2022531544A
JP2022531544A JP2021559591A JP2021559591A JP2022531544A JP 2022531544 A JP2022531544 A JP 2022531544A JP 2021559591 A JP2021559591 A JP 2021559591A JP 2021559591 A JP2021559591 A JP 2021559591A JP 2022531544 A JP2022531544 A JP 2022531544A
Authority
JP
Japan
Prior art keywords
ntbw
block
ntbh
value
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021559591A
Other languages
English (en)
Inventor
ビャオ・ワン
セミフ・エセンリク
アナンド・メヘル・コトラ
ハン・ガオ
エレナ・アレクサンドロブナ・アルシナ
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2022531544A publication Critical patent/JP2022531544A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

実現されるコーディングの方法が提供される。方法は、以下のステップ、すなわち、クリッピング演算を適用することなく取得された現在のブロックの高さおよび幅、予測ブロックの高さおよび幅に基づいてイントラ予測サンプルの垂直成分の値を計算するステップと、ブロックの高さおよび幅に基づいてイントラ予測サンプルの水平成分の値を計算するステップと、垂直成分の値および水平成分の値に基づいてイントラ予測サンプルを生成するステップとを含む。

Description

関連出願の相互参照
この特許出願は、2019年9月23日に出願されたPCT出願番号PCT/EP2019/075519の優先権を主張する。上述の特許出願の開示は、その全体が参照によりここに組み込まれる。
本出願(開示)の実施形態は、一般に、ピクチャ処理の分野に、より詳細には、平面モードのための一般のイントラ予測プロセスにおけるフィルタ修正に関する。
ビデオコーディング(ビデオエンコードおよびビデオデコード)は、広い範囲のデジタルビデオアプリケーション、例えば、放送デジタルTV、インターネットおよびモバイルネットワーク上でのビデオ伝送、ビデオチャットのようなリアルタイム会話型アプリケーション、ビデオ会議、DVDおよびBlu-ray(登録商標)ディスク、ビデオコンテンツ収集および編集システム、およびセキュリティアプリケーションのカムコーダにおいて使用される。
比較的短いビデオでさえ描写するために必要とされるビデオデータの量は、かなりである可能性があり、これは、限定された帯域幅容量を有する通信ネットワークを渡ってデータがストリーミングされ、またはそうでなく伝達されることになるときに、困難をもたらし得る。従って、ビデオデータは、一般に、現代の電気通信ネットワークを渡って伝達される前に圧縮される。メモリリソースが限定され得るので、ビデオが記憶デバイスにおいて記憶されるとき、ビデオのサイズも問題である可能性がある。ビデオ圧縮デバイスは、しばしば、伝送または記憶の前に、ソースにおいてソフトウェアおよび/またはハードウェアを使用してビデオデータをコーディングし、それにより、デジタルビデオ画像を表現するために必要とされるデータの量を減らす。圧縮されたデータは、次いで、ビデオデータをデコードするビデオ復元デバイスによって宛先において受信される。限定されたネットワークリソース、およびより高いビデオ品質の増加さえしている需要を有して、ピクチャ品質においてほとんどないし全く犠牲なしで圧縮率を改善する、改善された圧縮および復元技法が望ましい。
予測方法は、以前にエンコードされたサンプルに基づいて信号冗長性を減少させるためのそれらの能力に起因して、画像およびビデオコーディングにおいて重要な役割を果たし得る。主な予測技法は、効率的な空間冗長性コーディングのためのイントラ予測、およびインターフレーム時間冗長性コーディングのための動き補償された予測を含む。特に、平面モードは頻繁に使用されるイントラ予測モードである。しかしながら、いくつかのブロックについて平面モードイントラ予測は不必要に複雑である。
本出願のいくつかの実施形態によれば、独立請求項による、コーディング(例えば、それぞれ、エンコードまたはデコード)のための装置および方法が提供される。
上記および他の目的は、独立請求項の主題によって達成される。さらなる実装形式は、従属請求項、説明、および図から明らかである。
第1の態様によれば、発明は、デコードまたはエンコードのための方法に関する。方法は、デコードまたはエンコード装置によって実行される。方法は、ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算するステップを含み、垂直成分の値predV[ x ][ y ]は、上および下の参照サンプル行からのサンプルを使用して線形フィルタを用いて生成され、下のサンプル行は、現在のブロックの左上のサンプルに関して(-1, nTbH)に位置付けられるサンプルを使用してパディングされる。たとえば、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、ここで、predV[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である垂直成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ x ][ -1 ]は、x = 0..nTbWである隣接サンプルを表現する。
方法は、イントラ予測サンプルの水平成分の値を計算するステップをさらに含み、水平成分の値predH[ x ][ y ]は、左および右の参照サンプル列からのサンプルを使用して線形フィルタを用いて生成され、右のサンプル列は、現在のブロックの左上のサンプルに関して(nTbW, -1)に位置付けられるサンプルを使用してパディングされる。
たとえば、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、ここで、predH[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である水平成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ -1 ][ y ]は、y = -1..nTbHである隣接サンプルを表現する。
方法は、垂直成分の値および水平成分の値に基づいてイントラ予測サンプルpredSamples[ x ][ y ]を生成するステップをさらに含む。イントラ予測サンプルは、予測されるサンプルとも呼ばれる。
ブロックの高さが1に等しいとき、垂直成分の値predV[ x ][ y ]は、predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )として簡略化され、水平成分の値predH[ x ][ y ]は、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )として簡略化される。
第2の態様によれば、発明は、デコードまたはエンコードする方法に関する。方法は、デコードまたはエンコード装置によって実行される。方法は、クリッピング演算を適用することなく現在の予測ブロックの高さおよび幅を取得するステップと、予測ブロックの高さおよび幅に基づいてイントラ予測サンプルの垂直成分の値を計算するステップと、予測ブロックの高さおよび幅に基づいてイントラ予測サンプルの水平成分の値を計算するステップと、垂直成分の値および水平成分の値に基づいてイントラ予測サンプルを生成するステップとを含む。
発明の第1の態様による方法は、発明の第3の態様による装置によって実行されることが可能である。発明の第3の態様による装置のさらなる特徴および実装形式は、発明の第1の態様による方法の特徴および実装形式に対応する。
発明の第2の態様による方法は、発明の第4の態様による装置によって実行されることが可能である。発明の第4の態様による装置のさらなる特徴および実装形式は、発明の第2の態様による方法の特徴および実装形式に対応する。
第5の態様によれば、発明は、ビデオストリームをデコードまたはエンコードするための装置に関し、プロセッサおよびメモリを含む。メモリは、第1の態様または第2の態様による方法をプロセッサに実行させる命令を記憶している。
第6の態様によれば、実行されたとき、1つまたは複数のプロセッサにビデオデータをコーディングするように構成させる命令を記憶した、コンピュータ可読記憶媒体が提案される。命令は、第1もしくは第2の態様または第1もしくは第2の態様の任意の可能な実施形態による方法を、1つまたは複数のプロセッサに実行させる。
第7の態様によれば、発明は、コンピュータにおいて実行されたとき、第1もしくは第2の態様または第1もしくは第2の態様の任意の可能な実施形態による方法を実行するためのプログラムコードを備えるコンピュータプログラムに関する。
第8の態様によれば、発明は、ピクチャにおけるイントラ平面予測のデバイスに関し、ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算するように構成された計算ユニットを含む。垂直成分の値predV[ x ][ y ]は、上および下の参照サンプル行からのサンプルを使用して線形フィルタを用いて生成され、下のサンプル行は、現在のブロックの左上のサンプルに関して(-1, nTbH)に位置付けられるサンプルを使用してパディングされる。たとえば、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、ここで、predV[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である垂直成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ x ][ -1 ]は、x = 0..nTbWである隣接サンプルを表現する。
イントラ予測サンプルの水平成分の値を計算するようにさらに構成された計算ユニットであって、水平成分の値predH[ x ][ y ]は、左および右の参照サンプル列からのサンプルを使用して線形フィルタを用いて生成され、右のサンプル列は、現在のブロックの左上のサンプルに関して(nTbW, -1)に位置付けられるサンプルを使用してパディングされる。
たとえば、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、ここで、predH[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である水平成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ -1 ][ y ]は、y = -1..nTbHである隣接サンプルを表現する。
デバイスは、垂直成分の値および水平成分の値に基づいてイントラ予測サンプルを生成するように構成された予測ユニット(903)をさらに含む。
この開示の実施形態は、垂直および水平成分を計算する前にクリッピング演算nW = Max( nTbW, 2 )およびクリッピング演算nH = Max( nTbH, 2 )を実行しない。したがって、平面モードを適用する予測が簡略化される。それに対応して、エンコードまたはデコード効率が増加される。
1つまたは複数の実施形態の詳細が、添付の図面および以下の説明において記載される。他の特徴、目的、および利点は、説明、図面、および請求項から明らかになるであろう。
以下では、発明の実施形態が、添付の図および図面を参照して、より詳細に説明される。
発明の実施形態を実現するように構成されたビデオコーディングシステムの一例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオコーディングシステムの別の例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオエンコーダの一例を表すブロック図である。 発明の実施形態を実現するように構成されたビデオデコーダの例示の構造を表すブロック図である。 エンコード装置またはデコード装置の一例を例示するブロック図である。 エンコード装置またはデコード装置の別の例を例示するブロック図である。 VVCにおける平面モードのためのイントラ予測を例示する概略図である。 N×1ブロックについての平面モードのためのイントラ予測を例示する概略図である。 ビデオコーディングにおける現在のブロックのイントラ平面予測のための方法を例示するフローチャートを表す。 ビデオコーディングデバイスの構成を例示する。 コンテンツ配信サービスを実現するコンテンツ供給システム3100の例示の構造を表すブロック図である。 端末デバイスの一例の構造を表すブロック図である。
以下では、同一の参照符号は、明示的に他に指定されないならば、同一のまたは少なくとも機能的に等価な特徴を指す。
以下の説明では、開示の部分を形成し、発明の実施形態の特定の態様または本発明の実施形態が使用され得る特定の態様を例示として表す、添付の図への参照が行われる。発明の実施形態が、他の態様において使用され、図の中に描写されていない構造的または論理的な変更を備え得ることが理解される。従って、以下の詳細な説明は限定する意味で受け取られるべきでなく、本発明の範囲は添付の請求項によって定義される。
例えば、説明される方法に関する開示が、その方法を実行するように構成された対応するデバイスまたはシステムについても当てはまり得るとともに逆も同様であることが理解される。例えば、1つまたは複数の特定の方法のステップが説明されるならば、そのような1つまたは複数のユニットが明示的に説明されない、または図の中に例示されないとしても、対応するデバイスは、説明される1つまたは複数の方法のステップを実行するための1つまたは複数のユニット、例えば、機能ユニット(例えば、1つまたは複数のステップを実行する1つのユニット、または複数のステップのうちの1つまたは複数を各々が実行する複数のユニット)を含んでよい。一方、例えば、1つまたは複数のユニット、例えば、機能ユニットに基づいて、特定の装置が説明されるならば、そのような1つまたは複数のステップが明示的に説明されない、または図の中に例示されないとしても、対応する方法は、1つまたは複数のユニットの機能を実行するための1つのステップ(例えば、1つまたは複数のユニットの機能を実行する1つのステップ、または複数のユニットのうちの1つまたは複数の機能を各々が実行する複数のステップ)を含んでよい。さらに、特に他に注記されないならば、ここで説明される様々な例示的な実施形態および/または態様の特徴が互いに組み合わせられてよいことが理解される。
ビデオコーディングは、典型的に、ビデオまたはビデオシーケンスを形成する、ピクチャのシーケンスの処理を指す。用語「ピクチャ」の代わりに、ビデオコーディングの分野では用語「フレーム」または「画像」が同義語として使用され得る。ビデオコーディング(または、一般にコーディング)は、2つの部分、ビデオエンコードおよびビデオデコードを備える。ビデオエンコードは、ソース側において実行され、典型的に、ビデオピクチャを表現するために要求されるデータの量を(より効率的な記憶および/または伝送のために)減少させるために、(例えば、圧縮によって)元のビデオピクチャを処理することを備える。ビデオデコードは、宛先側において実行され、典型的に、ビデオピクチャを再構成するための、エンコーダと比較して逆の処理を備える。ビデオピクチャ(または、一般にピクチャ)の「コーディング」に言及する実施形態は、ビデオピクチャまたはそれぞれのビデオシーケンスの「エンコード」または「デコード」に関すると理解されるものである。エンコード部分とデコード部分の組み合わせは、CODEC(Coding and Decoding(コーディングおよびデコード))とも呼ばれる。
損失のないビデオコーディングの場合には、元のビデオピクチャは再構成されることが可能であり、すなわち、(記憶または伝送の間に伝送損失または他のデータ損失がないと仮定すると)再構成されたビデオピクチャは元のビデオピクチャと同じ品質を有する。損失のあるビデオコーディングの場合には、ビデオピクチャを表現するデータの量を減少させるために、例えば、量子化によって、さらなる圧縮が実行され、ビデオピクチャは、デコーダにおいて完全に再構成されることが可能でなく、すなわち、再構成されたビデオピクチャの品質は元のビデオピクチャの品質と比較して、より低い、またはより悪い。
いくつかのビデオコーディング規格は、「損失のあるハイブリッドビデオコーデック」のグループに属する(すなわち、サンプル領域における空間および時間予測と、変換領域において量子化を適用するための2D変換コーディングとを組み合わせる)。ビデオシーケンスの各ピクチャは、典型的に、重複しないブロックのセットに区分され、コーディングは、典型的に、ブロックレベルにおいて実行される。言い換えれば、エンコーダにおいて、ビデオは、典型的に、例えば、空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を使用して予測ブロックを生成し、現在のブロック(現在処理されている/処理されるべきブロック)から予測ブロックを減算して残差ブロックを取得し、残差ブロックを変換し、変換領域において残差ブロックを量子化して伝送されるべきデータの量を減少させること(圧縮)によって、ブロック(ビデオブロック)レベルにおいて処理され、すなわちエンコードされ、一方、デコーダにおいて、エンコーダと比較して逆の処理が、エンコードされ、または圧縮されたブロックに適用されて表現のために現在のブロックを再構成する。さらに、エンコーダは、後続のブロックを処理する、すなわちコーディングするために、両方が同一の予測(例えば、イントラおよびインター予測)および/または再構成を生成するように、デコーダ処理ループを二重化する。
以下では、ビデオコーディングシステム10、ビデオエンコーダ20、およびビデオデコーダ30の実施形態が、図1~図3に基づいて説明される。
図1Aは、この本出願の技法を利用し得る例示のコーディングシステム10、例えば、ビデオコーディングシステム10(または短縮してコーディングシステム10)を例示する概略ブロック図である。ビデオコーディングシステム10のビデオエンコーダ20(または短縮してエンコーダ20)およびビデオデコーダ30(または短縮してデコーダ30)は、本出願において説明される様々な例による技法を実行するように構成され得るデバイスの例を表現する。
図1Aに表されたように、コーディングシステム10は、例えば、エンコードされたピクチャデータ13をデコードするための宛先デバイス14に、エンコードされたピクチャデータ21を提供するように構成されたソースデバイス12を備える。
ソースデバイス12は、エンコーダ20を備え、加えて、すなわち任意選択で、ピクチャソース16、プリプロセッサ(または、前処理ユニット)18、例えば、ピクチャプリプロセッサ18、および通信インターフェースまたは通信ユニット22を備えてよい。
ピクチャソース16は、任意の種類のピクチャキャプチャデバイス、例えば、実世界ピクチャをキャプチャするためのカメラ、および/または任意の種類のピクチャ生成デバイス、例えば、コンピュータアニメーション化されたピクチャを生成するためのコンピュータグラフィックスプロセッサ、または実世界ピクチャ、コンピュータ生成されたピクチャ(例えば、スクリーンコンテンツ、仮想現実(virtual reality(VR))ピクチャ)、および/またはそれらの任意の組み合わせ(例えば、拡張現実(augmented reality(AR))ピクチャ)を取得および/または提供するための任意の種類の他のデバイスを備え、またはそれらであってよい。ピクチャソースは、上述のピクチャのうちのいずれかを記憶する任意の種類のメモリまたは記憶装置であってよい。
プリプロセッサ18、および前処理ユニット18によって実行される処理と区別して、ピクチャまたはピクチャデータ17は、未処理ピクチャまたは未処理ピクチャデータ17とも呼ばれ得る。
プリプロセッサ18は、(未処理)ピクチャデータ17を受信し、ピクチャデータ17において前処理を実行して、前処理されたピクチャ19または前処理されたピクチャデータ19を取得するように構成される。プリプロセッサ18によって実行される前処理は、例えば、トリミング、(例えば、RGBからYCbCrへの)カラーフォーマット変換、色補正、またはノイズ除去を備えてよい。前処理ユニット18が任意選択の構成要素であり得ることが理解されることが可能である。
ビデオエンコーダ20は、前処理されたピクチャデータ19を受信し、エンコードされたピクチャデータ21を提供するように構成される(さらなる詳細が、例えば、図2に基づいて、以下で説明されるであろう)。
ソースデバイス12の通信インターフェース22は、エンコードされたピクチャデータ21を受信し、記憶または直接の再構成のために、通信チャネル13上で別のデバイス、例えば、宛先デバイス14または任意の他のデバイスへ、エンコードされたピクチャデータ21(または、それらのさらに処理された任意のバージョン)を伝送するように構成され得る。
宛先デバイス14は、デコーダ30(例えば、ビデオデコーダ30)を備え、加えて、すなわち任意選択で、通信インターフェースまたは通信ユニット28、ポストプロセッサ32(または、後処理ユニット32)、およびディスプレイデバイス34を備えてよい。
宛先デバイス14の通信インターフェース28は、例えば、ソースデバイス12から直接に、または任意の他のソース、例えば、記憶デバイス、例えば、エンコードされたピクチャデータ記憶デバイスから、エンコードされたピクチャデータ21(または、それらのさらに処理された任意のバージョン)を受信し、エンコードされたピクチャデータ21をデコーダ30に提供するように構成される。
通信インターフェース22および通信インターフェース28は、ソースデバイス12と宛先デバイス14の間の直接の通信リンク、例えば、直接の有線または無線接続を介して、または任意の種類のネットワーク、例えば、有線または無線ネットワークまたはそれらの任意の組み合わせ、または任意の種類のプライベートおよびパブリックネットワーク、またはそれらの任意の種類の組み合わせを介して、エンコードされたピクチャデータ21またはエンコードされたデータ13を伝送または受信するように構成され得る。
通信インターフェース22は、例えば、適切なフォーマット、例えば、パケットの中に、エンコードされたピクチャデータ21をパッケージ化し、かつ/または通信リンクまたは通信ネットワーク上での伝送のために任意の種類の伝送エンコードまたは処理を使用してエンコードされたピクチャデータを処理するように構成され得る。
通信インターフェース22の相手側を形成する通信インターフェース28は、例えば、伝送されたデータを受信し、任意の種類の対応する伝送デコードまたは処理および/またはパッケージ除去を使用して伝送データを処理してエンコードされたピクチャデータ21を取得するように構成され得る。
通信インターフェース22と通信インターフェース28の両方が、ソースデバイス12から宛先デバイス14を指し示す、図1Aの中の通信チャネル13についての矢印によって示されるような単方向の通信インターフェース、または双方向の通信インターフェースとして構成されてよく、例えば、通信リンクおよび/またはデータ伝送、例えば、エンコードされたピクチャデータ伝送に関する、任意の他の情報を肯定応答および交換するために、例えば、接続をセットアップするために、メッセージを送信し、受信するように構成されてよい。
デコーダ30は、エンコードされたピクチャデータ21を受信し、デコードされたピクチャデータ31またはデコードされたピクチャ31を提供するように構成される(さらなる詳細は、例えば、図3または図5に基づいて、以下で説明されるであろう)。
宛先デバイス14のポストプロセッサ32は、デコードされたピクチャデータ31(再構成されたピクチャデータとも呼ばれる)、例えば、デコードされたピクチャ31を後処理して、後処理されたピクチャデータ33、例えば、後処理されたピクチャ33を取得するように構成される。後処理ユニット32によって実行される後処理は、例えば、ディスプレイデバイス34による、例えば、表示のためにデコードされたピクチャデータ31を準備するための、例えば、(例えば、YCbCrからRGBへの)カラーフォーマット変換、色補正、トリミング、または再サンプリング、または任意の他の処理を備えてよい。
宛先デバイス14のディスプレイデバイス34は、例えば、ユーザまたは閲覧者に、ピクチャを表示するための後処理されたピクチャデータ33を受信するように構成される。ディスプレイデバイス34は、再構成されたピクチャを表現するための任意の種類のディスプレイ、例えば、統合型または外部のディスプレイまたはモニタであってよく、またはそれを備えてよい。ディスプレイは、例えば、液晶ディスプレイ(liquid crystal display(LCD))、有機発光ダイオード(organic light emitting diode(OLED))ディスプレイ、プラズマディスプレイ、プロジェクタ、マイクロLEDディスプレイ、液晶オンシリコン(liquid crystal on silicon(LCoS))、デジタル光プロセッサ(digital light processor(DLP))、または任意の種類の他のディスプレイを備えてよい。
図1Aはソースデバイス12および宛先デバイス14を別個のデバイスとして描写するが、デバイスの実施形態はまた、ソースデバイス12または対応する機能と、宛先デバイス14または対応する機能の、両方または両方の機能を備えてよい。そのような実施形態では、ソースデバイス12または対応する機能、および宛先デバイス14または対応する機能は、同じハードウェアおよび/またはソフトウェアを使用して、または別個のハードウェアおよび/またはソフトウェアまたはそれらの任意の組み合わせによって、実現され得る。
説明に基づいて当業者に対して明らかになることになるように、異なるユニットの機能または図1Aに表されたようなソースデバイス12および/または宛先デバイス14内の機能の存在および(正確な)分割は、実際のデバイスおよび適用に依存して変わり得る。
エンコーダ20(例えば、ビデオエンコーダ20)またはデコーダ30(例えば、ビデオデコーダ30)、またはエンコーダ20とデコーダ30の両方は、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(digital signal processor(DSP))、特定用途向け集積回路(application-specific integrated circuit(ASIC))、フィールドプログラマブルゲートアレイ(field-programmable gate array(FPGA))、個別論理、ハードウェア、専用のビデオコーディング、またはそれらの任意の組み合わせのような、図1Bに表されたような処理回路を介して実現され得る。エンコーダ20は、図2のエンコーダ20に関して論じられるような様々なモジュールおよび/またはここで説明される任意の他のエンコーダシステムまたはサブシステムを具現するために、処理回路46を介して実現され得る。デコーダ30は、図3のデコーダ30に関して論じられるような様々なモジュールおよび/またはここで説明される任意の他のデコーダシステムまたはサブシステムを具現するために、処理回路46を介して実現され得る。処理回路は、後で論じられるような様々な演算を実行するように構成され得る。図5に表されたように、技法が部分的にソフトウェアで実現されるならば、デバイスは、ソフトウェアのための命令を、適した非一時的コンピュータ可読記憶媒体に記憶してよく、この開示の技法を実行するために1つまたは複数のプロセッサを使用してハードウェアで命令を実行してよい。ビデオエンコーダ20およびビデオデコーダ30のいずれかは、例えば、図1Bに表されたように、組み合わせられたエンコーダ/デコーダ(CODEC)の部分として単一のデバイス内に統合され得る。
ソースデバイス12および宛先デバイス14は、任意の種類のハンドヘルドまたは固定のデバイス、例えば、ノートブックまたはラップトップコンピュータ、モバイルフォン、スマートフォン、タブレットまたはタブレットコンピュータ、カメラ、デスクトップコンピュータ、セットトップボックス、テレビ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、(コンテンツサービスサーバまたはコンテンツ配信サーバのような)ビデオストリーミングデバイス、放送受信機デバイス、放送送信機デバイス、または同様のものを含む、広い範囲のデバイスのうちのいずれかを備えてよく、オペレーティングシステムを使用しなくてよく、または任意の種類のオペレーティングシステムを使用してもよい。いくつかの場合、ソースデバイス12および宛先デバイス14は無線通信のために装備されてよい。従って、ソースデバイス12および宛先デバイス14は無線通信デバイスであってよい。
いくつかの場合、図1Aに例示されたビデオコーディングシステム10は単に一例であり、本出願の技法は、エンコードおよびデコードデバイスの間の任意のデータ通信を必ずしも含まず、ビデオコーディング設定(例えば、ビデオエンコードまたはビデオデコード)に適用されてよい。他の例では、データは、ローカルメモリから取り出され、ネットワーク上でストリーミングされ、または同様である。ビデオエンコードデバイスは、データをエンコードしてメモリに記憶してよく、かつ/またはビデオデコードデバイスは、データをメモリから取り出してデコードしてよい。いくつかの例では、互いに通信しないが、単にデータをメモリにエンコードし、かつ/またはデータをメモリから取り出してデコードするデバイスによって、エンコードおよびデコードが実行される。
説明の便宜のため、例えば、高効率ビデオコーディング(High-Efficiency Video Coding(HEVC))への、またはITU-Tビデオコーディングエキスパートグループ(Video Coding Experts Group(VCEG))とISO/IECモーション・ピクチャ・エキスパート・グループ(Motion Picture Experts Group(MPEG))のビデオコーディング共同研究部会(Joint Collaboration Team on Video Coding(JCT-VC))によって策定された次世代ビデオコーディング規格である、多用途ビデオコーディング(Versatile Video Coding(VVC))の参照ソフトウェアへの参照によって、発明の実施形態がここで説明される。発明の実施形態がHEVCまたはVVCに限定されないことを、この技術分野の当業者は理解するであろう。
エンコーダおよびエンコード方法
図2は、本出願の技法を実現するように構成される例示のビデオエンコーダ20の概略ブロック図を表す。図2の例では、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、および逆変換処理ユニット212、再構成ユニット214、ループフィルタユニット220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、モード選択ユニット260、エントロピーエンコードユニット270、および出力272(または出力インターフェース272)を備える。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分ユニット262を含んでよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(表されていない)を含んでよい。図2に表されたようなビデオエンコーダ20は、ハイブリッドビデオエンコーダ、またはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれ得る。
残差計算ユニット204、変換処理ユニット206、量子化ユニット208、モード選択ユニット260は、エンコーダ20の順方向信号経路を形成するとして言及されてよく、一方、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、バッファ216、ループフィルタ220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、インター予測ユニット244、およびイントラ予測ユニット254は、ビデオエンコーダ20の逆方向信号経路を形成するとして言及されてよく、ビデオエンコーダ20の逆方向信号経路はデコーダの信号経路に対応する(図3の中のビデオデコーダ30を見られたい)。逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、ループフィルタ220、デコードされたピクチャバッファ(decoded picture buffer(DPB))230、インター予測ユニット244、およびイントラ予測ユニット254はまた、ビデオエンコーダ20の「ビルトインデコーダ」を形成することが言及される。
ピクチャおよびピクチャ区分(ピクチャおよびブロック)
エンコーダ20は、ピクチャ17(またはピクチャデータ17)、例えば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを、例えば、入力201を介して受信するように構成され得る。受信されるピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってよい。簡潔さの目的のために、以下の説明はピクチャ17に言及する。ピクチャ17は、現在のピクチャ、または(同じビデオシーケンス、すなわち、やはり現在のピクチャを備えるビデオシーケンスの他のピクチャ、例えば、前にエンコードされ、かつ/またはデコードされたピクチャから現在のピクチャを区別するために、特にビデオコーディングにおいて)コーディングされるべきピクチャとも呼ばれ得る。
(デジタル)ピクチャは、強度値を有するサンプルの2次元のアレイまたは行列であるか、またはそのように見なされることが可能である。アレイ内のサンプルは、ピクセル(ピクチャ要素の短い形式)またはペルとも呼ばれ得る。アレイまたはピクチャの水平および垂直方向(または軸)におけるサンプルの数は、ピクチャのサイズおよび/または解像度を定義する。色の表現のために、典型的に、3つの色成分が採用され、すなわち、ピクチャは、3つのサンプルアレイが表現され、またはそれらを含んでよい。RBGフォーマットまたは色空間で、ピクチャは、対応する赤、緑、および青のサンプルアレイを備える。しかし、ビデオコーディングでは、各ピクセルは、典型的に、ルミナンスおよびクロミナンスのフォーマットまたは色空間、例えば、YCbCrで表現され、YCbCrは、Y(時々、代わりにLも使用される)によって示されるルミナンス成分、およびCbおよびCrによって示される2つのクロミナンス成分を備える。ルミナンス(または短縮してルーマ)成分Yは、輝度または(例えば、グレースケールピクチャにおけるような)グレーレベル強度を表現し、一方、2つのクロミナンス(または短縮してクロマ)成分CbおよびCrは、色度または色情報成分を表現する。従って、YCbCrフォーマットでのピクチャは、ルミナンスサンプル値(Y)のルミナンスサンプルアレイ、およびクロミナンス値(CbおよびCr)の2つのクロミナンスサンプルアレイを備える。RGBフォーマットでのピクチャは、YCbCrフォーマットにコンバートされ、または変換されてよく、逆も同様であり、プロセスは色変換またはコンバートとしても知られる。ピクチャがモノクロであるならば、ピクチャはルミナンスサンプルアレイのみを備えてよい。従って、ピクチャは、例えば、モノクロフォーマットでのルーマサンプルのアレイ、または4:2:0、4:2:2、および4:4:4カラーフォーマットでの、ルーマサンプルのアレイおよびクロマサンプルの2つの対応するアレイであってよい。
ビデオエンコーダ20の実施形態は、ピクチャ17を複数の(典型的に重複しない)ピクチャブロック203に区分するように構成されたピクチャ区分ユニット(図2に描写されない)を備えてよい。これらのブロックは、ルートブロック、マクロブロック(H.264/AVC)、またはコーディングツリーブロック(coding tree block(CTB))またはコーディングツリーユニット(coding tree unit(CTU))(H.265/HEVCおよびVVC)とも呼ばれ得る。ピクチャ区分ユニットは、ビデオシーケンスの全てのピクチャについて同じブロックサイズ、およびブロックサイズを定義する対応するグリッドを使用し、またはピクチャまたはピクチャのサブセットまたはグループの間でブロックサイズを変更し、各ピクチャを対応するブロックに区分するように構成され得る。
さらなる実施形態では、ビデオエンコーダは、ピクチャ17のブロック203、例えば、ピクチャ17を形成する1つの、いくつかの、または全てのブロックを、直接に受信するように構成され得る。ピクチャブロック203は、現在のピクチャブロック、またはコーディングされるべきピクチャブロックとも呼ばれ得る。
ピクチャ17のように、ピクチャブロック203は再び、強度値(サンプル値)を有するサンプルの、しかしピクチャ17よりも小さい寸法の、2次元のアレイまたは行列であるか、またはそのように見なされることが可能である。言い換えれば、ブロック203は、例えば、1つのサンプルアレイ(例えば、モノクロピクチャ17の場合にはルーマアレイ、またはカラーピクチャの場合にはルーマまたはクロマアレイ)、または3つのサンプルアレイ(例えば、カラーピクチャ17の場合にはルーマおよび2つのクロマアレイ)、または適用されるカラーフォーマットに依存して任意の他の数および/または種類のアレイを備えてよい。ブロック203の水平および垂直方向(または軸)におけるサンプルの数は、ブロック203のサイズを定義する。従って、ブロックは、例えば、サンプルのM×N(M列×N行)アレイ、または変換係数のM×Nアレイであってよい。
図2に表されたようなビデオエンコーダ20の実施形態は、ピクチャ17をブロックごとにエンコードするように構成されてよく、例えば、エンコードおよび予測がブロック203ごとに実行される。
図2に表されたようなビデオエンコーダ20の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによってピクチャを区分および/またはエンコードするようにさらに構成されてよく、ピクチャは、(典型的に重複しない)1つまたは複数のスライスに区分され、またはそのスライスを使用してエンコードされてよく、各スライスは、1つまたは複数のブロック(例えば、CTU)を備えてよい。
図2に表されたようなビデオエンコーダ20の実施形態は、タイルグループ(ビデオタイルグループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用することによってピクチャを区分し、かつ/またはエンコードするようにさらに構成されてよく、ピクチャは、(典型的に重複しない)1つまたは複数のタイルグループに区分され、またはそのタイルグループを使用してエンコードされてよく、各タイルグループは、例えば、1つまたは複数のブロック(例えば、CTU)または1つまたは複数のタイルを備えてよく、各タイルは、例えば、長方形形状であってよく、1つまたは複数のブロック(例えば、CTU)、例えば、完全なまたは断片のブロックを備えてよい。
残差計算
残差計算ユニット204は、例えば、サンプルごとに(ピクセルごとに)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を減算することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で提供される)に基づいて残差ブロック205(残差205とも呼ばれる)を計算して、サンプル領域における残差ブロック205を取得するように構成され得る。
変換
変換処理ユニット206は、残差ブロック205のサンプル値において変換、例えば、離散コサイン変換(discrete cosine transform(DCT))または離散サイン変換(discrete sine transform(DST))を適用して、変換領域における変換係数207を取得するように構成され得る。変換係数207は、変換残差係数とも呼ばれ、変換領域における残差ブロック205を表現してよい。
変換処理ユニット206は、H.265/HEVCについて指定された変換のようなDCT/DSTの整数近似を適用するように構成され得る。直交DCT変換と比較して、そのような整数近似は、典型的に、ある係数によってスケーリングされる。順および逆変換によって処理される残差ブロックのノルムを維持するために、変換プロセスの部分として追加のスケーリング係数が適用される。スケーリング係数は、典型的に、スケーリング係数がシフト演算のために2の累乗であること、変換係数のビット深度、確度と実装コストの間のトレードオフなどのような、ある制約に基づいて選ばれる。例えば、逆変換処理ユニット212による、例えば、逆変換(および、例えば、ビデオデコーダ30における逆変換処理ユニット312による、対応する逆変換)について特定のスケーリング係数が指定され、エンコーダ20における、例えば、変換処理ユニット206による、順変換について対応するスケーリング係数が、それに応じて指定され得る。
ビデオエンコーダ20の実施形態(それぞれ、変換処理ユニット206)は、例えば、直接に、またはエントロピーエンコードユニット270を介してエンコードされ、または圧縮された、変換パラメータ、例えば、1つまたは複数の変換のタイプを出力するように構成されてよく、それによって、例えば、ビデオデコーダ30は、デコードのために変換パラメータを受信して使用し得る。
量子化
量子化ユニット208は、例えば、スカラー量子化またはベクトル量子化を適用することによって、変換係数207を量子化して量子化された係数209を取得するように構成され得る。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれ得る。
量子化プロセスは、変換係数207のいくつかまたは全てに関連付けられたビット深度を減少させ得る。例えば、nビットの変換係数は、量子化の間にmビットの変換係数に切り捨てられてよく、ここでnはmよりも大きい。量子化の程度は、量子化パラメータ(Quantization Parameter(QP))を調整することによって修正され得る。例えば、スカラー量子化について、より細かいかまたはより粗い量子化を達成するために、異なるスケーリングが適用され得る。より小さい量子化ステップサイズは、より細かい量子化に対応し、一方、より大きい量子化ステップサイズは、より粗い量子化に対応する。適用可能な量子化ステップサイズは、量子化パラメータ(QP)によって示され得る。量子化パラメータは、例えば、適用可能な量子化ステップサイズの予め定義されたセットへのインデックスであってよい。例えば、小さい量子化パラメータは、細かい量子化(小さい量子化ステップサイズ)に対応してよく、大きい量子化パラメータは、粗い量子化(大きい量子化ステップサイズ)に対応してよく、またはその逆も同様である。量子化は、量子化ステップサイズによる除算を含んでよく、例えば、逆量子化ユニット210による、対応するおよび/または逆の量子化解除は、量子化ステップサイズによる乗算を含んでよい。いくつかの規格、例えば、HEVCによる実施形態は、量子化パラメータを使用して量子化ステップサイズを決定するように構成され得る。一般に、量子化ステップサイズは、除算を含む式の固定点近似を使用して、量子化パラメータに基づいて計算され得る。量子化ステップサイズおよび量子化パラメータについての式の固定点近似において使用されるスケーリングの故に修正され得る、残差ブロックのノルムを復元するために、量子化および量子化解除について追加のスケーリング係数が導入されてよい。1つの例示の実装では、逆変換および量子化解除のスケーリングが組み合わせられ得る。代替として、カスタマイズされた量子化テーブルが使用され、例えば、ビットストリーム内で、エンコーダからデコーダにシグナリングされてよい。量子化は損失のある演算であり、増加する量子化ステップサイズとともに損失が増加する。
ビデオエンコーダ20の実施形態(それぞれ、量子化ユニット208)は、例えば、直接に、またはエントロピーエンコードユニット270を介してエンコードされた、量子化パラメータ(QP)を出力するように構成されてよく、それによって、例えば、ビデオデコーダ30は、デコードのために量子化パラメータを受信し、適用し得る。
逆量子化
逆量子化ユニット210は、例えば、量子化ユニット208と同じ量子化ステップサイズに基づいて、またはそれを使用して、量子化ユニット208によって適用される量子化方式の逆を適用することによって、量子化された係数において量子化ユニット208の逆量子化を適用して量子化解除された係数211を取得するように構成される。量子化解除された係数211は、量子化解除された残差係数211とも呼ばれ、量子化による損失に起因して典型的には変換係数と同一でないが、変換係数207に対応し得る。
逆変換
逆変換処理ユニット212は、変換処理ユニット206によって適用される変換の逆変換、例えば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)、または他の逆変換を適用して、サンプル領域における再構成された残差ブロック213(または、対応する量子化解除された係数213)を取得するように構成される。再構成された残差ブロック213は、変換ブロック213とも呼ばれ得る。
再構成
再構成ユニット214(例えば、加算器または合算器214)は、例えば、再構成された残差ブロック213のサンプル値と予測ブロック265のサンプル値を、サンプルごとに、加算することによって、変換ブロック213(すなわち、再構成された残差ブロック213)を予測ブロック265に加算してサンプル領域における再構成されたブロック215を取得するように構成される。
フィルタ処理
ループフィルタユニット220(または、短縮して「ループフィルタ」220)は、再構成されたブロック215をフィルタ処理してフィルタ処理されたブロック221を取得するように、または一般に、再構成されたサンプルをフィルタ処理してフィルタ処理されたサンプルを取得するように構成される。ループフィルタユニットは、例えば、ピクセル遷移を平滑化し、またはそうでなくビデオ品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(Sample-Adaptive Offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(Adaptive Loop Filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット220はループ内フィルタであるとして図2に表されているが、他の構成では、ループフィルタユニット220は、ポストループフィルタとして実現されてよい。フィルタ処理されたブロック221は、フィルタ処理された再構成されたブロック221とも呼ばれ得る。
ビデオエンコーダ20の実施形態(それぞれ、ループフィルタユニット220)は、例えば、直接に、またはエントロピーエンコードユニット270を介してエンコードされた、(サンプル適応オフセット情報のような)ループフィルタパラメータを出力するように構成されてよく、それによって、例えば、デコーダ30は、デコードのために同じループフィルタパラメータまたはそれぞれのループフィルタを受信し、適用し得る。
デコードされたピクチャバッファ
デコードされたピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータをエンコードするための、参照ピクチャまたは一般に参照ピクチャデータを記憶するメモリであってよい。DPB 230は、同期DRAM(synchronous DRAM(SDRAM))を含むダイナミックランダムアクセスメモリ(dynamic random access memory(DRAM))、磁気抵抗RAM(magnetoresistive RAM(MRAM))、抵抗性RAM(resistive RAM(RRAM(登録商標)))、または他のタイプのメモリデバイスのような、様々なメモリデバイスのうちのいずれかによって形成され得る。デコードされたピクチャバッファ(DPB)230は、1つまたは複数のフィルタ処理されたブロック221を記憶するように構成され得る。デコードされたピクチャバッファ230は、以前にフィルタ処理された他のブロック、例えば、同じ現在のピクチャの、または異なるピクチャの、以前に再構成され、フィルタ処理されたブロック221、例えば、以前に再構成されたピクチャを記憶するようにさらに構成されてよく、例えば、インター予測のために、以前に再構成され、すなわちデコードされた完全なピクチャ(および、対応する参照ブロックおよびサンプル)、および/または部分的に再構成された現在のピクチャ(および、対応する参照ブロックおよびサンプル)を提供し得る。例えば、再構成されたブロック215が、ループフィルタユニット220によってフィルタ処理されていない、または再構成されたブロックまたはサンプルのさらに処理された任意の他のバージョンであるならば、デコードされたピクチャバッファ(DPB)230はまた、1つまたは複数のフィルタ処理されていない再構成されたブロック215、または一般に、フィルタ処理されていない再構成されたサンプルを記憶するように構成されてもよい。
モード選択(区分および予測)
モード選択ユニット260は、区分ユニット262、インター予測ユニット244、およびイントラ予測ユニット254を備え、元のピクチャデータ、例えば、元のブロック203(現在のピクチャ17の現在のブロック203)、および同じ(現在の)ピクチャの、かつ/または1つまたは複数の以前にデコードされたピクチャからの、例えば、デコードされたピクチャバッファ230または他のバッファ(例えば、表されていないラインバッファ)からの、再構成されたピクチャデータ、例えば、フィルタ処理された、および/またはフィルタ処理されていない再構成されたサンプルまたはブロックを受信または取得するように構成される。再構成されたピクチャデータは、予測ブロック265または予測子265を取得するために、予測、例えば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
モード選択ユニット260は、(区分を含まない)現在のブロック予測モードについて区分、および予測モード(例えば、イントラまたはインター予測モード)を決定または選択し、残差ブロック205の計算のために、かつ再構成されたブロック215の再構成のために使用される、対応する予測ブロック265を生成するように構成され得る。
モード選択ユニット260の実施形態は、最も良い整合、または言い換えれば最小残差(最小残差は、伝送または記憶のためのより良い圧縮を意味する)、または最小シグナリングオーバーヘッド(最小シグナリングオーバーヘッドとは、伝送または記憶のためのより良い圧縮を意味する)を提供し、または両方を考慮し、または釣り合わせる、区分および予測モードを(例えば、モード選択ユニット260によってサポートされ、またはモード選択ユニット260に対して利用可能なものから)選択するように構成され得る。モード選択ユニット260は、レート歪み最適化(Rate Distortion Optimization(RDO))に基づいて区分および予測モードを決定する、すなわち、最小のレート歪みを提供する予測モードを選択するように構成され得る。この文脈における「最も良い」、「最小の」、「最適な」などのような用語は、全体的な「最も良い」、「最小の」、「最適な」などを必ずしも指さず、しきい値または他の制約を上回るまたは下回る値のような、終了または選択の基準の充足を指してもよく、潜在的に「準最適な選択」に導くが、複雑さおよび処理時間を減少させる。
言い換えれば、区分ユニット262は、例えば、4分木区分(quad-tree-partitioning(QT))、バイナリ区分(binary partitioning(BT))、またはトリプルツリー区分(triple-tree-partitioning(TT))、またはそれらの任意の組み合わせを反復的に使用して、ブロック203をより小さいブロック区分または(再びブロックを形成する)サブブロックに区分し、例えば、ブロック区分またはサブブロックの各々について予測を実行するように構成されてよく、モード選択は、区分されるブロック203のツリー構造の選択を備え、予測モードは、ブロック区分またはサブブロックの各々に適用される。
以下では、例示のビデオエンコーダ20によって実行される(例えば、区分ユニット260による)区分および(インター予測ユニット244およびイントラ予測ユニット254による)予測処理が、より詳細に説明されるであろう。
区分
区分ユニット262は、現在のブロック203をより小さい区分、例えば、正方形または長方形のサイズのより小さいブロックに、区分(または分割)し得る。これらのより小さいブロック(サブブロックとも呼ばれ得る)は、いっそう小さい区分にさらに区分され得る。これは、ツリー区分または階層的ツリー区分とも呼ばれ、例えば、ルートツリーレベル0(階層レベル0、深度0)におけるルートブロックは、再帰的に区分され、例えば、次に低いツリーレベルの2つ以上のブロック、例えば、ツリーレベル1(階層レベル1、深度1)におけるノードに区分されてよく、これらのブロックは再び、例えば、終了基準が充足され、例えば、最大ツリー深度または最小ブロックサイズが到達されたので区分が終了されるまで、次に低いレベル、例えば、ツリーレベル2(階層レベル2、深度2)などの2つ以上のブロックに区分されてよい。さらに区分されないブロックは、ツリーのリーフブロックまたはリーフノードとも呼ばれる。2つの区分への区分を使用するツリーは2分木(Binary-Tree(BT))と呼ばれ、3つの区分への区分を使用するツリーは3分木(Ternary-Tree(TT))と呼ばれ、4つの区分への区分を使用するツリーは4分木(Quad-Tree(QT))と呼ばれる。
前に述べたように、ここで使用される用語「ブロック」は、ピクチャの一部分、特に正方形または長方形の部分であってよい。例えば、HEVCおよびVVCを参照すると、ブロックは、コーディングツリーユニット(coding tree unit(CTU))、コーディングユニット(coding unit(CU))、予測ユニット(prediction unit(PU))、および変換ユニット(transform unit(TU))、および/または対応するブロック、例えば、コーディングツリーブロック(coding tree block(CTB))、コーディングブロック(coding block(CB))、変換ブロック(transform block(TB))、または予測ブロック(prediction block(PB))であってよく、またはそれらに対応し得る。
例えば、コーディングツリーユニット(CTU)は、3つのサンプルアレイを有するピクチャのルーマサンプルのCTB、クロマサンプルの2つの対応するCTB、またはモノクロピクチャまたは3つの別個の色平面を使用してコーディングされるピクチャのサンプルのCTB、およびサンプルをコーディングするために使用されるシンタックス構造であってよく、またはそれらを備えてもよい。それに対応して、コーディングツリーブロック(CTB)は、CTBへの成分の分割が区分であるようなNのいくつかの値についてサンプルのN×Nブロックであってよい。コーディングユニット(CU)は、3つのサンプルアレイを有するピクチャのルーマサンプルのコーディングブロック、クロマサンプルの2つの対応するコーディングブロック、またはモノクロピクチャまたは3つの別個の色平面を使用してコーディングされるピクチャのサンプルのコーディングブロック、およびサンプルをコーディングするために使用されるシンタックス構造であってよく、またはそれらを備えてもよい。それに対応して、コーディングブロック(CB)は、コーディングブロックへのCTBの分割が区分であるようなMおよびNのいくつかの値についてサンプルのM×Nブロックであってよい。
例えば、HEVCによる実施形態では、コーディングツリーユニット(CTU)は、コーディングツリーとして表記される4分木構造を使用することによってCUに分割され得る。ピクチャエリアを、(時間的な)インターピクチャ予測を使用してコーディングすべきか、または(空間的な)イントラピクチャ予測を使用してコーディングすべきかの決定は、CUレベルにおいて行われる。各CUは、PU分割タイプに従って1つ、2つ、または4つのPUにさらに分割されることが可能である。1つのPUの内部では、同じ予測プロセスが適用され、関連する情報がPUごとにデコーダへ伝送される。PU分割タイプに基づいて予測プロセスを適用することによって残差ブロックを取得した後、CUは、CUについてのコーディングツリーと類似の別の4分木構造に従って変換ユニット(TU)に区分されることが可能である。
例えば、多用途ビデオコーディング(VVC)と呼ばれる、現在策定中の最新のビデオコーディング規格による実施形態では、組み合わせられた4分木および2分木(Quad-Tree and Binary Tree(QTBT))区分が、例えば、コーディングブロックを区分するために使用される。QTBTブロック構造において、CUは、正方形または長方形のいずれかの形状を有することができる。例えば、コーディングツリーユニット(CTU)は、4分木構造によって最初に区分される。4分木リーフノードは、2分木または3分木(またはトリプルツリー)構造によってさらに区分される。区分するツリーリーフノードは、コーディングユニット(CU)と呼ばれ、そのセグメント化は、さらなる区分なしで予測および変換処理のために使用される。これは、CU、PU、およびTUがQTBTコーディングブロック構造において同じブロックサイズを有することを意味する。並行して、複数の区分、例えば、トリプルツリー区分が、QTBTブロック構造と一緒に使用され得る。
一例では、ビデオエンコーダ20のモード選択ユニット260は、ここで説明される区分技法の任意の組み合わせを実行するように構成され得る。
上記で説明されたように、ビデオエンコーダ20は、(例えば、予め決定された)予測モードのセットから、最も良いまたは最適な予測モードを決定または選択するように構成される。予測モードのセットは、例えば、イントラ予測モードおよび/またはインター予測モードを備えてよい。
イントラ予測
イントラ予測モードのセットは、例えば、HEVCにおいて定義されるように、35個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよく、または、例えば、VVCについて定義されるように、67個の異なるイントラ予測モード、例えば、DC(または平均)モードおよび平面モードのような無方向性モード、または方向性モードを備えてよい。
イントラ予測ユニット254は、イントラ予測モードのセットのイントラ予測モードに従ってイントラ予測ブロック265を生成するために、同じ現在のピクチャの隣接ブロックの再構成されたサンプルを使用するように構成される。
イントラ予測ユニット254(または一般にモード選択ユニット260)は、エンコードされたピクチャデータ21への包含のためにシンタックス要素266の形式でイントラ予測パラメータ(または一般にブロックのための選択されたイントラ予測モードを示す情報)をエントロピーエンコードユニット270に出力するようにさらに構成され、それによって、例えば、ビデオデコーダ30は、デコードのために予測パラメータを受信および使用し得る。
インター予測
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DBP 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
上記の予測モードに加えて、スキップモードおよび/または直接モードが適用されてよい。
インター予測ユニット244は、動き推定(motion estimation(ME))ユニットおよび動き補償(motion compensation(MC))ユニット(両方とも図2に表されていない)を含んでよい。動き推定ユニットは、動き推定のために、ピクチャブロック203(現在のピクチャ17の現在のピクチャブロック203)およびデコードされたピクチャ231、または少なくとも1つまたは複数の以前に再構成されたブロック、例えば、1つまたは複数の他の/異なる以前にデコードされたピクチャ231の再構成されたブロックを、受信または取得するように構成され得る。例えば、ビデオシーケンスは、現在のピクチャおよび以前にデコードされたピクチャ231を備えてよく、または言い換えれば、現在のピクチャおよび以前にデコードされたピクチャ231は、ビデオシーケンスを形成するピクチャのシーケンスの一部であってよく、またはそれらを形成してよい。
エンコーダ20は、例えば、複数の他のピクチャのうちの同じまたは異なるピクチャの複数の参照ブロックから参照ブロックを選択し、参照ピクチャ(または参照ピクチャインデックス)、および/または参照ブロックの位置(x、y座標)と現在のブロックの位置との間のオフセット(空間オフセット)を、インター予測パラメータとして動き推定ユニットに提供するように構成され得る。このオフセットは動きベクトル(motion vector(MV))とも呼ばれる。
動き補償ユニットは、インター予測パラメータを取得し、例えば受信し、インター予測パラメータに基づいて、またはそれを使用して、インター予測を実行してインター予測ブロック265を取得するように構成される。動き補償ユニットによって実行される動き補償は、動き推定によって決定された動き/ブロックベクトルに基づいて予測ブロックをフェッチまたは生成すること、おそらくサブピクセル精度への補間を実行することを伴ってよい。補間フィルタ処理は、知られているピクセルサンプルから追加のピクセルサンプルを生成してよく、従って、ピクチャブロックをコーディングするために使用され得る候補予測ブロックの数を潜在的に増加させる。現在のピクチャブロックのPUについての動きベクトルを受信すると、動き補償ユニットは、参照ピクチャリストのうちの1つの中で動きベクトルが指し示す予測ブロックを位置付け得る。
動き補償ユニットはまた、ビデオスライスのピクチャブロックをデコードする際のビデオデコーダ30による使用のために、ブロックおよびビデオスライスに関連付けられたシンタックス要素を生成し得る。スライスおよびそれぞれのシンタックス要素に加えて、またはそれらの代替として、タイルグループおよび/またはタイルおよびそれぞれのシンタックス要素が生成または使用されてよい。
エントロピーコーディング
エントロピーエンコードユニット270は、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素において、例えば、エントロピーエンコードアルゴリズムまたは方式(例えば、可変長コーディング(variable length coding(VLC))方式、コンテキスト適応VLC方式(context adaptive VLC scheme(CAVLC))、算術コーディング方式、2値化、コンテキスト適応バイナリ算術コーディング(context adaptive binary arithmetic coding(CABAC))、シンタックスベースのコンテキスト適応バイナリ算術コーディング(syntax-based context-adaptive binary arithmetic coding(SBAC))、確率区間区分エントロピー(probability interval partitioning entropy(PIPE))コーディング、または別のエントロピーエンコード方法論または技法)、またはバイパス(圧縮なし)を適用して、例えば、エンコードされたビットストリーム21の形式で、出力272を介して出力されることが可能であるエンコードされたピクチャデータ21を取得するように構成され、それによって、例えば、ビデオデコーダ30は、デコードのためにパラメータを受信および使用し得る。エンコードされたビットストリーム21は、ビデオデコーダ30へ伝送され、またはビデオデコーダ30による後の伝送または取り出しのためにメモリに記憶され得る。
ビデオエンコーダ20の他の構造的変形が、ビデオストリームをエンコードするために使用されることが可能である。例えば、非変換ベースのエンコーダ20が、あるブロックまたはフレームについて変換処理ユニット206なしで直接に残差信号を量子化することができる。別の実装では、エンコーダ20は、単一のユニットの中に組み合わせられた量子化ユニット208および逆量子化ユニット210を有することができる。
デコーダおよびデコード方法
図3は、この本出願の技法を実現するように構成されるビデオデコーダ30の一例を表す。ビデオデコーダ30は、例えば、エンコーダ20によってエンコードされた、エンコードされたピクチャデータ21(例えば、エンコードされたビットストリーム21)を受信して、デコードされたピクチャ331を取得するように構成される。エンコードされたピクチャデータまたはビットストリームは、エンコードされたピクチャデータをデコードするための情報、例えば、エンコードされたビデオスライス(および/または、タイルグループまたはタイル)のピクチャブロックを表現するデータ、および関連付けられたシンタックス要素を備える。
図3の例では、デコーダ30は、エントロピーデコードユニット304、逆量子化ユニット310、逆変換処理ユニット312、再構成ユニット314(例えば、合算器314)、ループフィルタ320、デコードされたピクチャバッファ(DBP)330、モード適用ユニット360、インター予測ユニット344、およびイントラ予測ユニット354を備える。インター予測ユニット344は、動き補償ユニットであってよく、またはそれを含んでもよい。ビデオデコーダ30は、いくつかの例では、図2からのビデオエンコーダ100に関して説明されたエンコードパスとは一般に相補的なデコードパスを実行し得る。
エンコーダ20に関して説明されたように、逆量子化ユニット210、逆変換処理ユニット212、再構成ユニット214、ループフィルタ220、デコードされたピクチャバッファ(DPB)230、インター予測ユニット344、およびイントラ予測ユニット354は、ビデオエンコーダ20の「ビルトインデコーダ」を形成するとしても言及される。従って、逆量子化ユニット310は逆量子化ユニット110と機能において同一であってよく、逆変換処理ユニット312は逆変換処理ユニット212と機能において同一であってよく、再構成ユニット314は再構成ユニット214と機能において同一であってよく、ループフィルタ320はループフィルタ220と機能において同一であってよく、デコードされたピクチャバッファ330はデコードされたピクチャバッファ230と機能において同一であってよい。従って、ビデオ20エンコーダのそれぞれのユニットおよび機能について提供された説明は、それに対応してビデオデコーダ30のそれぞれのユニットおよび機能に適用される。
エントロピーデコード
エントロピーデコードユニット304は、ビットストリーム21(または一般にエンコードされたピクチャデータ21)を構文解析し、例えば、エンコードされたピクチャデータ21へのエントロピーデコードを実行して、例えば、量子化された係数309および/またはデコードされたコーディングパラメータ(図3に表されていない)、例えば、インター予測パラメータ(例えば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(例えば、イントラ予測モードまたはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/または他のシンタックス要素のうちのいずれかまたは全てを取得するように構成される。エントロピーデコードユニット304は、エンコーダ20のエントロピーエンコードユニット270に関して説明されたようなエンコード方式に対応するデコードアルゴリズムまたは方式を適用するように構成され得る。エントロピーデコードユニット304は、モード適用ユニット360にインター予測パラメータ、イントラ予測パラメータ、および/または他のシンタックス要素を、デコーダ30の他のユニットに他のパラメータを提供するようにさらに構成され得る。ビデオデコーダ30は、ビデオスライスレベルおよび/またはビデオブロックレベルにおいてシンタックス要素を受信し得る。スライスおよびそれぞれのシンタックス要素に加えて、またはそれらの代替として、タイルグループおよび/またはタイルおよびそれぞれのシンタックス要素が受信および/または使用され得る。
逆量子化
逆量子化ユニット310は、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から量子化パラメータ(quantization parameter(QP))(または一般に逆量子化に関する情報)および量子化された係数を受信し、量子化パラメータに基づいて、デコードされた量子化された係数309において逆量子化を適用して、変換係数311とも呼ばれ得る量子化解除された係数311を取得するように構成され得る。逆量子化プロセスは、量子化の程度、および同様に、適用されるべき逆量子化の程度を決定するために、ビデオスライス(またはタイルまたはタイルグループ)の中のビデオブロックごとにビデオエンコーダ20によって決定された量子化パラメータの使用を含んでよい。
逆変換
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受信し、サンプル領域において再構成された残差ブロック213を取得するために量子化解除された係数311に変換を適用するように構成され得る。再構成された残差ブロック213は、変換ブロック313とも呼ばれ得る。変換は、逆変換、例えば、逆DCT、逆DST、逆整数変換、または概念的に類似の逆変換プロセスであってよい。逆変換処理ユニット312は、量子化解除された係数311に適用されるべき変換を決定するために、(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)エンコードされたピクチャデータ21から変換パラメータまたは対応する情報を受信するようにさらに構成され得る。
再構成
再構成ユニット314(例えば、加算器または合算器314)は、例えば、再構成された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを加算することによって、予測ブロック365に再構成された残差ブロック313を加算して、サンプル領域において再構成されたブロック315を取得するように構成され得る。
フィルタ処理
(コーディングループ内またはコーディングループの後のいずれかの)ループフィルタユニット320は、例えば、ピクセル遷移を平滑化し、またはビデオ品質をそうでなく改善するために、再構成されたブロック315をフィルタ処理してフィルタ処理されたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(sample-adaptive offset(SAO))フィルタ、または1つまたは複数の他のフィルタ、例えば、バイラテラルフィルタ、適応ループフィルタ(adaptive loop filter(ALF))、鮮鋭化、平滑化フィルタ、または協調フィルタ、またはそれらの任意の組み合わせのような1つまたは複数のループフィルタを備えてよい。ループフィルタユニット320はループ内フィルタであるとして図3に表されているが、他の構成では、ループフィルタユニット320はポストループフィルタとして実現されてもよい。
デコードされたピクチャバッファ
ピクチャのデコードされたビデオブロック321は、次いで、他のピクチャについての後続の動き補償のために、かつ/または出力されるそれぞれ表示のために、参照ピクチャとしてデコードされたピクチャ331を記憶するデコードされたピクチャバッファ330に記憶される。
デコーダ30は、ユーザへの提示または閲覧のために、例えば、出力312を介してデコードされたピクチャ311を出力するように構成される。
予測
インター予測ユニット344は、インター予測ユニット244と(特に動き補償ユニットと)同一であってよく、イントラ予測ユニット354は、機能においてインター予測ユニット254と同一であってよく、区分および/または予測パラメータ、またはエンコードされたピクチャデータ21から(例えば、エントロピーデコードユニット304によって、例えば、構文解析および/またはデコードすることによって)受信されたそれぞれの情報に基づいて、分割または区分決定および予測を実行する。モード適用ユニット360は、(フィルタ処理された、またはフィルタ処理されていない)再構成されたピクチャ、ブロック、またはそれぞれのサンプルに基づいて、ブロックごとに予測(イントラまたはインター予測)を実行して、予測ブロック365を取得するように構成され得る。
イントラコーディングされた(I)スライスとしてビデオスライスがコーディングされるとき、モード適用ユニット360のイントラ予測ユニット354は、シグナリングされたイントラ予測モード、および現在のピクチャの以前にデコードされたブロックからのデータに基づいて、現在のビデオスライスのピクチャブロックについて予測ブロック365を生成するように構成される。インターコーディングされた(すなわち、BまたはP)スライスとしてビデオピクチャがコーディングされるとき、モード適用ユニット360のインター予測ユニット344(例えば、動き補償ユニット)は、動きベクトル、およびエントロピーデコードユニット304から受信された他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックについて予測ブロック365を作り出すように構成される。インター予測について、予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つから作り出されてよい。ビデオデコーダ30は、DPB 330に記憶された参照ピクチャに基づいてデフォルトの構成技法を使用して、参照フレームリスト、リスト0およびリスト1を構成し得る。スライス(例えば、ビデオスライス)に加えて、またはその代替として、タイルグループ(例えば、ビデオタイルグループ)および/またはタイル(例えば、ビデオタイル)を使用する実施形態について、またはその実施形態によって、同じまたは類似のことが適用されてよく、例えば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを使用してコーディングされてよい。
モード適用ユニット360は、動きベクトルまたは関連する情報および他のシンタックス要素を構文解析することによって、現在のビデオスライスのビデオブロックについて予測情報を決定し、予測情報を使用して、デコードされている現在のビデオブロックについて予測ブロックを作り出すように構成される。例えば、モード適用ユニット360は、受信されたシンタックス要素のうちのいくつかを使用して、現在のビデオスライス内のビデオブロックをデコードするために、ビデオスライスのビデオブロックをコーディングするために使用された予測モード(例えば、イントラまたはインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、またはGPBスライス)、スライスについての参照ピクチャリストのうちの1つまたは複数についての構成情報、スライスのインターエンコードされたビデオブロックごとの動きベクトル、スライスのインターコーディングされたビデオブロックごとのインター予測ステータス、および他の情報を決定する。スライス(例えば、ビデオスライス)に加えて、またはその代替として、タイルグループ(例えば、ビデオタイルグループ)および/またはタイル(例えば、ビデオタイル)を使用する実施形態について、またはその実施形態によって、同じまたは類似のことが適用されてよく、例えば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを使用してコーディングされてよい。
図3に表されたようなビデオデコーダ30の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによってピクチャを区分および/またはデコードするように構成されてよく、ピクチャは、(典型的に、重複しない)1つまたは複数のスライスに区分され、またはそれを使用してデコードされてよく、各スライスは、1つまたは複数のブロック(例えば、CTU)を備えてよい。
図3に表されたようなビデオデコーダ30の実施形態は、タイルグループ(ビデオタイルグループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用することによってピクチャを区分および/またはデコードするように構成されてよく、ピクチャは、(典型的に、重複しない)1つまたは複数のタイルグループに区分され、またはそれを使用してデコードされてよく、各タイルグループは、例えば、1つまたは複数のブロック(例えば、CTU)または1つまたは複数のタイルを備えてよく、各タイルは、例えば、長方形形状であってよく、1つまたは複数のブロック(例えば、CTU)、例えば、完全なまたは断片のブロックを備えてよい。
ビデオデコーダ30の他の変形が、エンコードされたピクチャデータ21をデコードするために使用されることが可能である。例えば、デコーダ30は、ループフィルタ処理ユニット320なしで出力ビデオストリームを作り出すことができる。例えば、非変換ベースのデコーダ30が、あるブロックまたはフレームについて逆変換処理ユニット312なしで直接に残差信号を逆量子化することができる。別の実装では、ビデオデコーダ30は、単一のユニットの中に組み合わせられた逆量子化ユニット310および逆変換処理ユニット312を有することができる。
エンコーダ20およびデコーダ30において、現在のステップの処理結果がさらに処理され、次いで、次のステップに出力されてよいことが理解されるべきである。例えば、補間フィルタ処理、動きベクトル導出、またはループフィルタ処理の後、補間フィルタ処理、動きベクトル導出、またはループフィルタ処理の処理結果において、クリップまたはシフトのようなさらなる演算が実行されてよい。
現在のブロックの導出された動きベクトル(アフィンモードの制御点動きベクトル、アフィン、平面、ATMVPモードにおけるサブブロック動きベクトル、時間動きベクトルなどを含むが、それらに限定されない)に、さらなる演算が適用され得ることが注記されるべきである。例えば、動きベクトルの値は、その表現ビットに従って予め定義された範囲に制約される。動きベクトルの表現ビットがbitDepthであるならば、範囲は-2^(bitDepth-1)~2^(bitDepth-1)-1であり、ここで「^」はべき乗を意味する。例えば、bitDepthが16に等しく設定されるならば、範囲は-32768~32767であり、bitDepthが18に等しく設定されるならば、範囲は-131072~131071である。例えば、導出される動きベクトル(例えば、1つの8×8ブロック内の4つの4×4サブブロックのMV)の値は、4つの4×4サブブロックMVの整数部分の間の最大差が、1ピクセルより大きくない、のような、Nピクセルより大きくないように制約される。ここで、bitDepthに従って動きベクトルを制約するための2つの方法を提供する。
方法1:フロー演算によってオーバーフローMSB(最上位ビット)を除去する。
ux = ( mvx + 2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (2)
uy = ( mvy + 2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (4)
ここで、mvxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、mvyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、uxおよびuyは中間値を示す。
例えば、mvxの値が-32769であるならば、式(1)および(2)を適用した後、結果として生じる値は32767である。コンピュータシステムでは、10進数は2の補数として記憶される。-32769の2の補数は1,0111,1111,1111,1111(17ビット)であり、次いで、MSBが廃棄され、そのため、結果として生じる2の補数は、式(1)および(2)を適用することによる出力と同じである0111,1111,1111,1111である(10進数は32767である)。
ux = ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? ( ux - 2bitDepth ) : ux (6)
uy = ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? ( uy - 2bitDepth ) : uy (8)
式(5)~(8)に表されたように、その演算は、mvpとmvdの合算の間に適用され得る。
方法2:値をクリッピングすることによってオーバーフローMSBを除去する。
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
ここで、vxは画像ブロックまたはサブブロックの動きベクトルの水平成分であり、vyは画像ブロックまたはサブブロックの動きベクトルの垂直成分であり、x、y、およびzはそれぞれ、MVクリッピングプロセスの3つの入力値に対応し、関数Clip3の定義は以下の通りである。
Figure 2022531544000002
図4は、開示の一実施形態によるビデオコーディングデバイス400の概略図である。ビデオコーディングデバイス400は、ここで説明されるような開示される実施形態を実現するために適している。一実施形態では、ビデオコーディングデバイス400は、図1Aのビデオデコーダ30のようなデコーダ、または図1Aのビデオエンコーダ20のようなエンコーダであってよい。
ビデオコーディングデバイス400は、データを受信するための入口ポート410(または入力ポート410)および受信機ユニット(Rx)420、データを処理するためのプロセッサ、論理ユニット、または中央処理ユニット(CPU)430、データを伝送するための送信機ユニット(Tx)440および出口ポート450(または出力ポート450)、およびデータを記憶するためのメモリ460を備える。ビデオコーディングデバイス400はまた、光信号または電気信号の出口または入口のために入口ポート410、受信機ユニット420、送信機ユニット440、および出口ポート450に結合された、光電気(optical-to-electrical(OE))構成要素および電気光(electrical-to-optical(EO))構成要素を備えてよい。
プロセッサ430は、ハードウェアおよびソフトウェアによって実現される。プロセッサ430は、1つまたは複数のCPUチップ、(例えば、マルチコアプロセッサとしての)コア、FPGA、ASIC、およびDSPとして実現され得る。プロセッサ430は、入口ポート410、受信機ユニット420、送信機ユニット440、出口ポート450、およびメモリ460と通信している。プロセッサ430は、コーディングモジュール470を備える。コーディングモジュール470は、上記で説明された開示された実施形態を実現する。例えば、コーディングモジュール470は、様々なコーディング演算を実現、処理、準備、または提供する。従って、コーディングモジュール470の包含は、ビデオコーディングデバイス400の機能にかなりの改善を提供し、ビデオコーディングデバイス400の異なる状態への変換をもたらす。代替として、コーディングモジュール470は、メモリ460に記憶され、プロセッサ430によって実行される命令として実現される。
メモリ460は、1つまたは複数のディスク、テープドライブ、およびソリッドステートドライブを備えてよく、実行のためにそのようなプログラムが選択されるときにプログラムを記憶するために、かつプログラム実行の間に読み取られる命令およびデータを記憶するために、オーバーフローデータ記憶デバイスとして使用されてよい。メモリ460は、例えば、揮発性および/または不揮発性であってよく、リードオンリメモリ(read-only memory(ROM))、ランダムアクセスメモリ(random access memory(RAM))、3値連想メモリ(ternary content-addressable memory(TCAM))、および/またはスタティックランダムアクセスメモリ(static random-access memory(SRAM))であってよい。
図5は、例示的な実施形態による、図1からのソースデバイス12および宛先デバイス14のいずれかまたは両方として使用され得る装置500の簡略化されたブロック図である。
装置500内のプロセッサ502は中央処理ユニットであることが可能である。代替として、プロセッサ502は、現存する、または今後開発される、情報を操作または処理することが可能な任意の他のタイプのデバイスまたは複数のデバイスであることが可能である。開示される実装は、表されているように単一のプロセッサ、例えば、プロセッサ502を用いて実施されることが可能であるが、速度および効率における利点は、1つより多くのプロセッサを使用して達成されることが可能である。
装置500内のメモリ504は、一実装ではリードオンリメモリ(ROM)デバイスまたはランダムアクセスメモリ(RAM)デバイスであることが可能である。任意の他の適したタイプの記憶デバイスが、メモリ504として使用されることが可能である。メモリ504は、バス512を使用してプロセッサ502によってアクセスされるコードおよびデータ506を含むことができる。メモリ504は、オペレーティングシステム508およびアプリケーションプログラム510をさらに含むことができ、アプリケーションプログラム510は、プロセッサ502がここで説明される方法を実行することを可能にする少なくとも1つのプログラムを含む。例えば、アプリケーションプログラム510は、アプリケーション1からNを含むことができ、アプリケーション1からNは、ここで説明される方法を実行するビデオコーディングアプリケーションをさらに含む。
装置500はまた、ディスプレイ518のような1つまたは複数の出力デバイスを含むことができる。ディスプレイ518は、一例では、ディスプレイを、タッチ入力を感知するように動作可能なタッチ感応性要素と組み合わせる、タッチ感応性ディスプレイであってよい。ディスプレイ518は、バス512を介してプロセッサ502に結合されることが可能である。
ここでは単一のバスとして描写されているが、装置500のバス512は複数のバスからなることが可能である。さらに、2次記憶装置514が、装置500の他の構成要素に直接に結合されることが可能であり、またはネットワークを介してアクセスされることが可能であり、メモリカードのような単一の統合されたユニット、または複数のメモリカードのような複数のユニットを備えることができる。従って、装置500は広く様々な構成で実現されることが可能である。
イントラ予測の背景技術
自然のビデオにおいて提示される任意のエッジ方向をキャプチャするために、VTM6における方向性イントラモードの数は、HEVCにおいて使用されるような33個から65個に拡張される。平面およびDCモードは同じままである。具体的には、すべてのイントラ予測モードの値が表8-1において定義される。
Figure 2022531544000003
平面モードのためのイントラ予測
ITU-T SG 16 WP 3とISO/IEC JTC 1/SC 29/WG 11との共同ビデオエキスパートチーム(Joint Video Experts Team, JVET)の多用途ビデオコーディング(ドラフト6)という文書(http://phenix.it-sudparis.eu/jvet/の下で入手可能、文書番号JVET-O2001-vE)のVVC仕様書において定義されるような、参照サンプルフィルタ処理プロセスの後、参照サンプルは準備ができている。これらの参照サンプルを用いて、(イントラ予測されたサンプルと呼ばれることもあり得る)イントラ予測サンプルが生成されることが可能である。現在のブロックのイントラモードが平面またはDCモードであるならば、対応するイントラ予測プロセスが定義される。イントラ予測モードが角度である(すなわち、平面でもDCでもない)ならば、角度モードを用いた予測がアクティブ化される。
平面モードは、頻繁に使用されるイントラ予測モードである。図6は、予測ブロックの幅および高さをNに設定するイントラ予測のための着想を表す。予測されたサンプルは、水平成分および垂直成分が備えられる。水平成分は、対応する左および右の参照サンプルからの線形重み付き結合である(図6のサブ図面aを参照されたい)。垂直成分は、対応する上および下の参照サンプルからの線形重み付き結合である(図6のサブ図面bを参照されたい)。サブ図面aに表された右の列が右上の参照サンプルp[N][-1]によってパディングされること、およびサブ図面bに表された下の行が左下の参照サンプルp[-1][N]によってパディングされることを留意されたい。p[0][0]は、現在の(予測)ブロックの左上隅に位置付けられる。水平および垂直成分の生成の後、予測された出力サンプルは、水平および垂直成分の重み付き結合である(図6のサブ図面cを参照されたい)。
より具体的には、平面モード予測は以下のように定義される。
INTRA_PLANARイントラ予測モードの仕様
このプロセスへの入力は、
- 変換ブロック幅を指定する変数nTbW、
- 変換ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
このプロセスの出力は、x = 0..nTbW - 1、y = 0..nTbH - 1である予測されたサンプルpredSamples[ x ][ y ]である。
変数nWおよびnHが以下のように導出される。
nW = Max( nTbW, 2 ) (8-135)
nH = Max( nTbH, 2 ) (8-136)
x = 0..nTbW - 1かつy = 0..nTbH - 1である予測サンプルの値predSamples[ x ][ y ]は、以下のように導出される。
predV[ x ][ y ] = ( ( nH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137)
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nH ) (8-138)
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW * nH ) >> (Log2 ( nW ) + Log2 ( nH ) + 1 ) (8-139)
この例では、座標(x, y)において予測されるべきサンプルについて、
・p[-1][y]は、対応する左の列の参照サンプルを表現する。
・p[nTbW][-1]は、対応する右の列の参照サンプルを表現する。右の列の参照サンプルが同じでありp[nTbW][-1]を用いてパディングされることを留意されたい。p[nTbW][-1]は、右の参照サンプル列と上の参照サンプル行との交差において位置付けられるサンプルである。
・p[x][-1]は、対応する上の行の参照サンプルを表現する。
・p[-1][nTbH]は、対応する下の行の参照サンプルを表現する。下の行の参照サンプルが同じでありp[-1][nTbH]を用いてパディングされることを留意されたい。p[-1][nTbH]は、下の参照サンプル行と左の参照サンプル列との交差において位置付けられるサンプルである。
図7は、これらの参照サンプルの位置を表し、出力参照サンプルpredSamples[ x ][ y ]は、破線長方形によって囲まれている現在の予測ブロック内のサンプルに対応する。下の破線長方形は、現在の予測ブロック内に位置付けられるサンプルp(0,0)~p(15,0)を例示するために使用される。実線によって表される参照サンプルは、現在の予測ブロックに隣接している。図7に表された例では、p(-1)(-1)~p(-1,1)およびp(0,-1)~p(15)(-1)が参照サンプルである。nTbWおよびnTbHは、それぞれ、予測ブロックの幅および高さを表現する。この特定の例では、現在のブロック(予測ブロックまたは変換ブロック)は1ピクセルの高さnTbHを有する。予測ブロックは、インター予測またはイントラ予測のいずれかから結果として生じるサンプルの長方形のM×Nブロックを表現し、MおよびNは0でない正の整数である。同様に、変換ブロックは、変換から結果として生じるサンプルの長方形のK×Lブロックを表現し、KおよびLは0でない正の整数である。通常、予測ブロックが生成された後、同じ位置を有する同じサイズの変換ブロックが変換(または、デコードにおける逆変換)を用いて生成される。しかしながら、予測ブロックのサイズおよび位置は、その関連付けられた変換ブロックと常に同じであるとは限らないことがある。
特に、1に等しい高さを有するブロックについて、平面モードイントラ予測が不必要に複雑であることが断言される。
現在のVVC仕様では、予測されたサンプルごとに、平面モードについて5回の乗算および3回のシフト演算を伴うことになる。5回の乗算は、垂直成分の生成における2回、水平成分の生成における2回、および出力サンプル計算における1回を含む。3回のシフト演算は、垂直および水平成分の生成における各々1回、ならびに出力サンプル(predSamples)の生成における1回に分散される。
現在のVVC仕様はまた、式8-139における最小高さ(nH)および最小幅(nW)が2であることを保証することによって、双線形フィルタを使用して垂直および水平成分が生成されることを保証する。
この発明のいくつかの実施形態では、1に等しい高さを有するブロックについて平面モードの予測を簡略化することが提案される。すなわち、このタイプのブロックについて、垂直成分の生成は、p[-1][nTbH]によってパディングされる、下の参照サンプル行を使用する。具体的には、垂直サンプルの生成は以下の式に従って計算される。
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137')
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) (8-138')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 ) (8-139')
このようにして、1に等しい高さ(nTbH=1)を有するブロックについて、平面モード予測において3回の乗算および2回のシフト演算のみがある。
一実施形態では、平面モードの予測は以下に修正される。
INTRA_PLANARイントラ予測モードの仕様
このプロセスへの入力は、
- ブロック幅を指定する変数nTbW、
- ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
このプロセスの出力は、x = 0..nTbW - 1、y = 0..nTbH - 1である予測されたサンプルpredSamples[ x ][ y ]である。
変数nWおよびnHは、それぞれ、nTbWおよびnTbHに対してクリッピング演算を適用することで導出される。
nW = Max( nTbW, 2 ) (8-135)
nH = Max( nTbH, 2 ) (8-136)
x = 0..nTbW - 1かつy = 0..nTbH - 1である予測サンプルの値predSamples[ x ][ y ]は、以下のように導出される。
nTbHが1に等しいならば、
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137')
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) (8-138')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 ) (8-139')
そうでなければ(nTbHが1に等しくない)、
predV[ x ][ y ] = ( ( nH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW ) (8-137)
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nH ) (8-138)
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW * nH ) >> (Log2 ( nW ) + Log2 ( nH ) + 1 ) (8-139)
別の実施形態では、平面モードの予測は以下に修正される。
このプロセスへの入力は、
- ブロック幅を指定する変数nTbW、
- ブロック高さを指定する変数nTbH、
- x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルp[ x ][ y ]である。
このプロセスの出力は、x = 0..nTbW - 1、y = 0..nTbH - 1である予測されたサンプルpredSamples[ x ][ y ]である。
x = 0..nTbW - 1かつy = 0..nTbH - 1である予測サンプルの値predSamples[ x ][ y ]は、以下のように導出される。
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW ) (8-137'')
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH ) (8-138'')
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 ) (8-139'')
実際、第1の実施形態におけるif-else分岐における等式は、この実施形態において表される等式に統合されることが可能である。等式8-137~8-139と比較すると、複雑さは同じままであるが、nTbWおよびnTbHのためのクリッピング演算が除去される。
上記の実施形態では、nTbWは予測ブロックまたは変換ブロックの幅を表現し得る。上記で述べたように、いくつかの実施形態によれば、変換ブロックサイズと予測ブロックサイズとは同じであってよい。しかしながら、本開示はそのような例に限定されない。
上記の実施形態では、nTbHは予測ブロックまたは変換ブロックの高さを表現し得る。
特に、デコードまたはエンコードデバイスによって実現される以下の方法および実施形態が提供される。デコードデバイスは、図1Aのビデオデコーダ30または図3のデコーダ30であり得る。エンコードデバイスは、図1Aのビデオエンコーダ20または図2のエンコーダ20であり得る。
一実施形態800(図8を参照されたい)によれば、デバイスは、ブロック801において、現在のブロックのためのイントラ予測モードが平面であることを決定する。現在のものは、予測ブロックまたは変換ブロックであり得る。
デバイスはまた、ブロックの高さまたは幅が1に等しいかどうかを決定し得る。ブロックの下の参照サンプル行はp[-1][ nTbH]によってパディングされてよく、かつ/またはブロックの右の参照サンプル列はp[ nTbW ][ -1 ]によってパディングされてよい。
ブロック802において、デバイスは、現在のブロックのイントラ予測サンプルの垂直成分の値を計算する。
垂直成分の値predV[ x ][ y ]は、上および下の参照サンプル行からのサンプルを使用して線形フィルタを用いて生成され、ここで、下のサンプル行は、現在のブロックの左上のサンプルに関して(-1, nTbH)に位置付けられるサンプルを使用してパディングされる。たとえば、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、ここで、predV[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である垂直成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ x ][ -1 ]は、x = 0..nTbWである隣接サンプルを表現する。
特に、ブロックの高さが1に等しいとき、predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )である。
ブロックの幅が1に等しいとき、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] )である。
上記の説明から、ブロックの幅はnTbWであり、ブロックの高さはnTbHである。predV[ x ][ y ]を計算する前に、クリッピング演算nW = Max( nTbW, 2 )もクリッピング演算nH = Max( nTbH, 2 )もない。
ブロック803において、デバイスは、現在のブロックのイントラ予測サンプルの水平成分の値を計算する。
水平成分の値predH[ x ][ y ]は、左および右の参照サンプル列からのサンプルを使用して線形フィルタを用いて生成され、ここで、右のサンプル列は、現在のブロックの左上のサンプルに関して(nTbW, -1)に位置付けられるサンプルを使用してパディングされる。
たとえば、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、ここで、predH[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である水平成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ -1 ][ y ]は、y = -1..nTbHである隣接サンプルを表現する。
特に、ブロックの高さが1に等しいとき、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )である。
ブロックの幅が1に等しいとき、predH[ x ][ y ] = ( ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )である。
同様に、predH[ x ][ y ]を計算する前に、クリッピング演算nW = Max( nTbW, 2 )もクリッピング演算nH = Max( nTbH, 2 )もない。
ブロック802と803との間に、シーケンスに関する限定はない。言い換えれば、ブロック802の機能は、ブロック803の前に、ブロック803と同時に、またはブロック803の後に実行されてよい。
ブロック804において、デバイスは、垂直成分の値および水平成分の値に基づいてイントラ予測サンプルを生成する。
たとえば、イントラ予測サンプルは、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )として計算される。
イントラ平面予測についての詳細な情報は、上記で述べた実施形態に表されている。
図9は、デバイス900の実施形態を例示する。デバイス900は、図1Aのビデオデコーダ30もしくは図3のデコーダ30であってよく、または図1Aのビデオエンコーダ20もしくは図2のエンコーダ20であってよい。デバイス900は、実施形態800、および上記で説明された他の実施形態を実現するために使用されることが可能である。
イントラ平面予測のデバイス900は、決定ユニット901、計算ユニット902、および予測ユニット903を含む。ブロックについてのイントラ予測モードが平面であることを決定するように構成された決定ユニット901。ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算するように構成された計算ユニット902。垂直成分の値predV[ x ][ y ]は、上および下の参照サンプル行からのサンプルを使用して線形フィルタを用いて生成され、下のサンプル行は、現在のブロックの左上のサンプルに関して(-1, nTbH)に位置付けられるサンプルを使用してパディングされる。たとえば、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、ここで、predV[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である垂直成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ x ][ -1 ]は、x = 0..nTbWである隣接サンプルを表現する。
イントラ予測サンプルの水平成分の値を計算するようにさらに構成された計算ユニットであって、水平成分の値predH[ x ][ y ]は、左および右の参照サンプル列からのサンプルを使用して線形フィルタを用いて生成され、右のサンプル列は、現在のブロックの左上のサンプルに関して(nTbW, -1)に位置付けられるサンプルを使用してパディングされる。
たとえば、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、ここで、predH[ x ][ y ]は、x = 0..nTbW - 1かつy = 0..nTbH - 1である水平成分の値を表現し、nTbHはブロックの高さを表現し、nTbWはブロックの幅を表現し、p[ -1 ][ y ]は、y = -1..nTbHである隣接サンプルを表現する。
ブロックの高さが1に等しいとき、垂直成分の値および水平成分の値を、
predV[ x ][ y ] = ( ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算するように構成された計算ユニット(902)。
ブロックの幅が1に等しいとき、垂直成分の値および水平成分の値を、
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] )、
predH[ x ][ y ] = ( ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算するように構成された計算ユニット(902)。
垂直成分の値および水平成分の値に基づいてイントラ予測サンプルを生成するように構成された予測ユニット903。たとえば、イントラ予測サンプルを、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成するように構成された予測ユニット(903)。
デバイスは、パディングユニット(904)をさらに含んでよい。特に、ブロックまたは変換ブロックの高さが1に等しいとき、p[ -1 ][ nTbH ]によってブロックまたは変換ブロックの下の参照サンプル行をパディングし、あるいは、特に、ブロックの幅が1に等しいとき、p[ nTbW ][ -1 ]によってブロックの右の参照サンプル列をパディングするように構成されたパディングユニット(904)。
上記で論じたように、平面モードのイントラ予測に関する従来の場合では、いくつかのブロックについて予測ブロックサンプルの決定は不必要に複雑である。垂直成分の値および水平成分の値を計算する前に、nTbWおよびnTbHに対してクリッピング演算を適用することで2つの変数nWおよびnHが導出されなければならなかった。この開示のいくつかの実施形態は、垂直および水平成分を計算する前に、クリッピング演算nW = Max( nTbW, 2 )およびクリッピング演算nH = Max( nTbH, 2 )を実行しない。したがって、平面モードを適用する予測が簡略化される。それに対応して、エンコードまたはデコード効率が増加される。
その上、以下の実施形態がここで提供される。
実施形態1. 一態様によれば、発明は、デコードまたはエンコードのための方法に関する。方法は、デコードまたはエンコード装置によって実行される。方法は、予測ブロックの高さが1に等しいとき、予測ブロックの左の参照サンプル列を使用することなく予測ブロックの下の参照サンプル行を使用することによって、イントラ予測されたサンプルの垂直成分の値を計算するステップと、イントラ予測されたサンプルの水平成分の値を計算するステップと、垂直成分の値および水平成分の値に基づいて、イントラ予測されたサンプルを生成するステップとを含む。
実施形態2. 垂直成分の値predV[ x ][ y ]が、
predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nW )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現し、nWが、予測ブロックの幅にクリッピングを適用した後のクリッピングされた値を表現する、実施形態1の方法。
実施形態3. 水平成分の値predH[ x ][ y ]が、
predH[ x ][ y ] = ( ( nW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現し、nWが、予測ブロックの幅にクリッピングを適用した後のクリッピングされた値を表現する、実施形態1または2の方法。
実施形態4. イントラ予測されたサンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 )によって生成される、いずれか1つの実施形態1~3の方法。
実施形態5. 下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、実施形態1~4のうちのいずれか1つの方法。
実施形態6. 別の態様によれば、発明は、デコードまたはエンコードのための方法に関する。方法は、デコードまたはエンコード装置によって実行される。方法は、クリッピング演算を適用することなく取得された現在の予測ブロックの高さおよび幅、予測ブロックの高さおよび幅に基づいて、イントラ予測されたサンプルの垂直成分の値を計算するステップと、予測ブロックの高さおよび幅に基づいて、イントラ予測されたサンプルの水平成分の値を計算するステップと、垂直成分の値および水平成分の値に基づいて、イントラ予測されたサンプルを生成するステップとを含む。
実施形態7. 垂直成分の値predV[ x ][ y ]が、
predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現する、実施形態6の方法。
実施形態8. 水平成分の値predH[ x ][ y ]が、
predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算され、
x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが予測ブロックまたは変換ブロックの高さを表現し、nTbWが予測ブロックまたは変換ブロックの幅を表現する、実施形態6または7の方法。
実施形態9. イントラ予測されたサンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、いずれか1つの実施形態6~8の方法。
実施形態10. 予測ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、実施形態5から9のうちのいずれか1つの方法。
実施形態11. 予測ブロックの幅が、クリッピング演算nW = Max( nTbW, 2 )を適用することなく取得される、実施形態5~10のうちのいずれか1つの方法。
実施形態12. 予測ブロックの高さが、クリッピング演算nH = Max( nTbH, 2 )を適用することなく取得される、実施形態5~11のうちのいずれか1つの方法。
以下は、エンコード方法、並びに上記で述べた実施形態に表されたようなデコード方法、およびそれらを使用するシステムの適用の説明である。
図10は、コンテンツ配信サービスを実現するためのコンテンツ供給システム3100を表すブロック図である。このコンテンツ供給システム3100は、キャプチャデバイス3102、端末デバイス3106を含み、任意選択でディスプレイ3126を含む。キャプチャデバイス3102は、通信リンク3104上で端末デバイス3106と通信する。通信リンクは、上記で説明された通信チャネル13を含んでよい。通信リンク3104は、WIFI、Ethernet、ケーブル、無線(3G/4G/5G)、USB、またはそれらの任意の種類の組み合わせ、または同様のものを含むが、それらに限定されない。
キャプチャデバイス3102は、データを生成し、上記の実施形態に表されたようなエンコード方法によってデータをエンコードし得る。代替として、キャプチャデバイス3102は、ストリーミングサーバ(図に表されていない)にデータを配信してよく、サーバは、データをエンコードし、エンコードされたデータを端末デバイス3106へ伝送する。キャプチャデバイス3102は、カメラ、スマートフォンまたはパッド、コンピュータまたはラップトップ、ビデオ会議システム、PDA、車両搭載型デバイス、またはそれらのいずれかの組み合わせ、または同様のものを含むが、それらに限定されない。例えば、キャプチャデバイス3102は、上記で説明されたようなソースデバイス12を含んでよい。データがビデオを含むとき、キャプチャデバイス3102内に含まれるビデオエンコーダ20が、実際にビデオエンコード処理を実行し得る。データがオーディオ(すなわち、音声)を含むとき、キャプチャデバイス3102内に含まれるオーディオエンコーダが、実際にオーディオエンコード処理を実行し得る。いくつかの実際的なシナリオについて、キャプチャデバイス3102は、エンコードされたビデオおよびオーディオデータを、それらを一緒に多重化することによって配信する。他の実際的なシナリオについて、例えば、ビデオ会議システムでは、エンコードされたオーディオデータおよびエンコードされたビデオデータは多重化されない。キャプチャデバイス3102は、エンコードされたオーディオデータおよびエンコードされたビデオデータを端末デバイス3106に別々に配信する。
コンテンツ供給システム3100において、端末デバイス310は、エンコードされたデータを受信および再生する。端末デバイス3106は、上記で述べたエンコードされたデータをデコードすることが可能な、スマートフォンまたはパッド3108、コンピュータまたはラップトップ3110、ネットワークビデオレコーダ(network video recorder(NVR))/デジタルビデオレコーダ(digital video recorder(DVR))3112、TV 3114、セットトップボックス(set top box(STB))3116、ビデオ会議システム3118、ビデオ監視システム3120、パーソナルデジタルアシスタント(personal digital assistant(PDA))3122、車両搭載型デバイス3124、またはそれらのいずれかの組み合わせ、または同様のもののような、データ受信および復元能力を有するデバイスであることが可能である。例えば、端末デバイス3106は、上記で説明されたような宛先デバイス14を含んでよい。エンコードされたデータがビデオを含むとき、端末デバイス内に含まれるビデオデコーダ30は、ビデオデコードを実行するように優先順位付けされる。エンコードされたデータがオーディオを含むとき、端末デバイス内に含まれるオーディオデコーダは、オーディオデコード処理を実行するように優先順位付けされる。
そのディスプレイを有する端末デバイス、例えば、スマートフォンまたはパッド3108、コンピュータまたはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)3112、TV 3114、パーソナルデジタルアシスタント(PDA)3122、または車両搭載型デバイス3124に対して、端末デバイスは、そのディスプレイにデコードされたデータを供給することができる。ディスプレイが装備されていない端末デバイス、例えば、STB 3116、ビデオ会議システム3118、またはビデオ監視システム3120に対して、デコードされたデータを受信および表示するために外部ディスプレイ3126がそこに接触される。
このシステム内の各デバイスがエンコードまたはデコードを実行するとき、上記で述べた実施形態に表されたように、ピクチャエンコードデバイスまたはピクチャデコードデバイスが使用されることが可能である。
図11は、端末デバイス3106の一例の構造を表す図である。端末デバイス3106がキャプチャデバイス3102からストリームを受信した後、プロトコル進行ユニット3202がストリームの伝送プロトコルを分析する。プロトコルは、リアルタイム・ストリーミング・プロトコル(Real Time Streaming Protocol(RTSP))、ハイパーテキスト転送プロトコル(Hyper Text Transfer Protocol(HTTP))、HTTPライブ・ストリーミング・プロトコル(HTTP Live streaming protocol(HLS))、MPEG-DASH、リアルタイム・トランスポート・プロトコル(Real-time Transport protocol(RTP))、リアルタイム・メッセージング・プロトコル(Real Time Messaging Protocol(RTMP))、またはそれらの任意の種類の組み合わせ、または同様のものを含むが、それらに限定されない。
プロトコル進行ユニット3202がストリームを処理した後、ストリームファイルが生成される。ファイルは逆多重化ユニット3204に出力される。逆多重化ユニット3204は、多重化されたデータをエンコードされたオーディオデータおよびエンコードされたビデオデータに分離することができる。上記で説明されたように、いくつかの実際的なシナリオについて、例えば、ビデオ会議システムでは、エンコードされたオーディオデータおよびエンコードされたビデオデータは多重化されない。この状況では、エンコードされたデータは、逆多重化ユニット3204を通すことなくビデオデコーダ3206およびオーディオデコーダ3208へ伝送される。
逆多重化処理を介して、ビデオエレメンタリストリーム(elementary stream(ES))、オーディオES、および任意選択でサブタイトルが生成される。上記で述べた実施形態で説明されたようなビデオデコーダ30を含むビデオデコーダ3206は、上記で述べた実施形態に表されたようなデコード方法によってビデオESをデコードしてビデオフレームを生成し、このデータを同期ユニット3212に供給する。オーディオデコーダ3208は、オーディオESをデコードしてオーディオフレームを生成し、このデータを同期ユニット3212に供給する。代替として、ビデオフレームは、それを同期ユニット3212に供給する前にバッファ(図Yに表されていない)に記憶し得る。同様に、オーディオフレームは、それを同期ユニット3212に供給する前にバッファ(図Yに表されていない)に記憶し得る。
同期ユニット3212は、ビデオフレームとオーディオフレームを同期させ、ビデオ/オーディオをビデオ/オーディオディスプレイ3214に供給する。例えば、同期ユニット3212は、ビデオおよびオーディオ情報の提示を同期させる。情報は、コーディングされたオーディオおよびビジュアルデータの提示に関係するタイムスタンプ、およびデータストリーム自体の配信に関係するタイムスタンプを使用してシンタックス内にコーディングし得る。
ストリーム内にサブタイトルが含まれるならば、サブタイトルデコーダ3210が、サブタイトルをデコードし、それをビデオフレームおよびオーディオフレームと同期させ、ビデオ/オーディオ/サブタイトルをビデオ/オーディオ/サブタイトルディスプレイ3216に供給する。
本発明は上記で述べたシステムに限定されず、上記で述べた実施形態におけるピクチャエンコードデバイスまたはピクチャデコードデバイスのいずれかは、他のシステム、例えば、自動車システムの中に組み込まれることが可能である。
数学演算子
この出願において使用される数学演算子は、Cプログラミング言語において使用されるものと類似である。しかし、整数除算および算術シフト演算の結果がより精密に定義され、べき乗および実数値除算のような追加の演算が定義される。番号付けおよび計数の規約は、一般に、0から始まり、例えば、「第1」が0番目と等価であり、「第2」が1番目と等価である、などである。
算術演算子
以下の算術演算子は以下のように定義される。
+ 加算。
- 減算(2つの引数の演算子として)または符号反転(単項前置演算子として)。
* 乗算、行列乗算を含む。
xy べき乗。xのy乗を指定する。他の文脈では、そのような表記法は、べき乗としての解釈のために意図されない上付き文字にするために使用される。
/ 結果の0への切り捨てを伴う整数除算。例えば、7/4および-7/-4は1に切り捨てられ、-7/4および7/-4は-1に切り捨てられる。
÷ 切り捨てまたは丸めが意図されない、数式における除算を表記するために使用される。
Figure 2022531544000004
切り捨てまたは丸めが意図されない、数式における除算を表記するために使用される。
Figure 2022531544000005
iがxからyまで、かつyを含む全ての整数値をとる、f(i)の合算。
x % y 法。x>=0かつy>0となる整数xおよびyのみについて定義される、xをyで除算した剰余。
論理演算子
以下の論理演算子は以下のように定義される。
x && y xとyのブール論理の「論理積」。
x || y xとyのブール論理の「論理和」。
! ブール論理の「否定」。
x ? y : z xがTRUE、すなわち0に等しくないならば、yの値に評価し、そうでなければ、zの値に評価する。
関係演算子
以下の関係演算子は以下のように定義される。
> よりも大きい。
>= 以上。
< よりも小さい。
<= 以下。
== 等しい。
!= 等しくない。
値「na」(適用可能でない)が割り当てられているシンタックス要素または変数に関係演算子が適用されるとき、値「na」は、そのシンタックス要素または変数について特別な値として扱われる。値「na」は、いかなる他の値にも等しくないと見なされる。
ビット単位演算子
以下のビット単位演算子は以下のように定義される。
& ビット単位の「論理積」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
| ビット単位の「論理和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
^ ビット単位の「排他的論理和」。整数の引数に対して演算するとき、整数値の2の補数表現に対して演算する。別の引数よりも少ないビットを含む2進数の引数に対して演算するとき、より短い引数は、0に等しいより上位のビットを追加することによって拡張される。
x >> y xの2の補数整数表現の、2進数のy桁だけの算術右シフト。この関数は、yの非負の整数値に対してのみ定義される。右シフトの結果として最上位ビット(most significant bit(MSB))にシフトされるビットは、そのシフト演算の前のxのMSBに等しい値を有する。
x << y xの2の補数整数表現の、2進数のy桁だけの算術左シフト。この関数は、yの非負の整数値に対してのみ定義される。左シフトの結果として最下位ビット(least significant bit(LSB))にシフトされるビットは、0に等しい値を有する。
割当て演算子
以下の算術演算子は以下のように定義される。
= 割当て演算子。
++ インクリメント、すなわち、x++はx = x + 1と等価であり、アレイインデックスにおいて使用されるとき、インクリメント演算の前の変数の値に評価する。
-- デクリメント、すなわち、x--はx = x - 1と等価であり、アレイインデックスにおいて使用されるとき、デクリメント演算の前の変数の値に評価する。
+= 指定された量だけのインクリメント、すなわち、x += 3はx = x + 3と等価でありx += (-3)はx = x + (-3)と等価である。
-= 指定された量だけのデクリメント、すなわち、x -= 3はx = x - 3と等価であり、x -= (-3)はx = x - (-3)と等価である。
範囲表記法
値の範囲を指定するために以下の表記法が使用される。
x=y..z xは、yから始まりzまでの全てを含む整数値をとり、x、y、およびzは整数であり、zはyよりも大きい。
数学関数
以下の数学関数が定義される。
Figure 2022531544000006
Asin(x) -1.0~1.0の全てを含む範囲内にある引数xに対して演算し、ラジアンの単位での-π÷2からπ÷2の全てを含む範囲内の出力値を有する、三角法の逆正弦関数。
Atan(x) 引数xに対して演算し、ラジアンの単位での-π÷2からπ÷2の全てを含む範囲内の出力値を有する、三角法の逆正接関数。
Figure 2022531544000007
Ceil(x) x以上の最小の整数。
Clip1Y( x ) = Clip3( 0, ( 1 << BitDepthY ) - 1, x )
Clip1C( x ) = Clip3( 0, ( 1 << BitDepthC ) - 1, x )
Figure 2022531544000008
Cos(x) ラジアンの単位での引数xに対して演算する、三角法の余弦関数。
Floor(x) x以下の最大の整数。
Figure 2022531544000009
Ln(x) xの自然対数(eを底とする対数、ここで、eは自然対数の底定数2.718 281 828...である)。
Log2(x) 2を底とするxの対数。
Log10(x) 10を底とするxの対数。
Figure 2022531544000010
Round( x ) = Sign( x ) * Floor( Abs( x ) + 0.5 )
Figure 2022531544000011
Sin(x) ラジアンの単位での引数xに対して演算する、三角法の正弦関数。
Figure 2022531544000012
Swap( x, y ) = ( y, x )
Tan(x) ラジアンの単位での引数xに対して演算する、三角法の正接関数。
演算優先順位の順序
式における優先順位の順序が括弧の使用によって明示的には示されないとき、以下の規則が適用される。
- より高い優先順位の演算は、より低い優先順位の任意の演算の前に評価される。
- 同じ優先順位の演算は、左から右へ順次に評価される。
以下の表は、最高から最低までの演算の優先順位を指定し、表内のより高い位置がより高い優先順位を示す。
Cプログラミング言語においても使用されるそれらの演算子について、この明細書において使用される優先順位の順序は、Cプログラミング言語において使用されるのと同じである。
Figure 2022531544000013
論理演算の本文記述
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメント、すなわち、
if(条件0)
ステートメント0
else if(条件1)
ステートメント1
...
else /* 残りの条件における説明的な注釈 */
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 条件0ならば、ステートメント0
- そうでなく、条件1ならば、ステートメント1
- ...
- そうでなければ(残りの条件における説明的な注釈)、ステートメントn
本文の中の各々の「...ならば、そうでなく...ならば、そうでなければ...」のステートメントは、その直後に「...ならば」が来る、「...以下のように」または「...以下が適用される」を用いて導入される。「...ならば、そうでなく...ならば、そうでなければ...」の最後の条件は、常に「そうでなければ...」である。交互に配置された「...ならば、そうでなく...ならば、そうでなければ...」のステートメントは、「...以下のように」または「...以下が適用される」を、終わりの「そうでなければ...」に整合させることによって識別されることが可能である。
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメント、すなわち、
if(条件0a && 条件0b)
ステートメント0
else if(条件1a || 条件1b)
ステートメント1
...
else
ステートメントn
は、以下の形態で説明され得る。
...以下のように/...以下が適用される
- 以下の条件の全てが真であるならば、ステートメント0:
- 条件0a
- 条件0b
- そうでなく、以下の条件のうちの1つまたは複数が真であるならば、ステートメント1:
- 条件1a
- 条件1b
- ...
- そうでなければ、ステートメントn
本文の中で、以下の形式で数学的に記述されることになるような論理演算のステートメント、すなわち、
if(条件0)
ステートメント0
if(条件1)
ステートメント1
は、以下の形態で説明され得る。
条件0のとき、ステートメント0
条件1のとき、ステートメント1
発明の実施形態はビデオコーディングに基づいて主に説明されているが、コーディングシステム10、エンコーダ20、およびデコーダ30(およびそれに対応してシステム10)の実施形態、およびここで説明される他の実施形態がまた、静止ピクチャ処理またはコーディング、すなわち、ビデオコーディングにおけるような任意の先行するまたは連続したピクチャから独立した、個々のピクチャの処理またはコーディングのために構成され得ることが注記されるべきである。一般に、ピクチャ処理コーディングが単一のピクチャ17に限定される場合には、インター予測ユニット244(エンコーダ)および344(デコーダ)のみが利用可能でなくてよい。ビデオエンコーダ20およびビデオデコーダ30の全ての他の機能(ツールまたは技術とも呼ばれる)は、静止ピクチャ処理、例えば、残差計算204/304、変換206、量子化208、逆量子化210/310、(逆)変換212/312、区分262/362、イントラ予測254/354、および/またはループフィルタ処理220、320、およびエントロピーコーディング270およびエントロピーデコード304のために等しく使用され得る。
例えば、エンコーダ20およびデコーダ30の実施形態、および、例えば、エンコーダ20およびデコーダ30を参照してここで説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実現され得る。ソフトウェアで実現されるならば、機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体において記憶され、または通信媒体上で伝送され、ハードウェアベースの処理ユニットによって実行されてよい。コンピュータ可読媒体は、データ記憶媒体のような有形媒体に対応するコンピュータ可読記憶媒体、または、例えば、通信プロトコルに従って、1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含んでよい。この形態において、コンピュータ可読媒体は、一般に、(1)非一時的である有形コンピュータ可読記憶媒体、または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、この開示において説明される技法の実装のための命令、コード、および/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされることが可能である任意の利用可能な媒体であってよい。コンピュータプログラム製品がコンピュータ可読媒体を含んでよい。
例として、かつ限定せず、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD-ROM、または他の光ディスク記憶、磁気ディスク記憶、または他の磁気記憶デバイス、フラッシュメモリ、または命令またはデータ構造の形式で所望のプログラムコードを記憶するために使用されることが可能であり、コンピュータによってアクセスされることが可能である任意の他の媒体を備えることができる。また、任意の接続が、コンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(digital subscriber line(DSL))、または赤外線、無線、およびマイクロ波のような無線技術を使用して、ウェブサイト、サーバ、または他のリモートソースから伝送されるならば、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波のような無線技術は、媒体の定義の中に含まれる。しかし、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることが理解されるべきである。ここで使用されるようなディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピーディスク(disk)、およびBlu-ray(登録商標)ディスク(disc)を含み、ここで、ディスク(disk)は、通常、データを磁気的に再生し、一方、ディスク(disc)は、レーザーを用いてデータを光学的に再生する。上記のものの組み合わせも、コンピュータ可読媒体の範囲内に含まれるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価な集積論理回路または個別論理回路のような1つまたは複数のプロセッサによって実行され得る。従って、ここで使用されるような用語「プロセッサ」は、上記の構造またはここで説明される技法の実装のために適した任意の他の構造のいずれかを指し得る。加えて、いくつかの態様では、ここで説明される機能は、エンコードおよびデコードするために構成された専用のハードウェアおよび/またはソフトウェアモジュール内で提供され、または組み合わせられたコーデック内に組み込まれ得る。また、技法は、1つまたは複数の回路または論理要素内で十分に実現されることが可能である。
この開示の技法は、無線ハンドセット、集積回路(IC)、またはICのセット(例えば、チップセット)を含む、広く様々なデバイスまたは装置内で実現され得る。様々な構成要素、モジュール、またはユニットは、開示される技法を実行するように構成されたデバイスの機能的態様を強調するためにこの開示において説明されているが、異なるハードウェアユニットによる実現を必ずしも要求しない。むしろ、上記で説明されたように、様々なユニットが、コーデックハードウェアユニット内で組み合わせられ、または上記で説明されたような1つまたは複数のプロセッサを含む、相互動作可能なハードウェアユニットの集合によって、適したソフトウェアおよび/またはファームウェアとともに提供されてよい。
10 ビデオコーディングシステム
12 ソースデバイス
13 通信チャネル
14 宛先デバイス
16 ピクチャソース
17 ピクチャ、ピクチャデータ、未処理ピクチャ、未処理ピクチャデータ
18 プリプロセッサ、前処理ユニット
19 前処理されたピクチャ、前処理されたピクチャデータ
20 ビデオエンコーダ
21 エンコードされたピクチャデータ
22 通信インターフェース、通信ユニット
28 通信インターフェース、通信ユニット
30 ビデオデコーダ
31 デコードされたピクチャ、デコードされたピクチャデータ
32 ポストプロセッサ、後処理ユニット
33 後処理されたピクチャ、後処理されたピクチャデータ
34 ディスプレイデバイス
46 処理回路
201 入力、入力インターフェース
203 ピクチャブロック
204 残差計算ユニット
205 残差ブロック、残差
206 変換処理ユニット
207 変換係数
208 量子化ユニット
209 量子化された係数、量子化された変換係数、量子化された残差係数
210 逆量子化ユニット
211 逆量子化された係数、逆量子化された残差係数
212 逆変換処理ユニット
213 再構成された残差ブロック、対応する逆量子化された係数、変換ブロック
214 再構成ユニット
215 再構成されたブロック
220 ループフィルタユニット
221 フィルタ処理されたブロック、フィルタ処理された再構成されたブロック
230 デコードされたピクチャバッファ
231 デコードされたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット
260 モード選択ユニット
262 区分ユニット
265 予測ブロック、予測子
266 シンタックス要素
270 エントロピーエンコードユニット
272 出力、出力インターフェース
304 エントロピーデコードユニット
309 量子化された係数
310 逆量子化ユニット
311 変換係数、逆量子化された係数
312 逆変換処理ユニット
313 再構成された残差ブロック、変換ブロック
314 再構成ユニット
315 再構成されたブロック
320 ループフィルタユニット
321 フィルタ処理されたブロック
330 デコードされたピクチャバッファ
331 デコードされたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット
360 モード適用ユニット
365 予測ブロック
400 ビデオコーディングデバイス
410 入口ポート、入力ポート
420 受信機ユニット
430 プロセッサ、論理ユニット、中央処理ユニット
440 送信機ユニット
450 出口ポート、出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 コードおよびデータ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 2次記憶装置
518 ディスプレイ
900 デバイス
901 決定ユニット
902 計算ユニット
903 予測ユニット
904 パディングユニット
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン/パッド
3110 コンピュータ/ラップトップ
3112 ネットワークビデオレコーダ/デジタルビデオレコーダ
3114 TV
3116 セットトップボックス
3118 ビデオ会議システム
3120 ビデオ監視システム
3122 携帯情報端末
3124 車両搭載型デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 逆多重化ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 サブタイトルデコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/サブタイトルディスプレイ
インター予測
インター予測モードのセット(または可能なインター予測モード)は、利用可能な参照ピクチャ(すなわち、例えば、DPB 230に記憶されている、少なくとも部分的にデコードされた以前のピクチャ)、および他のインター予測パラメータ、例えば、最も良く整合する参照ブロックを探索するために参照ピクチャ全体が使用されるか、または参照ピクチャの一部のみ、例えば、現在のブロックのエリアの周囲の探索ウィンドウエリアが使用されるか、および/または、例えば、ピクセル補間、例えば、ハーフ/セミペルおよび/またはクォーターペル補間が適用されるか否かに依存する。
図3の例では、デコーダ30は、エントロピーデコードユニット304、逆量子化ユニット310、逆変換処理ユニット312、再構成ユニット314(例えば、合算器314)、ループフィルタ320、デコードされたピクチャバッファ(DPB)330、モード適用ユニット360、インター予測ユニット344、およびイントラ予測ユニット354を備える。インター予測ユニット344は、動き補償ユニットであってよく、またはそれを含んでもよい。ビデオデコーダ30は、いくつかの例では、図2からのビデオエンコーダ100に関して説明されたエンコードパスとは一般に相補的なデコードパスを実行し得る。
実施形態4. イントラ予測されたサンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nW ) >> (Log2 ( nW ) +1 )によって生成される、実施形態1~3のいずれか1つの方法。
実施形態9. イントラ予測されたサンプルpredSamples[ x ][ y ]が、
predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、実施形態6~8のいずれか1つの方法。
逆多重化処理を介して、ビデオエレメンタリストリーム(elementary stream(ES))、オーディオES、および任意選択でサブタイトルが生成される。上記で述べた実施形態で説明されたようなビデオデコーダ30を含むビデオデコーダ3206は、上記で述べた実施形態に表されたようなデコード方法によってビデオESをデコードしてビデオフレームを生成し、このデータを同期ユニット3212に供給する。オーディオデコーダ3208は、オーディオESをデコードしてオーディオフレームを生成し、このデータを同期ユニット3212に供給する。代替として、ビデオフレームは、それを同期ユニット3212に供給する前にバッファ(図11に表されていない)に記憶し得る。同様に、オーディオフレームは、それを同期ユニット3212に供給する前にバッファ(図11に表されていない)に記憶し得る。

Claims (26)

  1. ピクチャにおけるイントラ平面予測の方法であって、
    前記ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算するステップであって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )である、ステップと、
    前記イントラ予測サンプルの水平成分の値を計算するステップであって、前記水平成分の値predH[ x ][ y ]が、
    predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )である、ステップと、
    前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルpredSamples[ x ][ y ]を生成するステップとを備え、
    nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x=-1、y=-1..nTbHおよびx=0..nTbW、y=-1である隣接サンプルを表現する、方法。
  2. 前記イントラ予測サンプルpredSamples[ x ][ y ]が、
    predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )である、請求項1に記載の方法。
  3. 前記ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項1または2に記載の方法。
  4. 前記ブロックの右の参照サンプル列がp[ nTbW ][ -1 ]によってパディングされる、請求項1または2に記載の方法。
  5. 前記ブロックの高さが1に等しいとき、
    predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
    predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )、
    predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW ) >> (Log2 ( nTbW ) +1 )である、請求項1から3に記載の方法。
  6. ブロックの高さが1に等しいイントラ平面予測の方法であって、
    イントラ予測サンプルの垂直成分の値を計算するステップであって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )である、ステップと、
    前記イントラ予測サンプルの水平成分の値を計算するステップであって、前記水平成分の値predH[ x ][ y ]が、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )である、ステップと、
    前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するステップとを備え、
    nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルを表現する、方法。
  7. 前記イントラ予測サンプルが、
    predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW ) >> (Log2 ( nTbW ) +1 )によって計算される、請求項6に記載の方法。
  8. 前記予測ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項6または7に記載の方法。
  9. デコードデバイスによって実現されるコーディングの方法であって、
    クリッピング演算を適用することなく現在のブロックの高さおよび幅を取得するステップと、
    前記予測ブロックの高さおよび幅に基づいてイントラ予測サンプルの垂直成分の値を計算するステップと、
    前記予測ブロックの高さおよび幅に基づいて前記イントラ予測サンプルの水平成分の値を計算するステップと、
    前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するステップとを備える方法。
  10. 前記垂直成分の値predV[ x ][ y ]が、
    predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )によって計算され、
    predV[ x ][ y ]が、x = 0..nTbW - 1、y = 0..nTbH - 1である前記垂直成分の値を表現し、nTbHが前記現在のブロックの高さを表現し、nTbWが前記現在のブロックの幅を表現する、請求項9に記載の方法。
  11. 前記水平成分の値predH[ x ][ y ]が、
    predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算され、
    x = 0..nTbW - 1、y = 0..nTbH - 1であり、nTbHが前記現在のブロックの高さを表現し、nTbWが前記現在のブロックの幅を表現する、請求項9または10に記載の方法。
  12. 前記イントラ予測サンプルpredSamples[ x ][ y ]が、
    predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成される、いずれか一項の請求項9から11に記載の方法。
  13. 前記予測ブロックの下の参照サンプル行がp[ -1 ][ nTbH ]によってパディングされる、請求項9から12のいずれか一項に記載の方法。
  14. 前記予測ブロックの幅が、クリッピング演算nW = Max( nTbW, 2 )を適用することなく取得される、請求項9から13のいずれか一項に記載の方法。
  15. 前記予測ブロックの高さが、クリッピング演算nH = Max( nTbH, 2 )を適用することなく取得される、請求項9から14のいずれか一項に記載の方法。
  16. 請求項1から15のいずれか一項に記載の方法を実行するための処理回路を備えるエンコーダ(20)。
  17. 請求項1から15のいずれか一項に記載の方法を実行するための処理回路を備えるデコーダ(30)。
  18. 請求項1から15のいずれか一項に記載の方法を実行するためのプログラムコードを備えるコンピュータプログラム製品。
  19. デコーダであって、
    1つまたは複数のプロセッサと、
    前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から15のいずれか一項に記載の方法を実行するように前記デコーダを構成する、デコーダ。
  20. エンコーダであって、
    1つまたは複数のプロセッサと、
    前記プロセッサに結合され、前記プロセッサによる実行のためのプログラミングを記憶する非一時的コンピュータ可読記憶媒体とを備え、前記プログラミングが、前記プロセッサによって実行されたとき、請求項1から15のいずれか一項に記載の方法を実行するように前記エンコーダを構成する、エンコーダ。
  21. ピクチャにおけるイントラ平面予測のデバイスであって、
    前記ピクチャのブロック内に含まれるイントラ予測サンプルの垂直成分の値を計算し、前記イントラ予測サンプルの水平成分の値を計算するように構成された計算ユニット(902)であって、前記垂直成分の値predV[ x ][ y ]が、predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )であり、前記水平成分の値predH[ x ][ y ]が、predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )であり、nTbHが前記ブロックの高さを表現し、nTbWが前記ブロックの幅を表現し、p[ x ][ y ]が、x = -1、y = -1..nTbHおよびx = 0..nTbW、y = -1である隣接サンプルを表現する、計算ユニット(902)と、
    前記垂直成分の値および前記水平成分の値に基づいて前記イントラ予測サンプルを生成するように構成された予測ユニット(903)とを備えるデバイス。
  22. 前記イントラ予測サンプルを、
    predSamples[ x ][ y ] = ( predV[ x ][ y ] + predH[ x ][ y ] + nTbW * nTbH ) >> (Log2 ( nTbW ) + Log2 ( nTbH ) + 1 )によって生成するように構成された前記予測ユニット(903)である、請求項21に記載のデバイス。
  23. 前記デバイスが、パディングユニット(904)をさらに備え、p[ nTbW ][ -1 ]によって前記ブロックの左の参照サンプル列をパディングするか、またはp[ -1 ][ nTbH ]によって前記ブロックの下の参照サンプル行をパディングするように構成された前記パディングユニット(904)である、請求項21または22に記載のデバイス。
  24. 前記予測ブロックの高さが1に等しいとき、前記垂直成分の値および前記水平成分の値を、
    predV[ x ][ y ] = (( y + 1 ) * p[ -1 ][ nTbH ] ) << Log2 ( nTbW )、
    predH[ x ][ y ] = ( ( nTbW - 1 - x ) * p[ -1 ][ y ] + ( x + 1 ) * p[ nTbW ][ -1 ] )によって計算するように構成された前記計算ユニット(902)である、請求項21から23のいずれか一項に記載のデバイス。
  25. 前記予測ブロックの幅が1に等しいとき、前記垂直成分の値および前記水平成分の値を、
    predV[ x ][ y ] = ( ( nTbH - 1 - y ) * p[ x ][ -1 ] + ( y + 1 ) * p[ -1 ][ nTbH ] )、
    predH[ x ][ y ] = ( ( x + 1 ) * p[ nTbW ][ -1 ] ) << Log2 ( nTbH )によって計算するように構成された前記計算ユニット(902)である、請求項21から23のいずれか一項に記載のデバイス。
  26. 前記デバイスが、デコーダまたはエンコーダである、請求項21から25のいずれか一項に記載のデバイス。
JP2021559591A 2019-09-23 2020-09-23 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法 Pending JP2022531544A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP2019075519 2019-09-23
EPPCT/EP2019/075519 2019-09-23
PCT/CN2020/116968 WO2021057755A1 (en) 2019-09-23 2020-09-23 An encoder, a decoder and corresponding methods of complexity reduction on intra prediction for the planar mode

Publications (1)

Publication Number Publication Date
JP2022531544A true JP2022531544A (ja) 2022-07-07

Family

ID=75166737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021559591A Pending JP2022531544A (ja) 2019-09-23 2020-09-23 平面モードのためのイントラ予測における複雑さ減少のエンコーダ、デコーダ、および対応する方法

Country Status (14)

Country Link
US (2) US11616980B2 (ja)
EP (2) EP3932064B1 (ja)
JP (1) JP2022531544A (ja)
KR (1) KR20210129180A (ja)
CN (2) CN114402606A (ja)
AU (1) AU2020352269A1 (ja)
BR (1) BR112022005441A2 (ja)
CA (1) CA3155442A1 (ja)
ES (1) ES2946487T3 (ja)
HU (1) HUE062044T2 (ja)
MX (1) MX2021012982A (ja)
PL (1) PL3932064T3 (ja)
PT (1) PT3932064T (ja)
WO (1) WO2021057755A1 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102595120A (zh) * 2011-01-14 2012-07-18 华为技术有限公司 一种空域预测编码方法、解码方法、装置和系统
US9516306B2 (en) * 2013-03-27 2016-12-06 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
EP3273695A4 (en) * 2015-05-12 2018-07-18 Samsung Electronics Co., Ltd. Image decoding method for performing intra prediction and device thereof, and image encoding method for performing intra prediction and device thereof
EP3244617A1 (en) * 2016-05-13 2017-11-15 Thomson Licensing A method and device for deblocking filtering a boundary within an intra predicted block
CN116634145A (zh) * 2016-08-08 2023-08-22 Lg电子株式会社 视频解码方法、视频信号编码方法及其介质
AU2017397390B2 (en) * 2017-01-31 2022-07-14 FG Innovation Company Limited Systems and methods for scaling transform coefficient level values
US11509889B2 (en) * 2018-06-27 2022-11-22 Kt Corporation Method and apparatus for processing video signal
US10284844B1 (en) * 2018-07-02 2019-05-07 Tencent America LLC Method and apparatus for video coding
KR102634068B1 (ko) * 2018-08-24 2024-02-05 지티이 코포레이션 시각 미디어 인코딩 및 디코딩을 위한 평면 예측 모드

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS, ET AL.: "Versatile Video Coding (Draft 6)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-O2001-vD, JPN6022054187, 13 July 2019 (2019-07-13), pages 62 - 66, ISSN: 0004951093 *
BROSS, BENJAMIN ET AL.: "Versatile Video Coding (Draft 3)", JVET-L1001 (VERSION 13), JPN6023029701, 8 January 2019 (2019-01-08), pages 87, ISSN: 0005111854 *
DE-LUXAN-HERNANDEZ, SANTIAGO ET AL.: "CE3: Intra Sub-Partitions Coding Mode (Tests 1.1.1 and 1.1.2)", JVET-M0102 (VERSION 7), JPN6023029699, 17 January 2019 (2019-01-17), pages 1 - 9, XP030202391, ISSN: 0005111856 *
SARWER, MOHAMMED GOLAM ET AL.: "CE3.2.5: Generation of Right-Column and Bottom-Row Predictors for Planar Mode", JVET-L0084 (VERSION 2), JPN6023029700, 2 October 2018 (2018-10-02), pages 1 - 4, ISSN: 0005111855 *
TSUNG-CHUAN MA, ET AL.: "Non-CE3: Intra Sub-Partitions Coding without Thin Partitions", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-N0330, JPN6022054186, 23 March 2019 (2019-03-23), ISSN: 0004951094 *

Also Published As

Publication number Publication date
ES2946487T3 (es) 2023-07-19
CN114900702A (zh) 2022-08-12
CA3155442A1 (en) 2021-04-01
US20220014784A1 (en) 2022-01-13
WO2021057755A1 (en) 2021-04-01
EP4236313A3 (en) 2023-09-13
AU2020352269A1 (en) 2022-04-14
EP3932064A4 (en) 2022-08-10
MX2021012982A (es) 2021-12-10
EP3932064A1 (en) 2022-01-05
BR112022005441A2 (pt) 2022-10-11
EP4236313A2 (en) 2023-08-30
CN114402606A (zh) 2022-04-26
PT3932064T (pt) 2023-06-05
US20220337870A1 (en) 2022-10-20
HUE062044T2 (hu) 2023-09-28
US11616980B2 (en) 2023-03-28
KR20210129180A (ko) 2021-10-27
PL3932064T3 (pl) 2023-07-17
EP3932064B1 (en) 2023-05-03
CN114900702B (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
JP7401556B2 (ja) イントラ予測のためのエンコーダ、デコーダおよび対応する方法
JP2021533644A (ja) ルーマおよびクロマ成分についてibc専用バッファおよびデフォルト値リフレッシュを使用するエンコーダ、デコーダおよび対応する方法
JP2022529763A (ja) エンコーダ、デコーダ、および対応するイントラ予測方法
US11388422B2 (en) Encoder, a decoder and corresponding methods related to intra prediction mode
JP2022529030A (ja) 行列ベースのイントラ予測と二次変換コア選択を調和させるエンコーダ、デコーダ、および対応する方法
JP7391991B2 (ja) イントラ平滑化のための方法および装置
JP7372465B2 (ja) シーケンスパラメータセット内でのサブピクチャのシグナリングのためのエンコーダ、デコーダ、および対応する方法
JP7436646B2 (ja) ピクチャヘッダのシグナリングを簡略化するためのエンコーダ、デコーダ及び対応する方法
KR20210129729A (ko) 인트라-예측을 위한 방법 및 장치
JP7397878B2 (ja) イントラ・サブ・パーティション・コーディング・モードのための方法及び装置
KR20220032625A (ko) 크로마 인트라 모드 도출 인코더, 디코더 및 대응하는 방법
KR20210094057A (ko) 비디오 코딩에서 크로마 인트라 예측을 위한 방법 및 장치
KR20210145824A (ko) 제산 없는 인트라 예측을 위한 방법 및 장치
WO2021025597A1 (en) Method and apparatus of sample adaptive offset in-loop filter with application region size constraint
US11616980B2 (en) Encoder, a decoder and corresponding methods of complexity reduction on intra prediction for the planar mode
RU2803063C2 (ru) Кодер, декодер и соответствующие способы, которые используются для процесса преобразования
RU2817389C2 (ru) Кодер, декодер и соответствующие способы получения внутрикадрового режима цветности

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240528