JP2019146218A - コンポーネント間予測 - Google Patents

コンポーネント間予測 Download PDF

Info

Publication number
JP2019146218A
JP2019146218A JP2019071011A JP2019071011A JP2019146218A JP 2019146218 A JP2019146218 A JP 2019146218A JP 2019071011 A JP2019071011 A JP 2019071011A JP 2019071011 A JP2019071011 A JP 2019071011A JP 2019146218 A JP2019146218 A JP 2019146218A
Authority
JP
Japan
Prior art keywords
component
decoder
prediction
signal
component signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019071011A
Other languages
English (en)
Other versions
JP6962576B2 (ja
Inventor
トゥン グエン
Nguyen Tung
トゥン グエン
アブデルハミド アリ アテフ イブラヒム ハイラト
Atef Ibrahim Khairat Abdelhamid Ali
アブデルハミド アリ アテフ イブラヒム ハイラト
デトレフ マルペ
Detlev Marpe
デトレフ マルペ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Video Compression LLC
Original Assignee
GE Video Compression LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Video Compression LLC filed Critical GE Video Compression LLC
Publication of JP2019146218A publication Critical patent/JP2019146218A/ja
Priority to JP2021165187A priority Critical patent/JP2022008930A/ja
Application granted granted Critical
Publication of JP6962576B2 publication Critical patent/JP6962576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

【課題】マルチコンポーネント画像コンテンツのより広い範囲にわたって増加された符号化効率を約束する。【解決手段】再構成された第1のコンポーネント信号の空間的に対応する部分および第2のコンポーネントのためにデータストリームから導き出される訂正信号からマルチコンポーネント画像の第2のコンポーネントに関する第2のコンポーネント信号を再構成する。第2のコンポーネント信号の再構成に、再構成された第1のコンポーネント信号の空間的に対応する部分を含むことによって、おそらく演繹的に実行されたコンポーネント空間変換にもかかわらず存在し、または、そのような演繹的に実行されたコンポーネント空間変換によって導入されているために存在する、いかなる残りのコンポーネント間冗長性/相関も、例えば、第2のコンポーネント信号のコンポーネント間冗長性/相関低減によって直ちに除去され得る。【選択図】図2

Description

本願は、例えばルマおよびクロマ間のようにマルチコンポーネント画像符号化におけるコンポーネント間予測に関する。
画像およびビデオ信号処理において、色情報は、典型的にR´G´B´またはY´CbCrのような3つのコンポーネントからなる色空間において主に表される。Y´CbCrの場合における最初のコンポーネントY´は、しばしばルマと呼ばれ、さらに、残りの2つのコンポーネント、Y´CbCrの場合におけるCbおよびCrコンポーネントまたは平面は、クロマと呼ばれる。R´G´B´色空間よりもY´CbCr色空間の利点は、主にクロマコンポーネントの残差特性であり、すなわち、クロマコンポーネントは、R´G´B´のような絶対色空間のクロマ信号と比較してより少ないエネルギーまたは振幅を含む。特にY´CbCrのために、ルマコンポーネントは、画像またはビデオのグレースケール情報を意味し、さらに、クロマコンポーネントCbは、青原色と比べて相違を意味し、クロマコンポーネントCrは、赤原色と比べて相違を示す。
画像およびビデオの圧縮および処理のアプリケーション空間において、Y´CbCr信号は、R´G´B´からY´CbCrへの色空間変換が異なるカラーコンポーネントまたは平面間の相関を低減しまたは除去するという事実のために、R´G´B´よりも好ましい。相関除去に加えて、送信しなければならない情報がより少なく、したがって、色変換は、圧縮アプローチとしても働く。相関除去または低減におけるそのような前処理は、例として意味のある量で複雑さを維持しまたは増加する間により高い圧縮効率をイネーブルにする。ハイブリッドビデオ圧縮スキームは、異なるカラーコンポーネント間の相関が除去されまたは低減されるので、しばしばY´CbCr入力のために設計され、さらに、ハイブリッド圧縮スキームの設計は、異なるコンポーネントの別々の処理を考慮するだけでよい。しかしながら、R´G´B´からY´CbCrへの変換およびその逆は、ロスレスでなく、したがって、情報、すなわち、オリジナルの色空間において利用できるサンプル値は、そのような色変換の後に損失される可能性がある。この問題は、オリジナルの色空間からのおよびオリジナルの色空間、例えばR´G´B´入力を有するときにY´CoCg色空間へのロスレス変換を含む色空間を用いることによって回避することができる。それにもかかわらず、固定された色空間変換は、アプリケーションに応じて次善の結果をもたらす可能性がある。画像およびビデオ圧縮のために、固定された色変換は、より高いビットレートと高いかまたは色平面間の相関がない非自然信号とのためにしばしば次善になる。第2の場合において、固定された変換は、異なる信号間の相関を導入し、さらに、第1の場合において、固定された変換は、異なる信号間の全ての相関を除去しない可能性がある。さらに、変換のグローバルなアプリケーションのために、相関は、局所的にまたはグローバルにさえ、異なるコンポーネントまたは平面から完全に除去されない可能性がある。色空間変換によって導入される別の問題は、画像またはビデオエンコーダのアーキテクチャにある。通常、最適化プロセスは、コスト関数を低減しようとし、それは、しばしば、入力色空間にわたって定義される距離メトリックである。変換された入力信号の場合において、付加的な処理ステップのためにオリジナルの入力信号のための最適結果を達成することが困難となり得る。その結果、最適化プロセスは、オリジナルの入力信号のためでないが変換された信号のための最小コストをもたらす可能性がある。変換がしばしば線形であるにもかかわらず、最適化プロセスにおけるコスト計算は、しばしばシグナリングオーバーヘッドを含み、さらに、最終的な決定のためのコストは、それからラグランジュ公式によって計算される。後者は、異なるコスト値および異なる最適化決定をもたらす可能性がある。色変換態様は、現代の画像およびビデオディスプレイが通常コンテンツ表現のためのR´G´B´色合成を用いるように、色表現の領域において特に重要である。一般的に言えば、変換は、信号内のまたは信号間の相関が除去されまたは低減されるべきであるときに適用される。結果として、色空間変換は、より一般的な変換アプローチの特別な場合である。
したがって、さらに効率的である、すなわち、マルチコンポーネント画像コンテンツのより広い範囲にわたってより高いビットレートを達成する、マルチコンポーネント画像符号化概念を手元に有することが好ましい。
したがって、本発明の目的は、そのようなより高い効率のマルチコンポーネント画像符号化概念を提供することである。
この目的は、係属中の独立請求項の主題によって達成される。本発明は、再構成された第1のコンポーネント信号の空間的に対応する部分および第2のコンポーネントのためにデータストリームから導き出される訂正信号からマルチコンポーネント画像の第2のコンポーネントに関連する第2のコンポーネント信号を再構成することがマルチコンポーネント画像コンテンツのより広い範囲にわたって増加された符号化効率を約束するという知見に基づく。第2のコンポーネント信号の再構成に再構成された第1のコンポーネント信号の空間的に対応する部分を含むことによって、いかなる残りのコンポーネント間冗長性/相関も、おそらく演繹的に実行されたコンポーネント空間変換にもかかわらずまだ存在するように存在し、または、そのような演繹的に実行されたコンポーネント空間変換によって導入されているために存在し、例えば、第2のコンポーネント信号のコンポーネント間冗長性/相関低減によって直ちに除去され得る。
本願の実施形態によれば、マルチコンポーネント画像コーデックは、コードブロック、予測ブロック、残差ブロックおよび変換ブロックの単位で動作するブロックベースのハイブリッドビデオコーデックとして解釈され、さらに、コンポーネント間依存は、データストリームにおいてそれぞれのシグナリングによって残差ブロックおよび/または変換ブロックの粒度でオンおよびオフに切り替えられる。シグナリングを費やすための付加的なオーバーヘッドは、コンポーネント間冗長性の量が画像内で変化することができるように、符号化効率ゲインによって過度に補償される。本願の実施形態によれば、第1のコンポーネント信号は、マルチコンポーネント画像の第1のコンポーネントの時間、空間またはビュー間予測の予測残差であり、さらに、第2のコンポーネント信号は、マルチコンポーネント画像の第2のコンポーネントの時間、空間またはビュー間予測の予測残差である。この方策によって、利用されるコンポーネント間依存は、コンポーネント間予測がより滑らかな空間挙動を示す傾向があるように、残りのコンポーネント間冗長性に焦点を置く。
実施形態によれば、以下に示されたα、再構成された第1のコンポーネント信号の空間的に対応する部分が第2のコンポーネント信号の再構成に影響する第1の重みが、サブピクチャ粒度で適応的に設定される。この方策によって、コンポーネント間冗長性におけるイントラ画像変化が、より密接に続くことができる。実施形態によれば、ハイレベルの構文要素構造およびサブピクチャ粒度の第1の重み構文要素の混合物が、サブピクチャ粒度で第1の重みをシグナリングするために用いられ、ハイレベルの構文要素構造は、第1の重み構文要素の所定の2値化の可能なビン列の領域セットから第1の重みの可能な値の共同領域へのマッピングを定義する。この方策によって、第1の重みを制御するためのサイド情報のためのオーバーヘッドは、低く保たれる。適応は、前方適応的に行われ得る。構文要素は、例えば残差または変換ブロックのようなブロックごとに用いられ得り、それは、ゼロの周辺に対称的に分布されるαために多数の重み値のうちの1つに対称的にインデックスを付ける限られた数のシグナリング可能な状態を有する。1つの実施形態において、シグナリング可能な状態の数は、ゼロを含む重み値の数と等しくなく、ゼロのシグナリングは、余分のフラグが廃止となるように、コンポーネント間予測の不使用をシグナリングするために用いられる。さらに、大きさは、条件付きでシグナリングされた符号の前にシグナリングされ、大きさは、重み値の数にマッピングされ、さらに、大きさがゼロである場合に、符号は、シグナリング化コストがさらに低減されるように、シグナリングされない。
実施形態によれば、訂正信号が第2のコンポーネント信号の再構成に影響する第2の重みが、第1の重みの適応設定に加えてまたはその代わりに、サブピクチャ粒度で設定される。この方策によって、コンポーネント間冗長性低減の適応性は、さらに増加され得る。換言すれば、実施形態によれば、第2のコンポーネント信号を再構成する際に、訂正信号および再構成された第1のコンポーネント信号の空間的に対応する部分の重み付けされた合計の重みは、サブピクチャ粒度で設定され得る。重み付けされた合計は、少なくとも画像ごとに、定数であるスカラー関数のスカラー引数として用いられ得る。重みは、局所近傍に基づいて後方駆動方法で設定され得る。重みは、前方駆動方法で訂正され得る。
実施形態によれば、訂正信号を用いる再構成された第1のコンポーネント信号の空間的に対応する部分からの第2のコンポーネント信号の再構成が実行される領域は、空間領域である。代わりに、スペクトル領域が用いられる。さらに代わりに、用いられる領域は、空間およびスペクトル領域間で変えられる。切り替えは、サブピクチャ粒度で実行される。再構成された第1のコンポーネント信号および訂正信号の結合が起こる領域をサブピクチャ粒度で切り替える能力が、符号化効率を増加することが判明した。切り替えを実行することは、後方適応方法でまたは前方適応方法で行われ得る。
実施形態によれば、データストリームにおける構文要素は、マルチコンポーネント画像のコンポーネント内で第1および第2のコンポーネント信号の役割を変えることをイネーブルにするために用いられる。構文要素をシグナリングするための付加的なオーバーヘッドは、符号化効率において可能なゲインと比較して低い。
実施形態によれば、第2のコンポーネント信号の再構成は、再構成の第1のコンポーネント信号だけに基づく再構成と、再構成された第1のコンポーネント信号およびマルチコンポーネント画像のさらなるコンポーネントのさらなる再構成されたコンポーネント信号に基づく再構成との間で、サブピクチャ粒度で、切り替えることができる。比較的低い付加的な労力で、この可能性は、マルチコンポーネント画像のコンポーネント間の残差冗長性を除去する際に柔軟性を増加する。
同様に、実施形態によれば、データストリームにおける第1の構文要素は、再構成された第1のコンポーネント信号に基づいて第2のコンポーネント信号の再構成を、グローバルにまたは増加されたスコープレベルで、イネーブルにしまたはディセーブルにするために用いられる。イネーブルにされる場合に、データストリームにおけるサブピクチャレベルの構文要素は、サブピクチャ粒度で再構成された第1のコンポーネント信号に基づいて第2のコンポーネント信号の再構成を適応するために用いられる。この方策によって、サブピクチャレベルの構文要素のためにサイド情報を費やすことが、イネーブルメントが符号化効率ゲインをもたらす、アプリケーションの場合またはマルチコンポーネント画像コンテンツにおいて単に必要なだけである。
代わりに、イネーブルメントおよびディセーブルメント間の切り替えは、後方駆動方法で局所的に実行される。この場合において、第1の構文要素は、データストリームにおいて存在する必要すらない。実施形態によれば、例えば、局所切り替えは、第1および第2のコンポーネント信号が、一致しまたは所定の量よりも多くずれていない空間予測のイントラ予測モードで空間予測の予測残差であるかどうかのチェックに応じて局所的に実行される。この方策によって、イネーブルメントおよびディセーブルメント間の局所切り替えは、ビットレートを消費しない。
実施形態によれば、データストリームにおける第2の構文要素は、データストリームにおいてサブピクチャレベルの構文要素を前方適応的に用いてサブピクチャ粒度で再構成された第1のコンポーネント信号に基づいて第2のコンポーネント信号の適応再構成と、再構成された第1のコンポーネント信号に基づいて第2のコンポーネント信号の再構成を非適応的に実行することとの間で切り替えるために用いられる。第2の構文要素のためのシグナリングオーバーヘッドは、再構成を非適応的に実行することがすでに十分に効率的であるマルチコンポーネント画像コンテンツのためのサブピクチャレベルの構文要素を送信するためのオーバーヘッドを回避する可能性と比較して低い。
実施形態によれば、コンポーネント間冗長性低減の概念は、3つのクロマコンポーネント画像に移行される。実施形態によれば、ルマおよび2つのクロマコンポーネントが用いられる。ルマコンポーネントは、第1のコンポーネントとして選択され得る。
実施形態によれば、再構成された第1のコンポーネント信号からの第2のコンポーネント信号の再構成を適応するためのサブピクチャレベルの構文要素は、ゴロムライスコードを用いてデータストリーム内で符号化される。ゴロムライスコードのビンは、バイナリ算術符号化にかけられ得る。異なるコンテキストは、ゴロムライスコードの異なるビン位置のために用いられ得る。
実施形態によれば、再構成された第1のコンポーネント信号からの第2のコンポーネント信号の再構成は、再構成された第1のコンポーネント信号の空間的に対応する部分を空間再スケーリングすることおよび/またはそれにビット深度精密マッピングすることを含む。空間再スケーリングおよび/またはビット深度精密マッピングの実行の適応は、後方および/または前方適応方法で実行され得る。空間再スケーリングの適応は、空間フィルタの選択を含むことができる。ビット深度精密マッピングの実行の適応は、マッピング関数の選択を含むことができる。
実施形態によれば、再構成された第1のコンポーネント信号からの第2のコンポーネント信号の再構成は、再構成された第1のコンポーネント信号の空間的にローパスフィルタリングされたバージョンを介して間接的に行われる。
本願の実施形態の有利な実施は、従属請求項の対象である。
本願の好適な実施形態が、図に関して以下に記載される。
図1は、実施形態によるマルチコンポーネント画像を符号化するように構成されるエンコーダのブロック図を示す。 図2は、実施形態による図1のエンコーダに適合するデコーダのブロック図を示す。 図3は、画像および実施形態による異なるタイプのさまざまなブロックへのその再分割/分割を概略的に示す。 図4は、本願の実施形態による、図1および図2のエンコーダおよびデコーダに組み込まれる、再構成モジュールを概略的に示す。 図5は、2つのコンポーネントを有する画像、現在コンポーネント間予測されたブロックおよび第1の(ベース)コンポーネント内の空間的に対応する部分を概略的に示す。 図6は、1つのコンポーネントが常に実施形態によるベース(第1の)コンポーネントとして働く実施形態を示すために3つのコンポーネントを有する画像を概略的に示す。 図7は、コンポーネントのそれぞれが、交互に、実施形態による第1の(ベース)コンポーネントとして働くことができる3つのコンポーネントを有する画像を概略的に示す。 図8は、コンポーネント間予測のための領域が適応的に変えられる可能性を概略的に示す。 図9aは、コンポーネント間予測パラメータをシグナリングする可能性を概略的に示す。 図9bは、図9aの実施形態をさらに詳細に示す。 図9cは、説明のために図9aおよび図9bが関するコンポーネント間予測パラメータのアプリケーションを概略的に示す。 図10は、実施形態による前方適応コンポーネント間予測を概略的に示す。
以下の繰越説明は、エンコーダの詳細な実施形態の説明およびエンコーダに適合するデコーダの詳細な実施形態の説明から始め、後に一般化された実施形態が示される。
図1は、マルチコンポーネント画像102をデータストリーム104に符号化するように構成されるエンコーダ100を示す。図1は、3つのコンポーネント106、108および110を含むマルチコンポーネント画像102の場合を例示的に示すが、以下の繰越説明は、本願の有利な実施形態が現在の3つのコンポーネント画像例を例えばコンポーネント106および108のように単に2つのコンポーネントだけが存在する例に移行することによって図1の説明から容易に導き出され得ることを明らかにする。したがって、図1に示されるエンコーダ100の要素のいくつかは、点線を用いて示され、さらに、その範囲においてさらに以下に記載されるようにより一般化された実施形態に関して任意の特徴である。
原則として、図1のエンコーダおよび以下に記載される実施形態の全ては、いかなるタイプの「コンポーネント」でも動作することができる。実際には、マルチコンポーネント画像102は、例えば、タイムスタンプ、ビュー条件などに関して、他の一致する条件で空間的にさまざまなコンポーネント106、108および110に関してシーンをサンプリングするシーンの画像である。しかしながら、以下にさらに記載される実施形態の理解を容易にするために、コンポーネント106、108および110は、全てテクスチャに関し、さらに、例えば、ルマおよびクロマコンポーネントようなカラーコンポーネントまたは他のいかなる色空間のカラーコンポーネントであると仮定される。
しかしながら、図1のエンコーダは、別々にではあるがコンポーネント間冗長性を低減するためにコンポーネント間予測を用いて、画像102のコンポーネント106、108および110のそれぞれにブロックベースのハイブリッドビデオ符号化を適用するように実質的に構成される。コンポーネント間予測は、以下にさらに詳細に概説されるようなさまざまな態様に関する。
したがって、エンコーダ100は、コンポーネント106、108および110ごとに、それぞれのコンポーネント106、108および110がそれぞれ到着する入力と、データストリーム104に、以下にさらに詳細に記載される量子化係数および他の符号化パラメータを多重送信するように構成されるデータストリーム形成器118のそれぞれの入力との間にそれらの記載の順に、直列に接続される、一連の減算器としてここに例示的に実施される予測残差形成器112、変換器114および量子化器116を含む。予測残差形成器112の非反転入力は、画像102のそれぞれのコンポーネントを受信するために配置されるとともに、その反転(減数)入力は、予測器122から予測信号120を受信し、その入力は、一連の逆量子化器124、再変換器126および加算器としてここに例示的に実施される予測/残差結合器128を含む再構成経路を介して量子化器116の出力に接続される。予測/残差再結合器126の出力は、予測器122の入力に接続されるとともに、さらに、第1の入力は、再変換器126の出力に接続され、そのさらなる入力は、予測器122によって出力される予測信号120を受信する。
要素112、114、116、124、126、128、122および120は、3つの別々のブロックベースのハイブリッドビデオ符号化経路1301、1302および1303を形成するために、コンポーネント106〜110のそれぞれのために並列にエンコーダ100内に存在する。インデックス1、2および3は、コンポーネント106に関連するインデックス1、コンポーネント108に関連するインデックス2およびコンポーネント110に関連するインデックス3を有する画像102の異なるコンポーネント間を区別するために用いられる。
図1に示される例において、コンポーネント106は、以下の繰越説明からより明らかになるように、一種の「ベースコンポーネント」を表す。しかしながら、説明されさらに図1に示される構成が以下にさらに詳細に記載される本願の実施形態の原理を単により容易に理解するためだけに選択されているという点で、コンポーネント106〜110間の役割が等しくされ得るということは、留意すべきであり、さらに、以下にさらに詳細に記載される。いずれの場合でも、今までに記載されている経路1301〜1303の要素112、114、116、124、126、128、122および120を区別するために、インデックスが、これらの要素に関しても用いられる。
上述の留意から明らかになるように、図1の例において、コンポーネント108および110は、「従属コンポーネント」を表し、さらにこのために、経路1301〜1303を符号化するためにすでに述べられているそれらに加えてさらなる要素は、これらのすでに述べられた要素間に接続される。特に、空間領域コンポーネント間予測残差形成器132は、その非反転入力およびその出力によって、一方では予測残差形成器112と他方では変換器114の入力との間に接続され、さらに同様に、空間領域コンポーネント間予測および残差再結合器134は、一方では再変換器126と他方では予測/残差再結合器128との間に接続される。図1は、一方では逆量子化器124と他方では再変換器126との間に接続される対応するスペクトル領域コンポーネント間予測/残差再結合器138とともに、その非反転入力およびその出力によって、変換器114および量子化器116間に位置されるようなスペクトル領域コンポーネント間予測残差形成器136も示す。空間領域コンポーネント間予測形成器132および対応する再結合器134のペアは、そのさらなる入力で、それぞれの空間領域コンポーネント間残差予測器140によって供給され、さらに同様に、スペクトル領域ビュー間予測形成器136のさらなる入力は、その関連した再結合器138とともに、スペクトル領域コンポーネント間残差予測器144によって提供されるスペクトル領域残差予測信号142で供給される。その入力インタフェースで、予測器140および144は、それぞれの前の符号化経路のいずれかの内部ノードと接続される。例えば、予測器1402は、予測残差形成器1121の出力に接続され、さらに、予測器1442は、逆量子化器1241の出力に接続される入力を有する。同様に、予測器1403および1443は、それぞれ、予測残差形成器1122および逆量子化器1242の出力に接続される入力を有するが、加えて、予測器1403のさらなる入力は、予測残差形成器1121の出力に接続されるように示され、さらに、予測器1443のさらなる入力は、逆量子化器1241の出力に接続されるように示される。予測器140および144は、それによって実行されるコンポーネント間予測の前方適応制御を実施するための予測パラメータを任意に生成するように示され、予測器140によって出力されるパラメータは、146によって示され、さらに、予測器144によって出力されるパラメータは、参照符号148によって示される。量子化器116によって出力される残差信号150が行うのと同じように、予測器140および144の予測パラメータ146および148は、例えば、データストリーム104にこのデータの全てをロスレスの方法で符号化する、データストリーム形成器118によって受信される。
以下にさらに詳細に図1のエンコーダの動作モードを記載する前に、対応するデコーダを示す図2を参照する。実質的に、デコーダ200は、コンポーネントごとに、逆量子化器124から予測器122まで広がるエンコーダ100の部分に対応し、それに応じて、同じ参照符号が、100だけ増加されるが、これらの対応する要素に関して用いられる。より正確には、図2のデコーダ200は、データストリーム104から残差信号150〜150と予測パラメータ146および148を含む全ての関連した符号化パラメータとを抽出するように構成される、デコーダ200のデータストリーム抽出器218の入力でデータストリーム104を受信するように構成される。図1のエンコーダ100に対応して、図2のデコーダ200は、マルチコンポーネント画像のコンポーネントごとに1つの経路を有する、並列の復号化経路230に構成され、その再構成は、参照符号202を用いて示され、さらに、その再構成されたコンポーネントは、206、208および210としてそれぞれの復号化経路の出力で出力される。量子化のために、再構成は、オリジナルの画像102からずれる。
すでに上述のように、デコーダ200のデコーダ経路2301〜2303は、その要素124、138、126、134、128および122を含む、エンコーダ100の符号化経路1301〜1303のそれらの経路に実質的に対応する。すなわち、「従属コンポーネント」208および210の復号化経路2302および2303は、一方ではデータストリーム抽出器218のそれぞれの出力とそれぞれのコンポーネント208および210を出力するためのそれぞれの出力との間に、それぞれ、それらの記載の順に、一方ではデータストリーム抽出器218と他方ではマルチコンポーネント画像202を出力するためのデコーダ200の出力との間に接続される、逆量子化器224、スペクトル領域コンポーネント間予測/残差再結合器238、逆変換器226、空間領域コンポーネント間予測/残差再結合器234および予測/残差再結合器228の直列接続を含み、予測器222は、予測/残差再結合器228からその別の入力に戻るフィードバックループに接続される。238および234のさらなる入力は、それぞれの空間領域およびスペクトル領域コンポーネント間予測器240および244によって供給される。「ベースコンポーネント」206の復号化経路2301は、要素238、234、244および240が存在しないという点で異なる。予測器2443は、逆量子化器2242の出力に接続されるその入力と逆量子化器2241の出力に接続される別の出力とを有し、予測器2403は、逆変換器2262の出力に接続される第1の入力と逆変換器2261の出力に接続される別の入力とを有する。予測器2442は、逆量子化器2241の出力に接続される入力を有し、さらに、予測器2402は、逆変換器2261に接続されるその入力を有する。
図1の予測器1403および1402は、単により簡単な説明のためだけに空間領域において下にあるコンポーネントのまだ量子化されていない残差信号に接続されるように示されているが、図2から明らかになるように、エンコーダおよびデコーダ間の予測矛盾を回避するために、図1の予測器1402および1403は、それぞれ、下にあるコンポーネントのスペクトル領域残差信号の非量子化のバージョンの代わりに、逆変換器1262および1261の出力に選択的にかつ有利に接続され得ることに留意すべきである。
エンコーダ100およびデコーダ200の両方の構造を記載した後に、それらの動作モードが以下に記載される。特に、すでに上述のように、エンコーダ100およびデコーダ200は、マルチコンポーネント画像のそれぞれのコンポーネントを符号化/復号化するためにハイブリッド符号化を用いるように構成される。実際に、マルチコンポーネント画像102のそれぞれコンポーネントは、サンプルアレイまたは画像を表し、それぞれは、異なるカラーコンポーネントに関して同じシーンを空間的にサンプリングする。コンポーネント106、108および110の空間分解能、すなわちシーンがそれぞれのコンポーネントに関してサンプリングされるスペクトル分解能は、コンポーネントによって異なることができる。
上述のように、マルチコンポーネント画像102のコンポーネントは、ハイブリッド符号化/復号化に別々にかけられる。「別々に」とは、コンポーネントの符号化/復号化が完全に互いに独立して実行されることを必ずしも意味するというわけではない。まず第1に、コンポーネント間予測は、コンポーネント間の冗長性を除去し、さらに加えて、いくつかの符号化パラメータは、コンポーネントのために共通に選択され得る。図3において、例えば、予測器122および222が符号化ブロックへの画像102の同じ再分割を選択すると仮定されるが、予測器122および222による符号化ブロックへの画像102のコンポーネント個々の再分割は、同様に可能である。符号化ブロックへの画像102の再分割は、固定され得りまたはデータストリーム104内でシグナリングされ得る。後者の場合において、再分割情報は、データストリーム形成器118に予測器122によって出力され、さらに、参照符号154を用いて示される予測パラメータの部分であってもよく、データストリーム抽出器218は、再分割情報を含むこれらの予測パラメータを抽出し、さらに、それを予測器222に出力する。
図3は、符号化ブロックまたはコードブロックへの画像102の再分割が2つのステージプロセスに従って行われ得ることを例示的に示し、それによれば、マルチコンポーネント画像102は、最初にツリールートブロックに規則的に再分割され、そのアウトラインは、図3に2重線300を用いて示され、その後にそれぞれのツリールートブロック302をコードブロック304に再分割するために再帰的なマルチツリー再分割を適用し、そのアウトライン306は、図3に単純な実線306を用いて示される。このように、コードブロック304は、それぞれのツリールートブロック302の再帰的なマルチツリー再分割のリーフブロックを表す。共通にコンポーネントのためにまたは個々にコンポーネントのために、おそらくデータストリーム104内に含まれる上述した再分割情報は、それぞれのツリールートブロック302の再分割をコードブロック304にシグナリングするためのツリールートブロック302ごとにマルチツリー再分割情報を含み、さらに、行および列においてツリールートブロック302の規則的な配列への画像102の再分割を制御しさらにシグナリングする再分割情報を任意に含むことができる。
コードブロック304を単位にして、例えば、予測器122および222は、それぞれ、エンコーダ100およびデコーダ200によってサポートされる複数の予測モード間を変化する。例えば、予測器1221〜1223は、個々にコードブロックのための予測モードを選択し、さらに、その選択を予測パラメータ1541〜1543を介して予測器2223に示す。利用できる予測モードは、時間および空間予測モードを含むことができる。他の予測モードは、例えばビュー間予測モードなどと同様にサポートされ得る。例えばデュアルツリー再分割のような再帰的なマルチツリー再分割を用いて、コードブロックは、予測ブロック308にさらに再分割され得り、そのアウトライン310は、図3に点線を用いて示される。それぞれの再帰的な再分割情報は、コードブロックごとに予測パラメータ1541〜1543に含まれ得る。代わりの実施形態において、予測モードのこの選択は、予測ブロックの粒度で実行される。同様に、それぞれのコードブロック304は、例えばデュアルツリー再分割のような再帰的なマルチツリー再分割を用いて、残差ブロック312にさらに再分割され得り、そのアウトラインは、図3に1点鎖線314を用いて示される。このように、それぞれのコードブロック304は、並行して、予測ブロック308および残差ブロック312に分割される。残差ブロック312は、任意に、変換ブロック316にさらに再分割され得り、そのアウトラインは、図3に2点鎖線318を用いて示される。代わりに、変換および残差ブロックは、同じエンティティを形成し、すなわち、残差ブロックは、変換ブロックおよびその逆である。換言すれば、残差ブロックは、代わりの実施形態による変換ブロックと一致することができる。残差ブロックおよび/または変換ブロック関連の再分割情報は、予測パラメータ154内に含まれてもよくまたは含まれなくてもよい。
それぞれのコードブロックまたは予測ブロックに関連する予測モードに応じて、それぞれの予測ブロック308は、予測器1221〜1223によって適切に選択され、したがってパラメータ情報1541〜1543に挿入されさらにそれぞれの予測ブロック308内で予測を制御するために予測器2221〜2223によって用いられる、それに関連するそれぞれの予測パラメータを有する。例えば、それに関連する時間予測モードを有する予測ブロック308は、それに関連する運動補償予測のための運動ベクトルと、任意に、それから参照画像を示す参照画像インデックスとを有することができ、運動ベクトルによって示される変位によって、それぞれの予測ブロック308の予測が導き出され/コピーされる。空間予測モードの予測ブロック308は、予測情報1511〜1543内に含まれる、それに関連する空間予測方向を有することができ、後者は、それぞれの予測ブロックのすでに再構成された周囲がそれぞれの予測ブロックに空間的に外挿される方向を示す。
このように、予測モードおよび予測パラメータを用いて、予測器122および222は、コンポーネントのそれぞれのために予測信号1201〜1203を導き出し、さらに、コンポーネントのそれぞれのために、この予測信号は、残差信号1561〜1563を用いて訂正される。これらの残差信号は、変換符号化を用いて符号化される。すなわち、変換器1141〜1143は、例えばDCT、DSTなどのような変換すなわちスペクトル分解を、個々にそれぞれの変換ブロック116に実行し、さらに、逆変換器226は、それを変換ブロック308のために個々に逆にし、すなわち、例えばIDCTまたはIDSTを実行する。すなわち、エンコーダ100に関する限り、変換器114は、予測残差形成器112によって形成されるように、まだ量子化されていない残差信号に変換を実行する。逆変換器126および226は、それぞれのコンポーネントの量子化された残差信号150に基づいてスペクトル分解を逆にし、それは、例えばハフマンまたは算術符号化を用いるように、ロスレスの方法で、データストリーム形成器118によってデータストリームに挿入され、さらに、データストリーム抽出器218によって、例えば、ハフマンまたは算術復号化を用いて、それから抽出される。
しかしながら、それを用いて予測信号2201〜2203が予測/残差再結合器2281〜2283で訂正される残差信号2561〜2563を符号化するためのデータレートをより低くするために、エンコーダ100および200は、コンポーネントの残差信号の符号化に関してコンポーネント間予測をサポートする。以下にさらに詳細に記載されるように、本願の実施形態によれば、残差信号を符号化するためのコンポーネント間予測は、残差ブロックおよび/または変換ブロックの粒度で、オン/オフに切り替えられおよび/または前方および/または後方適応的に調整され得る。オフに切り替えられる場合に、予測器140、144、240および244によって出力されるコンポーネント間予測信号は、ゼロであり、さらに、全てのコンポーネントの残差信号2561〜2563は、単にそのそれぞれの残差信号1501および1503に含まれる量子化された変換係数から導き出される。しかしながら、オンに切り替えられる場合に、コンポーネント間冗長性/相関は、従属コンポーネントに関する限り除去され、すなわち、残差信号2562および2563は、コンポーネント間予測を用いて符号化/復号化される。コンポーネント間予測ソースとして働くベース(第1の)コンポーネントは、コンポーネント間予測に関する限り、不変のまま残される。これが行われる方法が、以下に概説される。
当分の間、予測器140、144、240および244によって実現されるコンポーネント間冗長性低減の説明は、それぞれ、コンポーネント106、108、206および208間のコンポーネント間冗長性低減に焦点を置く。その後、理解を容易にするために、説明は、図1および図2に示される3つのコンポーネントの場合まで広げられる。
以下の繰越説明から明らかになるように、以下に概説される実施形態は、特に絶対クロマコンポーネントまたは平面が入力として働く場合において、例えば、クロマコンポーネントの残差特性化を利用する。例えば、ルマ/クロマ色空間のコンポーネントを表す、図1および図2の3つのコンポーネントの場合において、コンポーネント106/206は、例えばルマコンポーネントであってもよく、一方、コンポーネント108/208および110/210は、例えば青および赤関連のクロマコンポーネントのようなクロマコンポーネントである。オリジナルの入力空間にわたって定義されるひずみ計算を保つことによって、以下に概説される実施形態は、より高い忠実度をイネーブルにする。換言すれば、図2のデコーダとともに図1のエンコーダは、それが例えば前もって実行されているいかなる色空間変換もないように、オリジナルのマルチコンポーネント画像を入力することをイネーブルにする。図1および図2の実施形態によって達成可能な符号化効率は、入力色空間から独立し、すなわち、コンポーネント間冗長性除去を実行するための以下に概説される実施形態は、y´CbCr入力106〜110のために付加的な相関除去ステップとしてさらにR´G´B´入力106〜110の場合において色変換として働く。加えて、以下にさらに概説される実施形態は、局所的に、コンポーネントまたは平面間に冗長性低減を適用し、すなわち、エンコーダ100は、適応的に残差信号を含む平面/コンポーネント間予測が適用されるか否かを、画像/画像102またはビデオの領域ごとに決定する。しかしながら、また、本発明の実施形態がカラーコンポーネントまたは平面だけに制限されないことに留意されたく、むしろ、ここに記載される技術は、2つ以上の平面の結果として生じる残差が相関からなる場合と同様に一般的な平面/コンポーネントに適用することができる。例えば、本願に記載される実施形態は、同様にスケーラブルなビデオ圧縮スキームにおいて異なる層から平面に適用することができる。予測の上において、コンポーネントまたは平面の処理順序は、例えばビットストリームにおいてコンポーネント順序をシグナリングする構文要素によって、局所的にチャントすることができる。この代替案も、以下に記載される。
図1および図2に関して、ハイブリッドブロックベースの画像およびビデオ圧縮スキームの場合が示され、予測器122/222によって実行される予測は、ログベースで実行され、さらに、符号化側に関する限り、変換器114、量子器116およびデータストリーム挿入器118が、復号化側に関する限り、逆変換器226、逆量子化器224およびデータストリーム抽出器218が、貢献する変換符号化が、予測エラーに、すなわち残差と呼ばれる予測残差形成器112の出力に適用される。
タームブロックが一般的な矩形形状を以下に記載するように理解されるものとすることに留意されたく、すなわち、ブロックは、矩形形状を有することができる。
次に記載される実施形態において、エンコーダは、予測ブロック308または変換ブロック304ごとにクレイム/コンポーネント間予測のアプリケーションを決定する。
しかしながら、中間の留意として、本発明の実施形態が図1および図2に関して概説される場合に制限されないことがここに提示され、平面/コンポーネント間予測は、空間、時間および/またはビュー間予測信号の予測残差に適用される。理論的に、ここに示される実施形態は、平面/コンポーネント間予測がコンポーネントのサンプルに直接実行される場合に同様に移行することができる。換言すれば、予測自体がスキップされるときに、入力信号のオリジナルのサンプルは、残りの説明のために残差と呼ばれるべきでありまたはそれとして扱われ得る。
残差ブロック312(または矩形形状)ごとに、実施形態によれば、構文要素は、データストリーム104において送信され、さらに、構文要素は、予測器140、144、240、244による平面/コンポーネント間予測が用いられるべきであるか否かを示す。図3にも示される、H.265/EVCのようなビデオ圧縮スキームの場合において、残差は、より小さい変換ブロックまたは形状216にさらに分割され、エンコーダ100は、実施形態によれば、変換ブロック316または変換ブロックのグループごとに平面/コンポーネント間予測の使用または不使用を特定する今述べた構文要素を送信することができる。グループ化すなわちシグナリングレベルは、適応的に選択することができ、さらに、そのようなグループ化決定は、例えばデータストリームのヘッダにおけるように、ビット/データストリーム104においてさらなる構文要素として送信され得ることに留意されたい。最も高いシグナリングレベルで、平面/コンポーネント間予測の使用または不使用は、符号化ユニット若しくは符号化ブロック304、コードブロック304のグループ、または、全部の画像若しくはフレームのためにさえ、シグナリングされ得る。
別に言えば、図4を参照する。図4は、再構成モジュール400を示し、それは、いくつかの部分で、すなわち、
− データストリーム抽出され、逆量子化されさらに逆変換された残差信号1561の形でxを受信し、データストリーム抽出され、逆量子化されさらに逆変換された残差信号1562の形でyを受信し、さらに、残差信号1562を置き換える残差信号156´2としてzを出力する、空間領域コンポーネント間予測器1402および関連した空間領域コンポーネント間予測/残差再結合器1342
− データストリーム抽出されさらに逆量子化された残差信号170の形でxを受信し、データストリーム抽出されさらに逆量子化された残差信号1702の形でyを受信し、さらに、残差信号1702を置き換える残差信号170´2としてzを出力する、スペクトル領域コンポーネント間予測器1442および関連したスペクトル領域コンポーネント間予測/残差再結合器1382
− データストリーム抽出され、逆量子化されさらに逆変換された残差信号1561またはデータストリーム抽出され、逆量子化されさらに逆変換された残差信号1562(またはいかなるそれらの結合またはそれらの両方)の形でxを受信し、データストリーム抽出され、逆量子化されさらに逆変換された残差信号1563の形でyを受信し、さらに、残差信号1563を置き換える残差信号156´3としてzを出力する、空間領域コンポーネント間予測器1403および関連した空間領域コンポーネント間予測/残差再結合器1343
− データストリーム抽出されさらに逆量子化された残差信号1701またはデータストリーム抽出されさらに逆量子化された残差信号1702(またはいかなるそれらの結合またはそれらの両方)の形でxを受信し、データストリーム抽出されさらに逆量子化された残差信号1703の形でyを受信し、さらに、残差信号1703を置き換える残差信号170´3としてzを出力する、スペクトル領域コンポーネント間予測器1443および関連したスペクトル領域コンポーネント間予測/残差再結合器1383
− データストリーム抽出され、逆量子化されさらに逆変換された残差信号2561の形でxを受信し、データストリーム抽出され、逆量子化されさらに逆変換された残差信号2562の形でyを受信し、さらに、残差信号2562を置き換える残差信号256´2としてzを出力する、空間領域コンポーネント間予測器2402および関連した空間領域コンポーネント間予測/残差再結合器2342
− データストリーム抽出されさらに逆量子化された残差信号2701の形でxを受信し、データストリーム抽出されさらに逆量子化された残差信号2702の形でyを受信し、さらに、残差信号2702を置き換える残差信号170´2としてzを出力する、スペクトル領域コンポーネント間予測器2442および関連したスペクトル領域コンポーネント間予測/残差再結合器2382
− データストリーム抽出され、逆量子化されさらに逆変換された残差信号2561またはデータストリーム抽出され、逆量子化されさらに逆変換された残差信号2562(またはいかなるそれらの結合またはそれらの両方)の形でxを受信し、データストリーム抽出され、逆量子化されさらに逆変換された残差信号2563の形でyを受信し、さらに、残差信号2563を置き換える残差信号256´3としてzを出力する、空間領域コンポーネント間予測器2403および関連した空間領域コンポーネント間予測/残差再結合器2343
− データストリーム抽出されさらに逆量子化された残差信号2701またはデータストリーム抽出されさらに逆量子化された残差信号2702(またはいかなるそれらの結合またはそれらの両方)の形でxを受信し、データストリーム抽出されさらに逆量子化された残差信号2703の形でyを受信し、さらに、残差信号2703を置き換える残差信号270´3としてzを出力する、スペクトル領域コンポーネント間予測器2443および関連したスペクトル領域コンポーネント間予測/残差再結合器2383
のペアごとに、図1および図2に示される実施形態において具体化される。
図1および図2のこれらの場合の全てで、さらに詳細にその後に記載された平面/コンポーネント間予測が実行され、さらに、これらの場合のいずれかで、図1および図2の実施形態が図4のより一般化された平面/コンポーネント間予測モジュール400によって補正され得る。単にいくつかの場合だけが実際に用いられ得ることに留意されたい。
図4に示されるように、平面/コンポーネント間予測モジュール400または再構成モジュール400は、2つの入力および1つの出力を有し、さらに、任意に、エンコーダおよびデコーダ側間にシグナリングする予測パラメータを用いる。第1の入力402は、「x」として示され、さらに、それに基づいて第2のコンポーネントのための平面/コンポーネント間冗長性低減が再構成モジュール400によって実行される受信の再構成された第1のコンポーネント信号を表す。この再構成された第1のコンポーネント信号402は、図1および図2に示されるように、空間またはスペクトル領域において、現在平面/コンポーネント間冗長性低減の対象である第2のコンポーネントの部分と同じ位置に配置される、第1のコンポーネントの部分のためのデータストリームから抽出されるように送信された残差信号であってもよい。
再構成モジュール400の他の入力信号404は、「y」として示され、さらに、信号402と同じ領域、すなわちスペクトルまたは空間領域において、現在モジュール400による平面/コンポーネント間冗長性低減の対象である、第2のコンポーネントの部分の送信された残差信号を表す。再構成モジュール400は、また、同じ領域において図4に「z」として示される、第2のコンポーネント信号406を再構成し、コンポーネント信号406は、再構成モジュール400のメイン出力を表し、さらに、xを置き換えることによってマルチコンポーネント画像の従属コンポーネントを再構成する際に少なくとも関与する。「少なくとも」とは、図1および図2に示されるように、再構成モジュール400によって出力されるコンポーネント信号406が残差予測を表すことができ、それに応じて、まだそれぞれの従属コンポーネントiの予測信号154iと結合されなければならないことを意味する。
エンコーダおよびデコーダの他のモジュールと同じように、再構成モジュール400は、ブロックベースで動作する。ブロックベースでの動作は、例えば、再構成モジュール400によって実行されるコンポーネント間冗長性低減反転のブロック的な適応に現れることができる。「ブロック的な適応」とは、任意に、データストリーム内で予測パラメータ146/148の明確なシグナリングを含むことができる。しかしながら、コンポーネント間冗長性低減を制御するためのパラメータの後方適応設定が同様に可能である。すなわち、図4を参照して、デコーダに組み込まれる再構成モジュール400の場合において、予測パラメータは、規制モジュールを入力し、したがってそのさらなる入力を表す一方で、エンコーダに組み込まれる再構成モジュール400の場合において、予測パラメータは、例えば、LSE最適化問題の解決策を含む以下に例示される方法で内部に決定される。
図5は、第2のコンポーネント108の現在再構成された部分またはブロック440を示す。図5は、第1のコンポーネント106の空間的に対応する部分/ブロック442、すなわち画像10内に空間的に同じ位置に配置される部分も示す。モジュール400が同じ位置に配置されたブロック440および442に関してコンポーネント106および108のために受信する入力信号402および404は、図1および2に関して概説されるように、データストリーム内でコンポーネント106および108のために送信されるような残差信号を表すことができる。第2のコンポーネント108に関して、モジュール400は、zを計算する。例えばブロック440のようなブロックごとに、パラメータα、βおよびγ、または、単にそのサブセットだけが、さらに以下に例示される方法で適応される。
特に、例えばブロック440のような所定のブロックのために、それは、コンポーネント間予測が実行されるか否かに関して、構文要素によってデータストリーム内でシグナリングされ得る。オンに切り替えられるコンポーネント間予測の場合におけるパラメータα、βおよびγは、単に可能な例を表すだけである。コンポーネント間予測が適用されるブロック440のために、予測モードは、データストリームにおいてシグナリングされ得り、予測ソースは、データにおいてシグナリングされ得り、予測領域は、データストリームにおいてシグナリングされ得り、さらに、上述したパラメータに関連するパラメータは、データストリームにおいてシグナリングされ得る。「予測モード」、「予測ソース」、「予測領域」および「関連したパラメータ」の意味は、以下の繰越説明から明らかになる。今までに記載されている例において、コンポーネント間予測は、残差信号で動作する。すなわち、xおよびyは、データストリーム内で送信されるような予測残差であって、さらに、両方とも、ハイブリッド予測の予測残差を表す。上述のように、xおよびyは、上に概説されるように変換符号化を用いる例示的な場合において空間領域におけるまたは周波数領域における予測残差であってもよい。エンコーダまたはデコーダのステージにおいて予測を適用することは、いくつかの利点を有する。まず第1に、付加的なメモリが通常不必要であり、さらに、第2に、コンポーネント間予測は、局所的に、すなわちデコーダの観点から解析プロセスの後に付加的な中間のステップの導入なしで、実行することができる。予測領域を区別するために、さらなる構文要素が、ビットストリームにおいて送信され得る。すなわち、後者のさらなる構文要素は、コンポーネント間予測領域が空間領域またはスペクトル領域であってもよいかどうかを示すことができる。第1の場合において、x、yおよびzは、空間領域にあり、さらに、後者の場合において、x、yおよびzは、スペクトル領域にある。デコーダの観点から、残差がビットストリームから再構成され、さらに、量子化ステップの前にエンコーダにおいて生成されているそれらのものと異なり得ることに留意されたい。しかしながら、本願の実施形態を実施するエンコーダにおいて予測ソースとしてすでに量子化されさらに再構成された残差を用いることが好ましい。さらに、変換ステージをスキップする場合において、空間および周波数領域におけるコンポーネント間予測は、全く同じである。そのような構成のために、予測領域、すなわち空間または周波数領域のシグナリングは、スキップすることができる。
処理チェーンをできるだけ単純に保つために、構成例は、例えばルマコンポーネントのように、第1のコンポーネントの処理を変えないで保ち、さらに、コンポーネント残差信号のための予測器としてルマ再構成された残差信号を用いり得る。これは、可能な予測ソース構成であり、さらに、そのような単純な予測ソースが一般的な変換アプローチを単純化することに留意されたく、入力信号の全3つのコンポーネントまたは平面は、変換サンプルを生成するために必要とされる。
別の可能な構成は、予測ソース適応を行うことであり、すなわち、全てのすでに利用できる残差信号またはそれぞれ再構成された残差コンポーネントが予測のために用いられるシグナリングを行うことである。代わりに、処理順序は、局所的に変えることができ、例えば、第2のコンポーネントは、最初に再構成され、さらに、残りのコンポーネントのための予測ソースとして用いられる。そのような構成は、全単射の(またはほぼ反転可能な)予測器を用いる2つのコンポーネント間のデルタが同じであるという事実から利点をとるが、逆の符号については、予測ソースを符号化するための絶対コストが異なる。さらに、いくつかの予測ソースの結合が可能である。この場合において、結合重みは、ビットストリームにおいて送信され得り、または、利用でき若しくはそれぞれの符号化された近傍の統計を用いて後方駆動で推定され得る。
モデルパラメータの仕様は、後方駆動で実行することができ、後方駆動推定および前方シグナリング化からなり、または、データストリームにおいて完全に前方シグナリングすることができる。構成例は、エンコーダおよびデコーダの両方に知られ、さらに、ブロックまたは形状ごとにデコーダにセットインデックスをシグナリングする、モデルパラメータの固定されたセットを用いることである。別の構成は、予測器の順序が特定の数のブロックまたは形状の後に変えられる、動的なセットまたはリストを用いることである。そのようなアプローチは、ソース信号へのより高い局所適応をイネーブルにする。予測モード、予測ソース、予測領域およびパラメータシグナリングにおけるさらに詳細な例は、以下に繰り越される。
予測モードに関して、以下が留意され得る。
予測モードは、アフィン、非線形、または、スプライン若しくはサポートベクトル回帰のようなアプローチによって実現されるより複雑な関数となり得る。
色空間変換は、大部分が全ての利用できる入力コンポーネントを使用する線形であることに留意されたい。すなわち、色空間変換は、3つのカラーコンポーネントの3つのコンポーネントベクトルを、別の色空間の別の3つのコンポーネントの別のベクトルにマッピングする傾向がある。エンコーダおよびデコーダは、本願の実施形態によれば、入力色空間から独立して動作することができ、したがって、ルマコンポーネントは、予測ソースを形成するために不変に保たれ得る。しかしながら、代わりの実施形態によれば、「ルマコンポーネント」または「第1のコンポーネント」の定義は、例えば予測または変換ブロック(または矩形形状)のように、ブロックごとに、すなわちブロックまたは形状ごとに、異なり得り、「第1のコンポーネント」として働くコンポーネントが、適応的に選択され得る。適応は、データストリームにおけるシグナリングによってエンコーダに示され得る。例えば、図5は、コンポーネント106が「第1のコンポーネント」を形成し、コンポーネント108がコンポーネント間予測されるコンポーネント、すなわち第2のコンポーネントである場合を示すとともに、ブロック440に関する限り、それは、画像10の別のブロックのために異なることがあり得り、例えば、コンポーネント信号106は、コンポーネント108からコンポーネント間予測される。「予測ソース」のブロック的な適応は、ちょうど概説されるように、データストリーム内で示され得る。加えてまたは代わりに、ブロック440ごとに、予測が適用されるか否かをシグナリングする構文要素は、データストリーム内で送信され得る。すなわち、常に「第1のコンポーネント」としてコンポーネント106を用いる場合において、そのような構文要素は、従属コンポーネントだけ、すなわち図1および図2におけるコンポーネント108および110のブロックのために存在する。その場合において、例えばルマコンポーネントのような第1のコンポーネントは、予測ソース、すなわち上に概説された実施形態の場合におけるその残差信号を提供する。
予測が特定のブロック440のためにイネーブルにされる場合に、加えてまたは代わりに、予測モードは、そのブロック440のためのデータストリーム内でシグナリングされ得る。予測がゼロ値の再構成された第1のコンポーネント信号、すなわちコンポーネント間予測のためのベースとして予測残差を用いる場合においてゼロ値の残差ルマ信号の場合のためにスキップされ得ることに留意されたい。その場合において、コンポーネント間予測が適用されるか否かをシグナリングする上述した構文要素は、それぞれのブロック440のためのデータストリームにおいて、省略することができ、すなわち存在しない。
結合された後方駆動および前方シグナリングアプローチの場合において、すでに符号化されたそれぞれの再構成されたデータから導き出されるパラメータは、開始パラメータとして働くことができる。そのような場合において、選択された予測モードと比べてデルタは、データストリームにおいて送信することができる。これは、固定されまたは適応された予測モードのための最適パラメータを計算することによって達成することができ、さらに、計算されたパラメータは、ビットストリームにおいて送信される。別の可能性は、後方駆動選択アプローチを用いることによって、または、後方駆動アプローチだけによって計算されさらに選択されるパラメータを常に用いることによって、導き出される開始パラメータと比べていくつかのデルタを送信することである。
yにおける単一の要素がzによる予測の後に置き換えられることに留意されたい。換言すれば、再構成モジュール400は、訂正信号404を受信し、さらに、それをz406と置き換える。また、そのような構成を用いるときに、コンポーネント間予測が加算演算に単純化されることに留意されたい:第1のコンポーネントの完全に再構成された残差サンプル値(α=1)またはその半分の値(α=0.5)は、訂正サンプル値404に加算される。半分にすることは、単純な右シフト演算によって生成され得る。その場合において、例えば、構成は、再構成モジュール400内で予測器においてxおよびα間の乗算を実現し、さらに、図4に示される加算器における加算を実現することによって実施され得る。換言すれば、所定の例において、エンコーダ側で、動作モードは、以下のようである。
第1のサンプルまたはサンプルのグループのためのパラメータは、いくつかのデフォルト値によって初期化することができまたは隣接したブロック若しくは形状から計算することができる。別の可能性は、第1のサンプルまたはサンプルのグループのために最適パラメータを送信することである。できるだけ多くの前のサンプルを用いるために、所定のスキャンパターンは、2次元残差ブロック(または矩形形状)を1次元ベクトルにマッピングするために用いることができる。例えば、サンプルまたはサンプルのグループは、垂直に、水平に、または、変換係数のスキャン方向と類似する方向にスキャンすることができる。また、特定のスキャンは、後方駆動スキームによって導き出すことができ、または、それは、ビットストリームにおいてシグナリングされる。
別の拡張は、すでに示された例および入力として全3つの利用できるコンポーネントを用いる変換の結合である。ここで、この例において、残差信号は、所定の変換ブロックのための相関を除去する変換マトリックスを用いて変換される。この構成は、平面間の相関が非常に大きいか極めて小さいときに役に立つ。構成例は、R´G´B´または主コンポーネント解析アプローチのような入力色空間の場合にY´CoCg変換を用いる。後者の場合のために、変換マトリックスは、前方の方法でまたはマトリックス値を導き出すためにエンコーダおよびデコーダに知られる所定のセットおよびルールを用いてデコーダにシグナリングされなければならない。この構成が全ての利用できるコンポーネントまたは平面の残差信号を必要とすることに留意されたい。
予測領域に関して、以下が留意される。
予測領域は、上述のように、空間領域、すなわち、残差での動作、または、周波数領域、すなわち、DCTまたはDSTのような変換を適用した後に残差での動作であり得る。さらに、領域は、情報をデコーダに送信することによって、両方の構成であり得る。予測のための領域に加えて、領域に関連するパラメータは、後方駆動スキームによって送信しまたは導き出すことができる。
領域パラメータへの関連は、クロマコンポーネントの付加的なサブサンプリングであり、すなわち、クロマブロック(または矩形形状)は、水平に、垂直に、または、両方にスケールダウンされる。そのような場合において、予測ソースは、同様にダウンサンプリングされ得り、または、空間領域、周波数領域または両方において異なる分解能を考慮する予測モードのセットが選択されなければならない。別の可能性は、予測ソースの次元および予測ターゲットが互いにマッチするように、予測ターゲットをアップスケーリングすることである。ダウンスケーリングは、特に画像またはビデオにおいて非常に平坦な領域のために、圧縮効率をさらに改善する。例えば、予測ソースは、低周波および高周波の両方を含むが、クロマブロック(または矩形形状)は、低周波だけを含む。この例において、予測ソースのサブサンプリングは、高周波を除去し、さらに、あまり複雑でない予測モードは、使用することができ、さらに、デコーダに送信されなければならない少ない情報に接続することができる。ダウンスケーリング使用のシグナリングが、それぞれの変換ブロックのために、または、それぞれの予測ブロックのために、または、予測ブロックのグループのためにさえも若しくは全部の画像のために、行われ得ることに留意されたい。
付加的なダウンサンプリングアプローチに加えて、ビット深度調整は、デコーダにも送信され得る。この場合は、サンプルの精度が異なるコンポーネントに沿って異なるときに発生する。1つの可能な方法は、ソースのためのビットの数を低減しまたは増加することである。別の可能な構成は、ターゲットのビット深度を増加しまたは低減し得り、さらに、最終的な結果を正確なビット深度に戻って訂正する。さらなるオプションは、異なるビット深度に適している予測器のセットの使用である。そのような予測モードは、予測パラメータによって異なるビット深度を考慮する。ビット深度訂正のためのシグナリングレベルは、コンテンツの変化に応じて、それぞれのブロック若しくは形状のために、または、全部の画像若しくはシーケンスのために行うことができる。
予測ソースとして、以下が留意される。
予測ソースは、第1のコンポーネントまたは全ての利用できるコンポーネントであり得る。ブロック(または矩形形状)ごとに、予測ソースは、エンコーダによってシグナリングされ得る。代わりに、予測ソースは、全ての利用できるコンポーネントから、予測または変換ブロックの全ての可能なブロックを含むディクショナリーであり得り、さらに、予測のために用いられるべき予測ソースは、ビットストリームにおいて構文要素によってデコーダにシグナリングされる。
パラメータ導出に関して、以下が留意される。
上述の最小化問題において、yが、それぞれのコンポーネント間予測されたブロック440のために、データストリーム内でロスレスで送信される残差信号を表すことに留意されたい。換言すれば、yは、コンポーネント間予測されたブロック440のための訂正信号である。それは、それぞれの繰り返しにおいて、上に概説されたLSE最適化問題の解決を実行するとともに、反復的に決定され得る。このように、エンコーダは、例えば予測モード、予測ソースなどのコンポーネント間予測パラメータを選択する際に、コンポーネント間予測を実行するか実行しないかについて最適に決定することができる。
パラメータシグナリングに関して、以下が留意される。
予測自体は、切り替え可能であり得り、さらに、残差予測の使用を特定するヘッダフラグは、ビットストリームの初めに送信されるべきである。予測ができるときに、その局所使用を特定する構文要素は、ブロック440のためのビットストリームに埋め込まれ、それは、前述のように、残差ブロック(または矩形形状)、変換ブロック(または矩形形状)、または、変換ブロックのグループ(または矩形形状)であってもよい。第1のビットは、予測がイネーブルにされるか否かを示し得り、さらに、以下のビットは、予測モード、予測ソース、または、予測領域および関連したパラメータを示し得る。1つの構文要素が両方のクロマコンポーネントのための予測をイネーブルにしまたはディセーブルにするために用いることができることに留意されたい。第2の(例えばクロマ)コンポーネントごとに予測の使用と予測モードおよびソースとを別々にシグナリングすることも可能である。また、残差信号への高い適応を達成するために、ソート基準は、予測モードのシグナリングするために用いられ得る。例えば、最も用いられた予測モードは、1であり、そして、ソートされたリストは、インデックスゼロでモード1を含む。それから、わずか1ビットだけが、最も可能性の高いモード1をシグナリングするために必要である。さらに、予測の使用は、残差にコンポーネント間予測を適用する場合において制限され得り、相関は、残差を生成するための同じ予測モードが異なるカラーコンポーネントの中で用いられる場合に高くなり得る。そのような規制は、イントラ予測されたブロック(または矩形形状)に役に立つ。例えば、このコンポーネント間予測は、ルマであってもよいブロック(または矩形形状)442のために用いられるのと同じイントラ予測モードが、クロマであってもよいブロック(または矩形形状)440のために用いられる場合だけに、適用することができる。
すなわち、後者の場合において、コンポーネント間予測プロセスのブロック的な適応は、ブロック440が、予測器2222による予測に関する限り空間予測モードに関連するかどうかと、空間予測モードが、一致し、または、それを用いて同じ位置に配置されたブロック442が予測器2221によって予測される空間モードから、所定の量よりも多くずれていないかどうかとをチェックすることを含む。空間的予測モードは、例えば、それぞれzおよびxと結合される、それぞれの予測信号2202および2201をそれぞれもたらすために、それぞれすでに再構成されたサンプルの隣接したブロック440および442が、それぞれブロック440および442に外挿される、空間予測方向を含むことができる。
実施形態において、予測ソースは、常にルマコンポーネントである。コンポーネント108/208および110/210間の相互接続がやめられる場合に図1および図2に表される、この好適な実施形態において、ルマの処理は、不変であり、さらに、ルマ平面の結果として生じる再構成された残差は、予測のために用いられる。結果として、予測ソースは、ビットストリームにおいて送信されない。
別の実施形態において、予測ソースは、例えば残差ブロック、残差ブロックまたは形状のグループのようなlブロックまたは形状440のために、例えば、イントラまたはインター予測が適用されるサイズのために送信される。
例えば、予測ソースは、第1のクロマコンポーネントのためのルマおよび第2のクロマコンポーネントのためのルマまたは第1のクロマコンポーネントである。この好適な実施形態は、予測ソースとして全ての利用できる平面を許容する構成と類似し、さらに、図1および図2に対応する。
上述した実施形態を示すために、図6を参照する。3つのコンポーネント画像102/202が示される。第1のコンポーネント106/206は、いかなるコンポーネント間予測なしにハイブリッド(復号化)符号化を用いて符号化/復号化される。第2のコンポーネント108/208に関する限り、それは、ブロック440に分割され、その1つは、それがちょうど図5における場合であったように、図6に例示的に示される。これらのブロック440を単位にして、コンポーネント間予測は、例えば、それが上述されているようにαに関して適応される。同様に、画像102/202は、第3のコンポーネント110/210に関する限りブロック450に分割され、そのような1つのブロックは、図6に代表的に示される。ちょうど概説された2つの代替案に関して記載されるように、それは、ブロック450のコンポーネント間予測が必然的に予測ソースとして第1のコンポーネント106/206、すなわち第1のコンポーネント106/206の同じ位置に配置された部分452を用いることによって実行されるということであってもよい。これは、実線矢印454を用いて示される。しかしながら、ちょうど記載される第2の代替案によれば、データストリーム104における構文要素456は、予測ソースとして第1のコンポーネントを用いることすなわち454と、予測ソースとして第2のコンポーネントを用いることすなわち矢印460によって示されるように第2のコンポーネント108/208の同じ位置に配置された部分458に基づくブロック450のコンポーネント間予測との間で切り替わる。図6において、第1のコンポーネント106/206は、例えば、ルマコンポーネントであってもよい一方で、他の2つのコンポーネント108/208および110/210は、クロマコンポーネントであってもよい。
図6に関して、おそらく、第2のコンポーネント108/208のためのブロック440への分割は、ブロック450へのコンポーネント110/210の分割から独立した方法で、または、それからのずれを許容して、データストリーム104内でシグナリングされ得ることに留意されたい。当然、分割は、同様に同じことであり得り、さらに、1つのシグナリングされた形から採用されまたは後に記載される図10における例示的な場合であるような第1のコンポーネントのために用いられ得ることさえある。
ちょうど上に概説されているさらなる実施形態は、画像110/210の全てのコンポーネントが、交互に、予測ソースとして働くことができるという可能性がある。図7を参照されたい。図7において、全てのコンポーネント106〜110/206〜210は、図7に例示的に示されるそのような1つのブロック470とともにそれに関連するブロック470への共通分割を有する。ブロック470への分割または再分割は、データストリーム104内でシグナリングされ得る。すでに上述のように、ブロック470は、残差または変換ブロックであってもよい。しかしながら、ここで、いかなるコンポーネントも、「第1のコンポーネント」、すなわち予測ソースを形成することができる。構文要素472およびデータストリーム104は、コンポーネント106〜110/206〜210の中のいずれが、例えば、他の2つのコンポーネントのための予測ソースを形成するかに関してブロック470のために示す。図7は、例えば、予測ソースが図7において矢印によって示されるように異なって選択される別のブロック472を示す。ブロック470内で、第1のコンポーネントは、第2のコンポーネントが第1のコンポーネントの役割と仮定するブロック472の場合において、他の2つのコンポーネントのための予測ソースとして働く。
図6および図7に関して、構文要素456および472が予測ソースを示す範囲が、異なって、すなわち個々にそれぞれのブロック450および470/72のために、または、ブロックのグループまたは全部の画像102/202のためにさえ、選択され得ることに留意されたい。
さらなる実施形態において、予測ソースは、全ての利用できるコンポーネントまたは利用できるコンポーネントのサブセットであり得る。この好適な実施形態において、ソースの重み付けは、デコーダにシグナリングされ得る。
好適な実施形態において、予測領域は、空間領域にある。この実施形態において、全部の残差ブロック若しくは形状のための残差または残差ブロック若しくは形状の特定の部分だけが、シグナリング構成に応じて、用いられ得る。後者の場合は、予測が変換ブロックまたは形状ごとに個々にシグナリングされるときに与えられ、さらに、より小さい変換ブロックまたは形状への残差ブロックまたは形状のさらなる再分割ができる。
さらなる実施形態において、予測領域は、周波数領域にある。この好適な実施形態において、予測は、変換ブロックまたは形状サイズに結合される。
さらなる実施形態において、予測領域は、空間または周波数領域にあり得る。この実施形態において、予測領域は、局所統計量に応じて前方シグナリング化または後方駆動推定によって別々に特定される。
また、構文要素490は、個々にブロック440のために、ブロック440のグループのためにまたは全部の画像のためにまたはさらにより大きい範囲、例えば画像のグループのために、コンポーネント間予測のために用いられる領域をシグナリングすることができる。
さらなる実施形態において、両方の予測領域は、予測プロセスに含まれる。本発明のこの好適な実施形態において、予測は、最初に空間領域においてされ、そして、さらなる予測は、異なる予測モードおよびソースを用いて両方の予測を有する周波数領域において適用される。
実施形態において、クロマブロックまたは形状は、水平に、垂直に、または、いくつかのファクタによって両方に、サブサンプリングすることができる。この実施形態において、ダウンスケールファクタは、2の累乗に等しくあり得る。ダウンサンプラの使用は、ビットストリームにおいて構文要素として送信され、さらに、ダウンサンプラは、固定される。
さらなる実施形態において、クロマブロックまたは形状は、水平に、垂直に、または、いくつかのファクタによって両方に、サブサンプリングすることができる。ファクタは、ビットストリームにおいて送信することができ、さらに、ダウンサンプラは、フィルタのセットから選択され、正確なフィルタは、ビットストリームにおいて送信されるインデックスによってアドレス指定することができる。
さらなる実施形態において、選択されたアップサンプリングフィルタは、ビットストリームにおいて送信される。この実施形態において、クロマブロックは、最初にサブサンプリングされ得り、したがって、マッチングブロックまたは矩形サイズを有する予測を用いるために、アップサンプリングは、予測の前に行われなければならない。
さらなる実施形態において、選択されたダウンサンプリングフィルタは、ビットストリームにおいて送信される。この実施形態において、ルマは、同じブロックまたは矩形サイズを達成するためにダウンサンプリングされる。
実施形態において、構文要素は、ソースおよびターゲットのビット深度が異なるときに、ビット訂正を意味してシグナリングされる。この実施形態において、ルマ精度は、低減することができ、または、クロマ精度は、予測のための同じビット深度を有するために増加することができる。後者の場合において、クロマ精度は、オリジナルのビット深度に戻って低減される。
実施形態において、予測モードの数は、2であり、さらに、予測器のセットは、所定の例におけるように正確に定義される。
さらなる実施形態において、予測モードの数は、1であり、さらに、構成は、前の実施形態において記載されるのと同じである。
さらなる実施形態において、予測器の数は、自由に調整可能であり、予測器のセットは、所定の例におけるように正確に定義される。この実施形態は、m>0が予測番号またはモードを示すα=1/mを有する例のより一般的な説明である。したがって、m=0は、予測がスキップされるべきであることを示す。
さらなる実施形態において、予測モードは、固定され、すなわち、予測は、常にイネーブルにされる。この実施形態のために、それは、適応平面間予測をイネーブルにし、さらに、予測器の数をゼロに等しく設定し得る。
さらなる実施形態において、予測は、常に適用され、さらに、αのような予測パラメータは、隣接したブロックまたは形状から導き出される。この実施形態において、ブロックまたは形状のための最適αは、完全な再構成の後に計算される。計算されたαは、局所近傍において次のブロックまたは形状のためのパラメータとして働く。
さらなる実施形態において、構文要素は、局所近傍から導き出されるパラメータの使用を示すビットストリームにおいて送信される。
さらなる実施形態において、近傍から導き出されるパラメータが、常に用いられる。それに加えて、エンコーダにおいて計算される最適パラメータと比べてデルタは、ビットストリームにおいて送信され得る。
さらなる実施形態において、パラメータのための後方駆動選択スキームは、ディセーブルにされ、さらに、最適パラメータは、ビットストリームにおいて送信される。
さらなる実施形態において、ビットストリームにおいて開始αの使用およびデルタαの存在は、別々にシグナリングされる。
実施形態において、予測モードの信号、予測ソースおよび予測パラメータのシグナリングは、同じ規則的な予測モードに制限される。この実施形態において、平面間予測に関連する情報は、クロマコンポーネントのためのイントラ予測モードがルマコンポーネントのために用いられるのと同じときにだけ送信される。
さらなる実施形態において、ブロックは、異なるサイズのウインドウに分割され、さらに、現在のウインドウのためのパラメータは、ブロック内の再構成された前のウインドウから導き出される。さらなる実施形態において、第1のウインドウのためのパラメータは、再構成された隣接したブロックから導き出される。
さらなる実施形態において、構文要素は、第1のウインドウのために用いられる局所近傍から導き出されるパラメータの使用を示すビットストリームにおいて送信される。
さらなる実施形態において、ウインドウは、垂直、水平または垂直方向においてスキャンすることができる。
さらなる実施形態において、現在のウインドウのパラメータは、前のウインドウが変換係数サブブロックのスキャン位置に従って決定される前のウインドウから導き出される。
さらなる実施形態において、ウインドウスキャニングは、1つのスキャン方向に限られる。
さらなる実施形態において、パラメータは、分割の代わりにルックアップテーブルおよび乗算演算を用いることによる整数実施を用いて導き出される。
実施形態において、ビットストリームのヘッダにおいて送信されるグローバルなフラグは、適応平面間予測の使用を示す。この実施形態において、フラグは、シーケンスレベルで埋め込まれる。
さらなる実施形態において、グローバルなフラグは、画像パラメータレベルにおける埋め込みとともに、ビットストリームのヘッダにおいて送信される。
さらなる実施形態において、予測器の数は、ビットストリームのヘッダにおいて送信される。この実施形態において、数字のゼロは、予測が常にイネーブルにされることを示し、ゼロに等しくない数字は、予測モードが適応的に選択されることを示す。
実施形態において、予測モードのセットは、予測モードの数から導き出される。
さらなる実施形態において、予測モードのセットは、予測の全てのモデルパラメータを特定するデコーダおよびデコーダに知られる。
さらなる実施形態において、予測モードは、全てが線形またはアフィンである。
実施形態において、予測器のセットは、ハイブリッドであり、すなわち、予測ソースとして他の平面を用いる単純な予測モードを含み、さらに、全ての利用できる平面を用いるより複雑な予測モードを含み、さらに、入力残差信号を別のコンポーネントまたは平面空間に変換する。
実施形態において、予測の使用は、クロマコンポーネントごとに変換ブロックまたは形状ごとに特定される。この実施形態において、この情報は、ルマコンポーネントが同じ空間位置でゼロ値の残差からなるときに、スキップされ得る。
実施形態において、モードは、切り捨てられた単項分解を用いて送信される。この実施形態において、異なるコンテキストモデルは、ビンインデックスごとに割り当てられるが、特定の数に例えば3に限られる。さらに、同じコンテキストモデルは、両方のクロマコンポーネントのために用いられる。
さらなる実施形態において、異なるクロマ平面は、異なるコンテキストモデルセットを用いる。
さらなる実施形態において、異なる変換ブロックまたは形状サイズが、異なるコンテキストモデルセットを用いる。
さらなる実施形態において、予測モードへのビンのマッピングは、動的または適応的である。この実施形態において、デコーダの観点から、ゼロに等しい復号化されたモードは、復号化された時間まで最も用いられたモードを示す。
さらなる実施形態において、予測モード、および、異なる予測ソースを許容する構成を用いる場合に予測ソースは、残差ブロックまたは形状のために送信される。この実施形態において、異なるブロックまたは形状サイズは、異なるコンテキストモデルを用いることができる。
次に記載される実施形態は、特に今までに記載されている「クロスコンポーネント非相関」のための予測パラメータを符号化する方法のための例に関する。
それに対して制限されないにもかかわらず、以下の説明は、従属(第2の)コンポーネントが従属コンポーネント信号の予測としてzを用いて計算z=αx+yを介して参照(第1の)コンポーネント信号xおよび残差(訂正)信号yに基づいて再構成される代替案を参照すると考えられ得る。例えば、予測は、空間領域において適用され得る。上述の例におけるように、コンポーネント間予測は、ハイブリッド符号化残差信号に適用され得り、すなわち、第1および第2のコンポーネント信号は、ハイブリッド符号化の残差信号を表すことができる。しかしながら、以下の実施形態は、このパラメータが、例えば、マルチコンポーネント画像が再分割される残差ブロックを単位にするように、サブピクチャベースで符号化されるαのシグナリングに集中する。以下は、αのための最適値の範囲が画像コンテンツの種類に依存し、それは、次に、残差ブロックよりも大きい範囲/単位において変化するという事実を考慮するためにも、αのシグナリング可能な状態が、好ましくは変数にすべきである事実についてである。このように、原則として、αの伝送に関して以下に記載される詳細は、同様に上に概説される他の実施形態に移行され得る。
クロスコンポーネント非相関(CCD)アプローチは、より高い圧縮効率をイネーブルにする異なるカラーコンポーネント間で残りの依存を利用する。アフィンモデルは、そのようなアプローチのために使用することができ、さらに、モデルパラメータは、サイド情報としてビットストリームにおいて送信される。
サイド情報コストを最小化するために、可能なパラメータの限られたセットだけが送信される。例えば、高効率ビデオ符号化(HEVC)における可能なCCD実施は、アフィン予測モデルの代わりに線形予測モデルを用いることができ、さらに、モードパラメータだけ、すなわち傾斜または勾配パラメータαは、0から1までの範囲において限られ得り、さらに、非一様に量子化され得る。特に、αのための値の限られたセットは、α∈{0,±0.125,±0.25,±0.5,±1}であり得る。
線形予測モデルパラメータのためのそのような量子化の選択は、αの分布がY´CbCr色空間に格納される自然ビデオコンテンツのための値0の周辺に対称的に集中されるという事実に基づくことがあり得る。Y´CbCrにおいて、カラーコンポーネントは、圧縮ステージに入る前にR´G´B´から変換する固定された変換マトリックスを用いることによって非相関される。グローバルな変換がしばしば次善という事実のために、CCDアプローチは、異なるカラーコンポーネント間で残りの依存を除去することによって、より高い圧縮効率を達成することができる。
しかしながら、そのような仮定は、特にR´G´B´色空間領域に格納される自然ビデオコンテンツのために、異なる種類のコンテンツのために当てはまらない。この場合において、勾配パラメータαは、しばしば値1の周辺に集中される。
上に与えられる場合と同様に、分布は、CCDが予測ソースとして第1のクロマコンポーネントまで広げられるときに、完全に異なるようになる。したがって、所定のコンテンツに従ってCCDパラメータを調整することが有益であり得る。
例えば、Y´CbCrのために、αの量子化は、(0,±0.125,±0.25,±0.5,±1)に設定することができ、一方、R´G´B´のために、αの量子化は、逆にすなわち(0,±1,±0.5,±0.25,±0.125)にすることができる。しかしながら、異なるエントロピー符号化経路を許容することは、付加的な問題を導入する。1つの問題は、実施がハードウェアおよびソフトウェアの両方のための領域および速度に関してより高価になるということである。この欠点を回避するために、パラメータ範囲は、CCDの使用も示される画像パラメータセット(PPS)レベルにおいて特定することができる。
すなわち、αをシグナリングする構文要素は、サブピクチャレベル/粒度で、例えば個々に残差ブロックのために送信される。例えば、それは、res_scale_valueと呼ばれ得る。それは、例えば、ビン列のバイナリ算術符号化と結合される(切り捨てられた)単項2値化を用いて符号化され得る。αへのres_scale_valueの(非2値化された)値のマッピングは、マッピングがppsを用いて、すなわち、完全な画像のために、または、例えば画像シーケンスベースごとのようにより大きい範囲でさえ変化されるように、実施され得る。変化は、表現可能なα値の数、表現可能なα値の順序および表現可能なα値の選択、すなわちそれらの実際の値を変化することができる。単に表現可能なα値の中の順序を切り替えることを可能にすることまたは表現可能なα値を正または負の値に制限することだけは、コンテンツ適応性を提供する1つの方法であるが、さらに以下に概説される実施形態は、単にマイナーな増加されたオーバーヘッドだけによって、サブピクチャ粒度でシグナリングされたres_scale_valueから、例えばマッピングの共同領域のサイズ、メンバーおよびメンバー順序の変化などのα値(α値の表現可能なセット)へのマッピングを変化する際にずっと増加された柔軟性のために、可能であり、さらに、res_scale_valueを送信するために保存するビットに関してこの供給によって提供される利点が、YCCまたはRGBにおいて符号化されるビデオコンテンツの典型的な混合を通じて見られ、マッピングの変化をシグナリングする必要性を過度に補償することが判明した。
αのための範囲の仕様は、例えば、以下のように行うことができる。Y´CbCrの場合において、好適なサブセットは、例えば(0,±0.125,±0.25,±0.5)であり得り、一方、それは、R´G´B´のために(0,±0.5,±1)または(0,0.5,1)または(0,0.5,1,2)であり得る。前述の挙動を達成するために、範囲は、2値を表す2つの構文要素を用いてPPSにおいて特定することができる。上述の例および予測が3点精度で実行されるという事実を考えれば、すなわち、予測サンプル値が、αで乗算され、それから、3だけ右にシフトされ、Y´CbCrのための範囲構成は、[−3,3]のように送信することができる。
しかしながら、そのようなシグナリングで、R´G´B´のための第2および第3の場合だけは、[2,3]および[2,4]を用いて達成することができる。R´G´B´のための第1の例を達成するために、符号は、付加的な構文を用いて分離されなければならない。さらに、それは、出発点として働く第1の値で第2の値のためのデルタを送信するのに充分である。この例のために、第2のR´G´B´構成は、[2,3]の代わりに[2,1]である。
第1のクロマコンポーネントからの予測の場合において、範囲値は、クロマコンポーネントごとに別々に特定することができる。これが第1のクロマコンポーネントから予測のためのサポートなしでさえ行うことができることに留意されたい。
PPSにおいて特定される制限を考えれば、予測パラメータαの解析および再構成は、以下のように修正される。制限、すなわち、α∈{0,±0.125,±0.25,±0.5,±1}および、3点精度のない場合のために、最終的なαFは、以下のように再構成され、ここで、αPは、ビットストリームから解析された値を示す:αF=1<<αP。これは、αF=1<<(αP+αL)に従って修正され、ここで、αLは、範囲が完全に正または負の範囲にあるときに最も小さい絶対値のためのオフセットを示す。
両方の値は、αPが切り捨てられた単項コードを用いて2値化されるときに、ビットストリームから解析されるビンの数に対する制限を導き出すために用いられる。符号の解析が所定の範囲に依存し得ることに留意されたい。この態様を利用するより良好な方法は、αの絶対値の前に符号を符号化することである。符号の符号化の後に、ビッストリームから解析される最大のビンの数を、導き出すことができる。この場合は、範囲が非対称のときに、例えば、それが[−1,3]のときに、役に立つ。
しばしば、異なる順序は、例えば、いくつかのR´G´B´コンテンツのために、(0,1,0.5)のように望まれる。そのような逆転は、単に[3,2]に従って範囲値を設定することによって達成することができる。この場合において、ビットストリームから解析されるビンの数は、まだ2である(2つ範囲値間の絶対差は、n=1であり、さらに、切り捨てられた単項コードの場合においてビンの数は、常にn+1である)。そして、逆転は、2つの方法によって達成することができる。第1のオプションは、固定されたオフセットを導入し、それは、逆転が望まれない場合に現在の値の2倍に、さらに、逆転の場合において最大の表示可能な値に等しい。こうする第2のおよびよりエレガントな方法は、メモリにPPSにおいて送信される範囲に拡大し、さらに、ルックアップ操作を通して対応する値にアクセスすることである。このアプローチは、両方の場合のために統一論理および単一の経路をもたらす。例えば、場合(0,0.25,0.5,1)は、[1,3]を送信することによってPPSにおいてシグナリングされ、さらに、メモリは、以下のエントリ(0,1,2,3)で作られる。他の方法において、すなわち、ビットストリームにおいて送信された値[3,1]を有する逆転された場合において、メモリは、以下のエントリ(0,3,2,1)で作られる。そのようなアプローチを用いて、最終的なαFは、α=1<<(LUT[αP])として公式化することができ、ここで、LUT[αP]は、ルックアップ操作を示す。
さらに詳細にごく最近言及された態様を説明するために、図9a、図9bおよび図9cを参照する。以下に単に図9と呼ばれる、図9a、図9bおよび図9cは、例示的に従属(第2の)コンポーネント(108/208)の後に第1の(参照)コンポーネント106/206がある層状に、1つのマルチコンポーネント画像102/202を例示的に示す。
画像102/202は、ビデオ500の部分であってもよい。
画像102/202が符号化されるデータストリーム104は、ハイレベルの構文要素構造510を含み、それは、少なくとも全部の画像102/202に、または、それを越えて画像102/202を含むビデオ500からの画像シーケンスにさえ関する。これは、中括弧502を用いて図9に示される。さらに、データストリーム104は、サブピクチャレベルにおいて第1の重み構文要素を含む。そのような1つの第1の重み構文要素514は、画像102/202の例示的な残差ブロック440に関係するように、図9に例示的に示される。第1の重み構文要素は、参照コンポーネント106/206の同じ位置に配置された部分に基づいて従属コンポーネント108/208をコンポーネント間予測する際に、第1の重みすなわちαを個々に設定するためのものである。
第1の重み構文要素は、切り捨てられた単項2値化を用いて符号化される。そのようなTU2値化のための例は、図9において518で示される。示されるように、そのようなTU2値化は、増加する長さの一連のビン列からなる。上述の方法において、ハイレベルの構文要素構造510は、2値化のビン列518がαのための可能な値にマッピングされる方法を定義する。αのためのそのような可能な値の例示的なセットが、図9において520で示される。実際には、ハイレベルの構文要素構造510は、ビン列518のセットからセット520のサブセットへのマッピング522を定義する。この方策によって、低いビット消費でサブピクチャ粒度で異なるコンポーネント間予測重みα間を切り替えるためのシグナリング化オーバーヘッドを保つことは、サブピクチャシグナリングが単にαのためのより少ない数の可能な値間を区別することができるように可能である。
上述のように、構文要素構造510によってデコーダがそこから第1および第2の間隔境界524を導き出すことができることは、可能である。構造510において対応する構文要素は、互いに独立して/別々に、または、互いに関連して、すなわち異なって、符号化され得る。間隔境界値524は、シーケンス520から、すなわち、それぞれのビットシフトを用いて実施され得る上述の指数関数を用いて、要素を確認する。この方策によって、間隔境界524は、マッピング522の共同領域をデコーダに示す。
上述のように、ゼロであるαの場合は、それぞれのゼロフラグ526を別々に用いてデコーダにシグナリングされ得る。ゼロフラグが第1の状態を有する場合に、デコーダは、αをゼロになるように設定し、さらに、それぞれのブロック440のためにいかなる第1の重み構文要素514を読み込むことをスキップする。ゼロフラグが他の状態を有する場合に、デコーダは、データストリーム104から第1の重み構文要素514を読み込み、さらに、マッピング522を用いて重みの実際の値を決定する。
さらに、上に概説されるように、単に第1の重み構文要素514の絶対部分528だけは、切り捨てられた単項2値化を用いて符号化され得り、さらに、第1の重み構文要素514の符号部分は、前に符号化され得る。このようにして、符号部分530が、ブロック440の値αが正のα値を有するセット520からのマッピング522の共同領域532のそれらのメンバーに、または、負のα値からなるその他のメンバーに属するかどうかを決定するように、エンコーダおよびデコーダが絶対部分528のために2値化518のそれらの長さすなわちビン列の数を適切に設定することは、可能である。当然、第1の重み構文要素514の符号部分530は、存在しなくてもよく、さらに、もっぱら、共同領域530が単に正のα値だけまたは単に負のα値だけを含むハイレベルの構文要素構造510からデコーダが導き出す場合において、デコーダによって読み込まれることができなくてもよい。
上述の説明から明らかになるように、間隔境界524およびそれがハイレベルの構文要素構造510において符号化されるその順序は、絶対部分528が共同領域532のメンバーを「横断する」順序を決定することができる。
図10に関して、すでに上述されている特定の態様を要約するさらなる具体的な実施形態が示される。図10の実施形態によれば、エンコーダおよびデコーダは、予測器122/222内のハイブリッド予測に関する限り、全3つのコンポーネントに関して共通に画像102/202を再分割する。図10において、コンポーネントは、それぞれ、「1」、「2」および「3」によって示され、さらに、それぞれ示された画像の下に記載される。予測ブロック308へのピクチャ102/202の再分割/分割は、予測関連の再分割情報600を介してデータストリーム104内でシグナリングされ得る。
予測ブロック308ごとに、予測パラメータは、データストリーム104内でシグナリングされ得る。これらの予測パラメータは、画像102/202のそれぞれのコンポーネントをハイブリッド符号化/復号化するために用いられる。予測パラメータ602は、全てのコンポーネントに共通にまたは部分的なコンポーネントに特にさらにコンポーネントグローバルに、個々にそれぞれのコンポーネントのためにデータストリーム104内でシグナリングされ得る。例えば、予測パラメータ602は、例えば、とりわけ、空間的におよび/または時間的に予測されたブロック308間を区別することができ、さらに、例えば、この表示は、コンポーネントの中で共通であってもよく、予測パラメータ602の中の時間予測関連のパラメータは、データストリーム104特にコンポーネント内でシグナリングされ得る。図1および図2の実施を用いて、例えば、予測器122/222は、コンポーネントごとに、予測信号120/220を導き出すために予測パラメータ602を用いる。
さらに、データストリーム104は、図10の実施形態に従って、ここでは参照符号604によって示される、残差または変換ブロックへの画像102/202の再分割/分割をシグナリングする。データストリーム104内の残差/変換関連の再分割情報は、参照符号606を用いて示される。図3に関して上述のように、一方では予測ブロック308および他方では残差/変換ブロック604への画像102/202の再分割/分割は、少なくとも部分的に残差/変換ブロック604への再分割が予測ブロック308への画像102/202の階層的なマルチツリー再分割または例えば符号化ブロックへのいくつかの階層的な中間再分割の拡張を形成するという点で、互いに少なくとも部分的に結合され得る。
残差/変換ブロックごとに、データストリーム104は、例えば、量子化された変換係数の形で残差データ6081、6082、6083を含むことができる。残差データ6081〜6083を逆量子化しさらに逆変換することは、それぞれのコンポーネント、すなわち6101、6102および6103のための空間領域において残差信号を明らかにする。
図10に示されるように、データストリーム104は、本例において、コンポーネント間予測が適用され/用いられるか否かに関してグローバルに画像102/202のためにシグナリングするコンポーネント間予測フラグ612をさらに含む。コンポーネント間予測が用いられないことをコンポーネント間予測フラグ612がシグナリングする場合に、残差信号6101〜6103は、互いに結合されないが、それぞれのコンポーネントに関して、予測信号120/220を訂正するために別々に用いられる。しかしながら、コンポーネント間予測フラグ612がコンポーネント間予測の使用をシグナリングする場合に、データストリーム104は、残差/変換ブロックごとに、それぞれの従属コンポーネント2および3のために、コンポーネント間予測がそれぞれのコンポーネント2/3のために適用されるか否かをシグナリングするフラグ6142、6143を含む。適用されることがシグナリングされる場合に、データストリーム104は、それぞれのコンポーネントi=2/3のためのそれぞれの残差/変換ブロックのために、それぞれ、例えば上に概説された説明のαに対応する、コンポーネント間予測パラメータ6162および6163を含む。
このように、例えばコンポーネント間予測が用いられることをフラグ6142が第2のコンポーネントのために示す場合に、コンポーネント間予測パラメータ6162は、残差信号6101が残差信号6102を新しい残差信号6102´と置き換えるために残差信号6102に加算される重みを示す。そして、後者は、それぞれの予測信号1202/2202を訂正するために、残差信号6102の代わりに用いられる。
同様に、フラグ6143がそれぞれの残差/変換ブロックのためのコンポーネント間予測の使用を示す場合に、コンポーネント間予測パラメータ6163は、残差信号6103を置き換えて、第3のコンポーネントの予測信号1203/2203を訂正するために用いられる新しい残差信号6103´をもたらすために、残差信号6101が残差信号6103に加算される重みα3を示す。
コンポーネント間予測パラメータ6162/3が条件付きで続く第1のフラグ6141/2を別々に送信する代わりに、別のシグナリングが可能であってもよい。例えば、重みα2/3が符号付き値であってもよいように、その可能な値の領域は、ゼロの周辺に対称的に配置され、α2/3の絶対値は、コンポーネント2/3に関する限りコンポーネント間予測を用いないこととそれぞれのコンポーネント2/3のためのコンポーネント間予測を用いることとの場合の間を区別するために用いられ得る。特に、絶対値がゼロである場合に、これは、コンポーネント間予測を用いないことに対応する。そして、それぞれのパラメータα2/3のためのいかなる符号フラグのシグナリングも、データストリーム104において抑制され得る。リマインダーとして、図10の実施形態によれば、コンポーネント間予測は、コンポーネント2/3に関する限り残差/変換ブロックベースごとに変化され、その変化は、全くコンポーネント間予測を用いないことα2/3=0およびα2/3を変化してコンポーネント間予測を用いること(α2/3≠0)を含む。
しかしながら、フラグ612の範囲が異なって選択され得ることに留意されたい。例えば、フラグ612は、例えば画像102/202のスライスのようにより小さい単位にまたは例えば画像のグループ若しくは一連の画像のようにより大きい単位に関することができる。
すなわち、上述の構文は、データストリーム104において、例えば、2回画像の残差または変換ブロックごとに、例えばクロマコンポーネントのような第2および第3のコンポーネントのそれぞれのための1つを発生する一方で、ルマコンポーネントは、ベース(第1の)コンポーネントを形成する。
図10に関して前に示されるように、ちょうど概説された構文例は、図10の構成の代替案に対応する:log2_res_scale_abs_plus1は、αの絶対値をシグナリングし、さらに、構文要素がゼロである場合に、これは、それぞれのコンポーネントcのために用いられないコンポーネント間予測に対応する。しかしながら、用いられる場合に、res_scale_sign_flagは、シグナリングされさらにαの符号を示す。
今までに提示される構文要素の意味論は、以下のように提供され得る。
1に等しいcross_component_prediction_enabled_flagは、log2_res_scale_abs_plus1を特定し、さらに、res_scale_sign_flagは、PPSを参照する画像のための変換ユニット構文に存在してもよい。0に等しいcross_component_prediction_enabled_flagは、log2_res_scale_abs_plus1を特定し、さらに、res_scale_sign_flagは、PPSを参照する画像のために存在しない。存在しないときに、cross_component_prediction_enabled_flagの値は、0に等しいと推測される。ChromaArrayTypeが3に等しくないときに、cross_component_prediction_enabled_flagの値が0に等しいことは、ビットストリーム適合性の要件である。
log2_res_scale_abs_plus1[c]−1は、クロスコンポーネント残差予測において用いられるスケーリングファクタResScaleValの大きさの2を底とする対数を特定する。存在しないときに、log2_res_scale_abs_plus1は、0に等しいと推測される。
上述において、ResScaleValは、上述したαに対応する。
右シフト「>>3」は、8による除算に対応する。本例によれば、シグナリング可能なα値は、すでに上に例示されるように、{0,±0.125,±0.25,±0.5,±1}である。
log2_res_scale_abs_plus1は、それぞれ、切り捨てられた単項2値化およびバイナリ算術符号化およびバイナリ算術復号化および切り捨てられた単項逆2値化を用いてデータストリームにおいてシグナリングされ得る。バイナリ算術復号化/符号化は、コンテキスト適応的であってもよい。コンテキストは、局所近傍に基づいて選択され得る。例えば、log2_res_scale_abs_plus1の2値化のビンごとに、異なるコンテキストが選択され得る。コンテキストの異なるセットは、両方のクロマコンポーネントのために用いられ得る。同様に、res_scale_sign_flagは、それぞれ、データストリームバイナリ算術符号化およびバイナリ算術復号化においてシグナリングされ得る。バイナリ算術復号化/符号化は、コンテキスト適応的であってもよい。さらに、異なるコンテキストは、両方のクロマコンポーネントのために用いられ得る。代わりに、同じコンテキストが、両方のクロマコンポーネントのために用いられる。
記載されるように、log2_res_scale_abs_plus1からαの絶対値へのマッピング、すなわちResScaleVal>>3は、ビットシフト演算を用いて、すなわち指数関数によって、算術的に行われ得る。
2つのクロマコンポーネントのためのlog2_res_scale_abs_plus1およびres_scale_sign_flagのシグナリングは、後者の中のルマコンポーネントがゼロである場合に、特定の残差/変換ブロックのためにスキップされ得る。log2_res_scale_abs_plus1およびres_scale_sign_flagが図10においてシグナリング614および616のための例であるように、これは、デコーダが、第2のコンポーネント208の現在復号化された部分のために、データストリームからサブピクチャレベルの構文要素6142、6162、6143、6163を明確に読み込みさらに空間的に対応する部分442からコンポーネント信号256´2,3の再構成を実行するか、または、明確な読み込みをスキップし、さらに、任意に、空間的に対応する部分442から第2のコンポーネント信号256´2,3の再構成を実行しないが、その代わりとして、第2のコンポーネント信号2562,3を残すかのチェックに応じて、再構成された第1のコンポーネント信号2561の空間的に対応する部分442がゼロであるかどうかをおそらくチェックすることができることを意味する。
このように、図10は、データストリーム104から第1のコンポーネント206に関連する第1のコンポーネント信号6101を再構成し、さらに、データストリームから導き出される再構成された第1のコンポーネント信号6101および訂正信号6102,3の空間的に対応する部分442からマルチコンポーネント画像202の第2の(第3の)コンポーネント208/210に関連する第2のコンポーネント信号610´2,3の部分440を再構成することによって、異なるコンポーネント206、208、210に関してシーンを空間的にサンプリングするマルチコンポーネント画像202を復号化するように構成されるデコーダを例示する。第1のコンポーネント信号6101は、マルチコンポーネント画像202の第1のコンポーネント206の時間、空間またはビュー間予測の予測残差であり、さらに、デコーダは、マルチコンポーネント画像202の第1のコンポーネント206の時間、空間またはビュー間予測を実行し、さらに、再構成された第1のコンポーネント信号6101を用いて第1のコンポーネントの時間、空間またはビュー間予測を訂正することによってマルチコンポーネント画像の第1のコンポーネント206を再構成することができる。デコーダは、データストリームにおけるシグナリングに応じて、サブピクチャ粒度で、第1の重みα2,3を適応的に設定するように構成される。この目的で、デコーダは、サブピクチャ粒度で、データストリームから第1の重みの絶対値を読み込み、さらに、それがゼロであるかどうかを条件とする方法で第1の重みの符号を読み込むように構成される。デコーダは、サブピクチャ粒度で、データストリームから第1の重みの絶対値を読み込むことと、それがゼロであるかどうかを条件とする方法で第1のコンポーネント信号がゼロである部分で第1の重みの符号を読み込むこととをスキップするように構成される。第2のコンポーネント信号を再構成する際に、デコーダは、第1の重み(α2)によって重み付けされる、再構成された第1のコンポーネント信号の空間的に対応する部分を訂正信号に加算する。加算は、サンプル的な方法で空間領域において行われ得る。代わりに、それは、スペクトル領域において行われる。エンコーダは、予測ループにおいてそれを実行する。
いくつかの態様が装置との関連で記載されているにもかかわらず、これらの態様は、対応する方法の説明も表すことが明らかであり、ブロックまたは装置は、方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップとの関連で記載されている態様は、対応するブロック若しくはアイテムまたは対応する装置の特徴の説明も表す。方法ステップのいくつかまたは全ては、例えば、マイクロプロセッサ、プログラム可能なコンピュータまたは電子回路のようなハードウェア装置によって(またはそれを用いて)実行されてもよい。いくつかの実施形態において、最も重要な方法ステップのいずれかの1つ以上は、そのような装置によって実行されてもよい。
特定の実施要件に応じて、本発明の実施形態は、ハードウェアにおいてまたはソフトウェアにおいて実施することができる。実施は、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協働する(または協働することができる)電子的に可読の制御信号が格納される、デジタル記憶媒体、例えばフロッピー(登録商標)ディスク、DVD、ブルーレイ(登録商標)、CD、ROM、PROM、EPROM、EEPROMまたはFLASHメモリを用いて実行することができる。したがって、デジタル記憶媒体は、コンピュータ可読であってもよい。
本発明によるいくつかの実施形態は、ここに記載される方法のうちの1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる電子的に可読の制御信号を有するデータキャリアを含む。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実施することができ、そのプログラムコードは、コンピュータプログラム製品がコンピュータ上で実行されるときに、それらの方法のうちの1つを実行するために働く。プログラムコードは、例えば、機械可読のキャリアに格納されてもよい。
他の実施形態は、機械可読のキャリアに格納される、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを含む。
したがって、換言すれば、本発明の方法の実施形態は、コンピュータプログラムがコンピュータ上で実行されるときに、ここに記載される方法のうちの1つを実行するためのプログラムコードを有するコンピュータプログラムである。
したがって、本発明の方法のさらなる実施形態は、それに記録される、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを含むデータキャリア(またはデジタル記憶媒体またはコンピュータ可読の媒体)である。データキャリア、デジタル記憶媒体または記録媒体は、典型的に有形でありおよび/または一時的でない。
したがって、本発明の方法のさらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムを表すデータストリームまたは一連の信号である。データストリームまたは一連の信号は、例えば、データ通信接続を介して、例えばインターネットを介して、転送されるように構成されてもよい。
さらなる実施形態は、ここに記載される方法のうちの1つを実行するように構成されまたは適している処理手段、例えばコンピュータまたはプログラム可能な論理デバイスを含む。
さらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムがインストールされているコンピュータを含む。
本発明によるさらなる実施形態は、ここに記載される方法のうちの1つを実行するためのコンピュータプログラムをレシーバに(例えば、電子的にまたは光学的に)転送するように構成される装置またはシステムを含む。レシーバは、例えば、コンピュータ、モバイルデバイス、メモリデバイスなどであってもよい。装置またはシステムは、例えば、コンピュータプログラムをレシーバに転送するためのファイルサーバを含んでもよい。
いくつかの実施形態において、プログラム可能な論理デバイス(例えばフィールドプログラム可能なゲートアレイ)は、ここに記載される方法の機能のいくらかまたは全てを実行するために用いられてもよい。いくつかの実施形態において、フィールドプログラム可能なゲートアレイは、ここに記載される方法のうちの1つを実行するために、マイクロプロセッサと協働してもよい。一般に、その方法は、好ましくは、いかなるハードウェア装置によっても実行される。
ここに記載される装置は、ハードウェア装置を用いて、コンピュータを用いて、または、ハードウェア装置およびコンピュータの組合せを用いて、実施されてもよい。
ここに記載される方法は、ハードウェア装置を用いて、コンピュータを用いて、または、ハードウェア装置およびコンピュータの組合せを用いて、実行されてもよい。
上述の実施形態は、本発明の原理のために単に例示するだけである。ここに記載される構成および詳細の修正および変更が他の当業者にとって明らかであるものと理解される。したがって、本発明は、特許請求の範囲によってだけ制限され、ここに実施形態の記述および説明として示される具体的な詳細によって制限されないと意図される。

Claims (57)

  1. データストリーム(104)からマルチコンポーネント画像(202)の第1のコンポーネント(206)に関連する第1のコンポーネント信号(2561;2701)を再構成し、
    前記再構成された第1のコンポーネント信号(2561;2701)の空間的に対応する部分および前記データストリームから導き出される訂正信号(2562;2702)から前記マルチコンポーネント画像(202)の第2のコンポーネント(208)に関連する第2のコンポーネント信号(256´2;270´2)の部分(440)を再構成する(400)
    ことによって、異なるコンポーネント(206,208,210)に関してシーンを空間的にサンプリングするマルチコンポーネント画像(202)を復号化するように構成される、デコーダ。
  2. 前記デコーダは、
    前記マルチコンポーネント画像(202)をツリーブロック(302)に規則的に再分割し、コードブロック(304)への再帰的なマルチツリー再分割を用いて前記ツリーブロックを個々に再分割し、さらに予測ブロック(308)への再帰的なマルチツリー再分割を用いておよび残差ブロック(312)への再帰的なマルチツリー再分割を用いてそれぞれのコードブロックを個々に再分割し、さらに、前記残差ブロックを変換ブロック(316)に再分割し、
    前記コードブロックに応じたまたは前記予測ブロックに応じた粒度で前記データストリームに応じて予測モードを選択し、
    前記予測ブロックの粒度で前記データストリームに応じて予測パラメータを設定し、
    前記予測モードおよび予測パラメータを用いて予測信号(2201,2202,2203)を導き出し、
    前記変換ブロック内で個々に逆変換を実行することによってそれぞれの残差ブロック内で残差信号(2561,256´2,256´3)を導き出し、さらに
    前記残差信号を用いて前記予測信号を訂正することによって前記マルチコンポーネント画像(202)を再構成する
    ように構成されるブロックベースのハイブリッドビデオデコーダとして構成され、
    前記デコーダは、前記残差ブロックおよび/または変換ブロックの粒度で、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分および前記訂正信号から前記第2のコンポーネント信号の前記再構成を実行することと、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分に関係なく前記訂正信号から前記第2のコンポーネント信号を再構成することとの間で切り替えるために、前記データストリームにおけるシグナリング(6142;6143)に応答する、請求項1に記載のデコーダ。
  3. 前記デコーダは、前記第1のコンポーネント信号が前記マルチコンポーネント画像(202)の前記第1のコンポーネント(206)の時間、空間またはビュー間予測の予測残差であり、さらに、前記マルチコンポーネント画像(202)の前記第1のコンポーネント(206)の前記時間、空間またはビュー間予測を実行しさらに前記再構成された第1のコンポーネント信号を用いて前記第1のコンポーネントの前記時間、空間またはビュー間予測を訂正することによって前記マルチコンポーネント画像の前記第1のコンポーネント(206)を再構成するように構成される、請求項1または請求項2に記載のデコーダ。
  4. 前記デコーダは、前記第2のコンポーネント信号が前記マルチコンポーネント画像(202)の前記第2のコンポーネント(208)の時間、空間またはビュー間予測の予測残差であり、さらに、前記マルチコンポーネント画像の前記第2のコンポーネント(208)の前記時間、空間またはビュー間予測を実行しさらに前記再構成された第2のコンポーネント信号を用いて前記マルチコンポーネント画像(202)の前記時間、空間またはビュー間予測を訂正することによって前記マルチコンポーネント画像(202)の前記第2のコンポーネント(208)を再構成するように構成される、先行する請求項のいずれかに記載のデコーダ。
  5. 前記デコーダは、前記空間領域において前記訂正信号を得るために、前記データストリーム(104)から導き出された前記第2のコンポーネント(208)に関連するスペクトル係数に逆スペクトル変換(2262)を実行することによって前記訂正信号(2562)を得るように構成される、先行する請求項のいずれかに記載のデコーダ。
  6. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分(442)がサブピクチャ粒度で前記第2のコンポーネント信号の前記再構成に影響する第1の重み(α2)を適応的に設定するように構成される、先行する請求項のいずれかに記載のデコーダ。
  7. 前記デコーダは、前記データストリームにおけるシグナリングに応じて、前記サブピクチャ粒度で、前記第1の重み(α2)を適応的に設定するように構成される、請求項6に記載のデコーダ。
  8. 前記デコーダは、前記サブピクチャ粒度で、前記データストリームから第1の重みの絶対値を読み込み、さらに、それがゼロであるかどうかを条件とする方法で第1の重みの符号を読み込むように構成される、請求項6または請求項7に記載のデコーダ。
  9. 前記デコーダは、前記サブピクチャ粒度で、前記データストリームから前記第1の重みの絶対値を読み込むことと、それがゼロであるかどうかを条件とする方法で前記第1のコンポーネント信号がゼロである部分で前記第1の重みの符号を読み込むこととをスキップするように構成される、請求項8に記載のデコーダ。
  10. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、前記第1の重み(α2)によって重み付けされる、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分(442)を前記訂正信号に加算するように構成される、請求項6ないし請求項9のいずれかに記載のデコーダ。
  11. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、サンプル的な方法で空間領域において前記加算を実行するように構成される、請求項10に記載のデコーダ。
  12. 前記デコーダは、
    少なくとも画像範囲を有する、ハイレベルの構文要素構造(510)を前記データストリームから導き出し、
    前記少なくとも画像範囲で、所定の2値化の可能なビン列(518)の領域セットから前記第1の重みの可能な値の共同領域(520)へのマッピング(522)を構成し、さらに
    前記所定の2値化を用いて前記データストリームから第1の重み構文要素(514)をサブピクチャ粒度で読み込み、さらに前記第1の重み構文要素のビン列を前記マッピングにかけることによって前記第1の重みを導き出す
    ことによって、前記第1の重みを設定するように構成される、請求項6ないし請求項11のいずれかに記載のデコーダ。
  13. 前記デコーダは、前記ハイレベルの構文要素構造から、前記第1の重みの可能な非ゼロの値の所定のセットからの共同領域値の間隔の上下の境界(524)を導き出し、さらに、前記第1の重みを導き出す際に、前記第1の重み構文要素の前記読み込みおよびゼロフラグに応じて条件付きで前記かけることを実行して、前記第1の重みがゼロであるべきか否かを示す前記データストリームからのゼロフラグ(526)を、サブピクチャ粒度で、加えて読み込むように構成される、請求項12に記載のデコーダ。
  14. 前記デコーダは、前記マッピングを構成する際に、前記ハイレベルの構文要素構造から、下の境界整数値の符号および絶対値と上の境界整数値の符号および絶対値とを導き出し、整数領域指数関数を下の境界整数値および上の境界整数値の前記絶対値に適用し、さらに、ゼロを除く前記整数領域指数関数の共同領域から、前記第1の重みの可能な値の前記共同領域をつかむように構成される、請求項12または請求項13に記載のデコーダ。
  15. 前記デコーダは、前記第1の重み構文要素の絶対値部分のための前記所定の2値化として切り捨てられた単項2値化を用い、さらに、前記第1の重みを導き出す際に、前記第1の重み構文要素の絶対部分(530)の前に前記データストリームから前記第1の重み構文要素の符号部分(530)を読み込みさらに前記第1の重みの前記符号部分および前記共同領域の可能な値に応じて前記第1の重み構文要素の前記絶対部分の前記切り捨てられた単項2値化の長さを設定するように構成される、請求項12ないし請求項14のいずれかに記載のデコーダ。
  16. 前記デコーダは、前記ハイレベルの構文要素構造から、第1および第2の間隔境界(524)を導き出すように構成され、さらに、前記デコーダは、前記第1の重み構文要素の絶対値部分のための前記所定の2値化としてTUビン列の切り捨てられた単項2値化を用い、さらに、前記マッピングを構成する際に、前記第1および第2の間隔境界の比較に応じて前記TUビン列が前記共同領域の可能な値を横断するようにマッピングされる前記可能な値の順序を逆にするように構成される、請求項12ないし請求項15のいずれかに記載のデコーダ。
  17. 前記デコーダは、前記第2のコンポーネント信号(208)を再構成する際に、前記訂正信号がサブピクチャ粒度で前記第2のコンポーネント信号の前記再構成に影響する第2の重みを適応的に設定するように構成される、先行する請求項のいずれかに記載のデコーダ。
  18. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、前記訂正信号と前記再構成された第1のコンポーネント信号の前記空間的に対応する部分(442)の重み付けされた合計の重みをサブピクチャ粒度で適応的に設定し、さらに、少なくとも画像ごとに、前記再構成された第2のコンポーネント信号を得るために定数であるスカラー関数のスカラー引数として前記重み付けされた合計を用いるように構成される、先行する請求項のいずれかに記載のデコーダ。
  19. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、サブピクチャ粒度で、前記訂正信号、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分(442)および定数の重み付けされた合計の重みを適応的に設定し、さらに、少なくとも画像ごとに、前記再構成された第2のコンポーネント信号を得るために定数であるスカラー関数のスカラー引数として前記重み付けされた合計を用いるように構成される、先行する請求項のいずれかに記載のデコーダ。
  20. 前記デコーダは、局所近傍に基づいて後方駆動方法で前記重みを設定するように構成される、請求項18または請求項19に記載のデコーダ。
  21. 前記デコーダは、前方駆動方法で前記重みを訂正して、局所近傍に基づいて後方駆動方法で前記重みを設定するように構成される、請求項18または請求項19に記載のデコーダ。
  22. 前記デコーダは、前記マルチコンポーネント画像のすでに復号化された部分の属性に基づいて後方駆動方法で前記重みを設定するように構成される、請求項20または請求項21に記載のデコーダ。
  23. 前記デコーダは、
    第1の空間粒度で、
    結合された後方および前方適応方法、または、
    前方適応方法、
    後方適応方法で、
    前記重みをデフォルト値に設定し、さらに、
    前記第1の空間粒度よりも微細な第2の空間粒度で局所近傍に基づいて後方駆動方法で前記重みをリファインする
    ように構成される、請求項18ないし請求項22のいずれかに記載のデコーダ。
  24. 前記デコーダは、m個のアレイサブピクチャレベルの構文要素に応じて前記重みをm個の異なる状態のうちの1つに設定するように構成され、前記デコーダは、よりハイレベルの構文要素(510)からmを導き出すように構成される、請求項16ないし請求項23のいずれかに記載のデコーダ。
  25. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、サブピクチャ粒度で、
    空間領域において前記訂正信号(x)を得るために前記データストリームから導き出される前記第2のコンポーネント(208)に関するスペクトル係数に逆スペクトル変換を実行して、前記空間領域における前記訂正信号(x)を用いて前記第2のコンポーネント信号(z)を再構成すること(400)と、
    前記データストリームからスペクトル領域において前記訂正信号(x)を得て、前記スペクトル領域において、前記スペクトル領域において得られた前記訂正信号(x)を用いて前記第2のコンポーネント信号(z)を再構成(400)し、前記スペクトル領域において、前記再構成された第2のコンポーネント信号(z)を逆スペクトル変換にかけることと
    の間で、適応的に切り替えるように構成される、先行する請求項のいずれかに記載のデコーダ。
  26. 前記デコーダは、後方適応方法および/または前方適応方法(490)で前記適応的に切り替えることを実行するように構成される、請求項25に記載のデコーダ。
  27. 前記デコーダは、サブピクチャ粒度で、前記第2のコンポーネント信号の再構成の方向を、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分から前記第2のコンポーネント信号の前記再構成を実行することと、前記再構成を逆にして、前記再構成された第2のコンポーネント信号の空間的に対応する部分から前記第1のコンポーネント信号を再構成することとの間で、適応的に切り替えるように構成される、先行する請求項のいずれかに記載のデコーダ。
  28. 前記デコーダは、前記第1および第2のコンポーネント信号の中の順序をシグナリングする構文要素(472)に応答して、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分から前記第2のコンポーネント信号の前記再構成を実行することと、前記再構成された第2のコンポーネント信号の空間的に対応する部分から前記第1のコンポーネント信号を再構成するために前記再構成を逆にすることとの間で前記第2のコンポーネント信号の再構成の方向を適応的に切り替えるように構成される、請求項1ないし請求項27のいずれかに記載のデコーダ。
  29. 前記デコーダは、サブピクチャ粒度で、前記再構成された第1のコンポーネント信号だけに基づいてそれを再構成することと、前記再構成された第1のコンポーネント信号および第3の再構成されたコンポーネント信号に基づいてそれを再構成することとの間で前記第2のコンポーネント信号の前記再構成を適応的に切り替えるように構成される、先行する請求項のいずれかに記載のデコーダ。
  30. 前記第1および第2のコンポーネントは、カラーコンポーネントである、先行する請求項のいずれかに記載のデコーダ。
  31. 前記第1のコンポーネントは、ルマであり、さらに、前記第2のコンポーネントは、クロマコンポーネントである、先行する請求項のいずれかに記載のデコーダ。
  32. 前記デコーダは、第1の構文要素(612)に応じて、
    前記再構成された第1のコンポーネント信号に基づいて前記第2のコンポーネント信号の前記再構成をイネーブルにし、前記データストリームを解析する際に前記データストリームからサブピクチャレベルの構文要素(6142,6162,6143,6163)を読み込み、さらに、前記サブピクチャレベルの構文要素に基づいてサブピクチャ粒度で前記再構成された第1のコンポーネント信号に基づいて前記第2のコンポーネント信号の前記再構成を適応し、さらに
    前記再構成された第1のコンポーネント信号に基づいて前記第2のコンポーネント信号の前記再構成をディセーブルにし、さらに、前記サブピクチャレベルの構文要素を含まない前記データストリームをアドレス指定するために前記データストリームの前記解析を変える
    ために、前記データストリームにおいて第1の構文要素(612)に応答する、先行する請求項のいずれかに記載のデコーダ。
  33. 前記デコーダは、後方駆動方法で、
    前記再構成された第1のコンポーネント信号に基づく前記第2のコンポーネント信号の前記再構成をイネーブルにすることと、
    前記再構成された第1のコンポーネント信号に基づく前記第2のコンポーネント信号の前記再構成をディセーブルにすることと
    の間で局所的に切り替えるように構成される、先行する請求項のいずれかに記載のデコーダ。
  34. 前記デコーダは、後方駆動方法で前記局所的な切り替えを実行するように構成される、請求項33に記載のデコーダ。
  35. 前記デコーダは、前記第1のコンポーネント信号が前記マルチコンポーネント画像の前記第1のコンポーネントの時間、空間またはビュー間予測の予測残差であるように、且つ、前記マルチコンポーネント画像の前記第1のコンポーネントの前記時間、空間または、ビュー間予測を実行し、さらに前記再構成された第1のコンポーネント信号を用いて前記第1のコンポーネントの前記時間、空間またはビュー間予測を訂正することによって前記マルチコンポーネント画像の前記第1のコンポーネントを再構成するように構成され、
    前記デコーダは、前記第2のコンポーネント信号が前記マルチコンポーネント画像の前記第2のコンポーネントの時間、空間またはビュー間予測の予測残差であるように、且つ、前記マルチコンポーネント画像の前記第2のコンポーネントの前記時間、空間またはビュー間予測を実行し、さらに前記再構成された第2のコンポーネント信号を用いて前記マルチコンポーネント画像の前記時間、空間またはビュー間予測を訂正することによって前記マルチコンポーネント画像の前記第2のコンポーネントを再構成するように構成され、さらに
    前記デコーダは、前記第1および第2のコンポーネント信号が空間予測の予測残差であるかどうか、および前記空間予測のイントラ予測モードが一致するかどうかを局所的にチェックすることによって、または、前記第1および第2のコンポーネント信号が空間予測の予測残差であるかどうか、および前記空間予測のイントラ予測モードが所定の量よりも多くずれていないかどうかを局所的にチェックすることによって、前記局所的な切り替えを実行するように構成される
    、請求項33に記載のデコーダ。
  36. 前記デコーダは、前記データストリームにおけるシグナリングに応答して前方適応方法で決定を修正して後方駆動方法で最初に前記局所切り替えを決定するように構成される、請求項33に記載のデコーダ。
  37. 前記デコーダは、前記データストリームにおいて第2の構文要素に応答して、前記第2の構文要素に応じて、
    前記データストリームを解析する際に前記データストリームからサブピクチャレベルの構文要素を読み込み、前記サブピクチャレベルの構文要素に基づいて、前記再構成された第1のコンポーネント信号に基づく前記第2のコンポーネント信号のサブピクチャ粒度での前記再構成を適応させ、さらに
    前記再構成された第1のコンポーネント信号に基づく前記第2のコンポーネント信号の前記再構成を非適応的に実行する、先行する請求項のいずれかに記載のデコーダ。
  38. 前記第1および第2のコンポーネント(206,208)は、3つのカラーコンポーネントのうちの2つであり、前記デコーダは、前記マルチコンポーネント画像(202)の第3のカラーコンポーネント(210)に関する第3のコンポーネント信号も、前記再構成された第1または第2のコンポーネント信号の空間的に対応する部分および第3のコンポーネントのための前記データストリームから導き出される訂正信号から再構成するように構成され、前記デコーダは、前記第2および第3のコンポーネント信号のサブピクチャレベルでの前記再構成を個々に適応的に実行するように構成される、先行する請求項のいずれかに記載のデコーダ。
  39. 前記第1のコンポーネント(206)は、ルマであり、前記第2のコンポーネント(208)は、第1のクロマコンポーネントであり、さらに、前記第3のコンポーネント(210)は、第2のクロマコンポーネントであり、さらに、前記デコーダは、前記マルチコンポーネント画像の前記第1のカラーコンポーネントに関する前記第2のコンポーネント信号の前記再構成を適応するための第1のサブピクチャレベルの構文要素(6142,6162)および同じコンテキストをコンテキスト適応的に用いて前記再構成された第1または第2のコンポーネント信号の前記空間的に対応する部分から前記マルチコンポーネント画像の前記第1のカラーコンポーネントに関する前記第3のコンポーネント信号の前記再構成を適応するための第2のサブピクチャレベルの構文要素(6143,6163)をエントロピー復号化するように構成される、先行する請求項のいずれかに記載のデコーダ。
  40. 前記第1のコンポーネントは、ルマであり、前記第2のコンポーネントは、第1のクロマコンポーネントであり、さらに、前記第3のコンポーネントは、第2のクロマコンポーネントであり、さらに、前記デコーダは、前記マルチコンポーネント画像の前記第1のカラーコンポーネントに関する前記第2のコンポーネント信号の前記再構成を適応するための第1のサブピクチャレベルの構文要素および別々のコンテキストをコンテキスト適応的に用いて前記再構成された第1または第2のコンポーネント信号の前記空間的に対応する部分から前記マルチコンポーネント画像の前記第1のカラーコンポーネントに関する前記第3のコンポーネント信号の前記再構成を適応するための第2のサブピクチャレベルの構文要素をエントロピー復号化するように構成される、請求項1ないし請求項38のいずれかに記載のデコーダ。
  41. 前記デコーダは、前記データストリームを解析する際に前記データストリームからサブピクチャレベルの構文要素を読み込みさらに前記サブピクチャレベルの構文要素に基づいてサブピクチャ粒度で前記再構成された第1のコンポーネント信号に基づいて前記第2のコンポーネント信号の前記再構成を適応し、さらに、前記データストリームを解析する際に、前記第2のコンポーネントの現在復号化された部分のために、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分(442)がゼロであるかどうかをチェックし、さらに、前記チェックに応じて、
    前記データストリームから前記サブピクチャレベルの構文要素を明確に読み込みさらに前記再構成された第1のコンポーネント信号の前記空間的に対応する部分から前記第2のコンポーネント信号の前記再構成を実行し、または、
    前記明確な読み込みをスキップする
    ように構成される、先行する請求項のいずれかに記載のデコーダ。
  42. 前記デコーダは、ゴロムライスコードを用いて前記データストリームから前記サブピクチャレベルの構文要素をエントロピー復号化するように構成される、先行する請求項のいずれかに記載のデコーダ。
  43. 前記デコーダは、前記データストリームから前記サブピクチャレベルの構文要素をエントロピー復号化する際に、前記ゴロムライスコードのビンをバイナリ算術復号化するように構成される、請求項42に記載のデコーダ。
  44. 前記デコーダは、前記データストリームから前記サブピクチャレベルの構文要素をエントロピー復号化する際に、異なるコンテキストを用いて異なるビン位置で前記ゴロムライスコードのビンをバイナリ算術復号化するように構成される、請求項43に記載のデコーダ。
  45. 前記デコーダは、前記データストリームから前記サブピクチャレベルの構文要素をエントロピー復号化する際に、コンテキストでない、所定の値を超えるビン位置で前記ゴロムライスコードのビンをバイナリ算術復号化するように構成される、請求項43または請求項44に記載のデコーダ。
  46. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、前記再構成された第1のコンポーネント信号の前記空間的に対応する部分を空間再スケーリングし、および/またはそれにビット深度精密マッピングを実行するように構成される、先行する請求項のいずれかに記載のデコーダ。
  47. 前記デコーダは、後方および/または前方適応方法で、前記空間再スケーリングおよび/または前記ビット深度精密マッピングの実行を適応するように構成される、請求項46に記載のデコーダ。
  48. 前記デコーダは、
    後方および/または前方適応方法で、 空間フィルタを選択する
    ことによって前記空間再スケーリングを適応するように構成される、請求項46に記載のデコーダ。
  49. 前記デコーダは、
    後方および/または前方適応方法で、
    マッピング関数を選択する
    ことによって、前記ビット深度精密マッピングの前記実行を適応するように構成される、請求項48に記載のデコーダ。
  50. 前記デコーダは、前記第2のコンポーネント信号を再構成する際に、前記再構成された第1のコンポーネント信号の空間的にローパスフィルタリングされたバージョンから前記第2のコンポーネント信号を再構成するように構成される、先行する請求項のいずれかに記載のデコーダ。
  51. 前記デコーダは、前方適応方法でまたは後方適応方法で前記再構成された第1のコンポーネント信号の前記空間的にローパスフィルタリングされたバージョンから前記第2のコンポーネント信号の前記再構成を実行するように構成される、請求項50に記載のデコーダ。
  52. 前記デコーダは、前方適応方法でまたは後方適応方法で前記ローパスフィルタリングするために用いられるローパスフィルタを設定することによって前記再構成された第1のコンポーネント信号の前記空間的にローパスフィルタリングされたバージョンから前記第2のコンポーネント信号の前記再構成を適応するように構成される、請求項50に記載のデコーダ。
  53. 前記デコーダは、ビニングを用いて前記再構成された第1のコンポーネント信号の前記ローパスフィルタリングされたバージョンをもたらす前記空間的なローパスフィルタリングを実行するように構成される、請求項45に記載のデコーダ。
  54. 再構成された第1のコンポーネント信号(2561;2701)の空間的に対応する部分に基づいてコンポーネント間予測によって、マルチコンポーネント画像(202)の第2のコンポーネント(208)に関連する第2のコンポーネント信号(256´2;270´2)の部分(440)を符号化し(400)、さらに、前記コンポーネント間予測を訂正するための訂正信号(2562;2702)をデータストリームに挿入する
    ことによって、異なるコンポーネント(206,208,210)に関してシーンを空間的にサンプリングするマルチコンポーネント画像(202)を符号化するように構成される、エンコーダ。
  55. 異なるコンポーネント(206,208,210)に関してシーンを空間的にサンプリングするマルチコンポーネント画像(202)を復号化するための方法であって、
    データストリーム(104)から前記マルチコンポーネント画像(202)の第1のコンポーネント(206)に関連する第1のコンポーネント信号(2561;2701)を再構成するステップ、および
    前記再構成された第1のコンポーネント信号(2561;2701)の空間的に対応する部分および前記データストリームから導き出される訂正信号(2562;2702)から、前記マルチコンポーネント画像(202)の第2のコンポーネント(208)に関する第2のコンポーネント信号(256´2;270´2)の部分(440)を再構成するステップ(400)
    を含む、方法。
  56. 異なるコンポーネント(206,208,210)に関してシーンを空間的にサンプリングするマルチコンポーネント画像(202)を符号化するための方法であって、
    再構成された第1のコンポーネント信号(2561;2701)の空間的に対応する部分に基づいてコンポーネント間予測によって前記マルチコンポーネント画像(202)の第2のコンポーネント(208)に関連する第2のコンポーネント信号(256´2;270´2)の部分(440)を符号化するステップ(400)、および、前記コンポーネント間予測を訂正するための訂正信号(2562;2702)をデータストリームに挿入するステップ
    を含む、方法。
  57. コンピュータ上で実行されるときに、請求項55または請求項56に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2019071011A 2013-04-08 2019-04-03 コンポーネント間予測 Active JP6962576B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021165187A JP2022008930A (ja) 2013-04-08 2021-10-07 コンポーネント間予測

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361809608P 2013-04-08 2013-04-08
US61/809,608 2013-04-08
US201361846450P 2013-07-15 2013-07-15
US61/846,450 2013-07-15
EP14150373.0 2014-01-07
EP14150373 2014-01-07
JP2016506939A JP2016519898A (ja) 2013-04-08 2014-04-08 コンポーネント間予測

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016506939A Division JP2016519898A (ja) 2013-04-08 2014-04-08 コンポーネント間予測

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021165187A Division JP2022008930A (ja) 2013-04-08 2021-10-07 コンポーネント間予測

Publications (2)

Publication Number Publication Date
JP2019146218A true JP2019146218A (ja) 2019-08-29
JP6962576B2 JP6962576B2 (ja) 2021-11-05

Family

ID=49943174

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016506939A Pending JP2016519898A (ja) 2013-04-08 2014-04-08 コンポーネント間予測
JP2019071011A Active JP6962576B2 (ja) 2013-04-08 2019-04-03 コンポーネント間予測
JP2021165187A Pending JP2022008930A (ja) 2013-04-08 2021-10-07 コンポーネント間予測

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016506939A Pending JP2016519898A (ja) 2013-04-08 2014-04-08 コンポーネント間予測

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021165187A Pending JP2022008930A (ja) 2013-04-08 2021-10-07 コンポーネント間予測

Country Status (11)

Country Link
US (4) US10237567B2 (ja)
EP (3) EP3955577A3 (ja)
JP (3) JP2016519898A (ja)
KR (5) KR102127280B1 (ja)
CN (5) CN113259684A (ja)
DK (1) DK2984837T3 (ja)
ES (1) ES2665908T3 (ja)
HU (1) HUE038732T2 (ja)
PL (1) PL2984837T3 (ja)
PT (1) PT2984837T (ja)
WO (1) WO2014166965A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511678B2 (ja) 2020-06-10 2024-07-05 華為技術有限公司 チャネル間相関情報を用いた適応的画像向上

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102939750B (zh) * 2010-04-13 2016-07-06 Ge视频压缩有限责任公司 跨平面预测
ES2907203T3 (es) 2010-04-13 2022-04-22 Ge Video Compression Llc Codificación de vídeo que usa subdivisiones multiárbol de imágenes
CN106454370B (zh) 2010-04-13 2019-11-01 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器、编码方法及数据流
JP5718453B2 (ja) 2010-04-13 2015-05-13 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 復号化方法
ES2665908T3 (es) * 2013-04-08 2018-04-30 Ge Video Compression, Llc Predicción inter-componente
EP3058730B8 (en) * 2013-10-18 2021-03-10 GE Video Compression, LLC Multi-component picture or video coding concept
US10291915B2 (en) * 2014-03-06 2019-05-14 Samsung Electronics Co., Ltd. Video decoding method and apparatus and video encoding method and apparatus
US10200700B2 (en) * 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
EP3104610A1 (en) * 2015-06-10 2016-12-14 Thomson Licensing Method and device for encoding color differences for color picture data
KR102480191B1 (ko) * 2016-05-13 2022-12-21 브이아이디 스케일, 인크. 비디오 코딩을 위한 일반화된 다중-가설 예측 시스템 및 방법
CN109314782A (zh) * 2016-05-24 2019-02-05 夏普株式会社 用于帧内预测编码的系统和方法
AU2016231584A1 (en) * 2016-09-22 2018-04-05 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding video data
JP2018056685A (ja) * 2016-09-27 2018-04-05 株式会社ドワンゴ 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム
US10477240B2 (en) * 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US20190335170A1 (en) * 2017-01-03 2019-10-31 Lg Electronics Inc. Method and apparatus for processing video signal by means of affine prediction
US10977397B2 (en) 2017-03-10 2021-04-13 Altair Engineering, Inc. Optimization of prototype and machine design within a 3D fluid modeling environment
US10867085B2 (en) * 2017-03-10 2020-12-15 General Electric Company Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models
US10409950B2 (en) 2017-03-10 2019-09-10 General Electric Company Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US11538591B2 (en) 2017-03-10 2022-12-27 Altair Engineering, Inc. Training and refining fluid models using disparate and aggregated machine data
US10803211B2 (en) 2017-03-10 2020-10-13 General Electric Company Multiple fluid model tool for interdisciplinary fluid modeling
KR102558015B1 (ko) * 2017-04-13 2023-07-21 엘지전자 주식회사 영상의 부호화/복호화 방법 및 이를 위한 장치
CN111801946A (zh) 2018-01-24 2020-10-20 Vid拓展公司 用于具有降低的译码复杂性的视频译码的广义双预测
US11153599B2 (en) 2018-06-11 2021-10-19 Mediatek Inc. Method and apparatus of bi-directional optical flow for video coding
WO2019244931A1 (ja) * 2018-06-19 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
EP4254955A3 (en) 2018-08-09 2023-12-06 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Video image component prediction methods, decoder and encoder
BR112021002857A8 (pt) * 2018-08-17 2023-02-07 Mediatek Inc Métodos e aparelhos de processamento de vídeo com predição bidirecional em sistemas de codificação de vídeo
EP4383703A1 (en) 2018-12-12 2024-06-12 Humax Co., Ltd. Video signal processing method and device using current picture reference
JP7431827B2 (ja) * 2019-01-10 2024-02-15 オッポ広東移動通信有限公司 画像デコーディング方法、デコーダ及びコンピューター記憶媒体
JP7399973B2 (ja) * 2019-02-19 2023-12-18 ヒューマックス・カンパニー・リミテッド イントラ予測ベースのビデオ信号処理方法及び装置
KR20210139336A (ko) * 2019-03-12 2021-11-22 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 이미지 및 비디오 코딩을 위한 선택적 인터-컴포넌트 변환
WO2020197444A1 (en) * 2019-03-24 2020-10-01 Huawei Technologies Co., Ltd. Method and apparatus of quantizing coefficients for matrix-based intra prediction technique
KR102630415B1 (ko) 2019-04-24 2024-01-29 바이트댄스 아이엔씨 코딩 된 비디오의 양자화된 잔차 차동 펄스 코드 변조 표현의 제약
WO2020223467A1 (en) 2019-05-01 2020-11-05 Bytedance Inc. Intra coded video using quantized residual differential pulse code modulation coding
WO2020223615A1 (en) 2019-05-02 2020-11-05 Bytedance Inc. Coding mode based on a coding tree structure type
WO2020223612A1 (en) * 2019-05-02 2020-11-05 Bytedance Inc. Signaling in transform skip mode
EP3989554A4 (en) * 2019-06-19 2023-05-10 LG Electronics Inc. METHOD AND APPARATUS FOR PICTURE ENCODING AND DECODING FOR LIMITING THE PARTITION CONDITION OF A CHROMA BLOCK, AND METHOD FOR TRANSMITTING A BIT STREAM
US11509910B2 (en) * 2019-09-16 2022-11-22 Tencent America LLC Video coding method and device for avoiding small chroma block intra prediction
US11284111B2 (en) * 2019-10-10 2022-03-22 Tencent America LLC Techniques and apparatus for inter-channel prediction and transform for point-cloud attribute coding
WO2021086022A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 적응적 색상 변환을 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
CN115176474A (zh) * 2019-12-31 2022-10-11 抖音视界有限公司 多参数模型的跨分量预测
US11930177B2 (en) * 2021-10-29 2024-03-12 Tencent America LLC Primary transforms for cross-component level reconstruction

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124846A (ja) * 2009-12-11 2011-06-23 Kddi R & D Laboratories Inc 画像符号化装置

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1007211A5 (nl) * 1993-06-10 1995-04-25 Barco Werkwijze en inrichting voor het converteren van een beeld.
US6556624B1 (en) * 1999-07-27 2003-04-29 At&T Corp. Method and apparatus for accomplishing multiple description coding for video
US7469069B2 (en) * 2003-05-16 2008-12-23 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding image using image residue prediction
KR100624429B1 (ko) * 2003-07-16 2006-09-19 삼성전자주식회사 칼라 영상을 위한 비디오 부호화/복호화 장치 및 그 방법
US8014450B2 (en) * 2003-09-07 2011-09-06 Microsoft Corporation Flexible range reduction
EP1585060A1 (en) * 2004-04-06 2005-10-12 Visiowave S.A. Subband video coding with temporal prediction
MX2007012705A (es) * 2005-04-13 2008-03-14 Thomson Licensing Codificacion de luma y croma con el uso de un pronosticador comun.
CN101160974A (zh) * 2005-04-13 2008-04-09 汤姆逊许可公司 视频解码方法和设备
KR101246915B1 (ko) * 2005-04-18 2013-03-25 삼성전자주식회사 동영상 부호화 또는 복호화 방법 및 장치
JP5275806B2 (ja) * 2005-10-12 2013-08-28 トムソン ライセンシング スケーラブルビデオ符号化及び復号における重み付け予測方法及び装置
RU2369038C1 (ru) * 2005-11-30 2009-09-27 Кабусики Кайся Тосиба Способ кодирования изображения/декодирования изображения, устройство кодирования изображения/декодирования изображения
KR101311402B1 (ko) * 2006-03-23 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101200865B1 (ko) * 2006-03-23 2012-11-13 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
US8848789B2 (en) * 2006-03-27 2014-09-30 Qualcomm Incorporated Method and system for coding and decoding information associated with video compression
KR101311403B1 (ko) * 2006-07-04 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
JP5039142B2 (ja) * 2006-10-25 2012-10-03 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 品質スケーラブルな符号化方法
JP2010135864A (ja) * 2007-03-29 2010-06-17 Toshiba Corp 画像符号化方法及び装置並びに画像復号化方法及び装置
KR20100074276A (ko) * 2007-10-15 2010-07-01 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 및 화상 복호 방법
JP4870120B2 (ja) * 2008-05-16 2012-02-08 株式会社Jvcケンウッド 動画像階層符号化装置、動画像階層符号化方法、動画像階層符号化プログラム、動画像階層復号化装置、動画像階層復号化方法、および動画像階層復号化プログラム
KR20100018810A (ko) * 2008-08-07 2010-02-18 전자부품연구원 초고화질 영상 부호화, 복호화 방법 및 장치 및 컴퓨터로판독가능한 기록매체
US8279924B2 (en) * 2008-10-03 2012-10-02 Qualcomm Incorporated Quantization parameter selections for encoding of chroma and luma video blocks
EP2237557A1 (en) * 2009-04-03 2010-10-06 Panasonic Corporation Coding for filter coefficients
CN102726043B (zh) * 2009-11-06 2016-03-02 弗劳恩霍夫应用研究促进协会 混合视频编码
CN102640497B (zh) * 2009-11-30 2014-12-31 日本电气株式会社 视频编码设备和视频解码设备
KR101646085B1 (ko) * 2010-01-25 2016-08-05 톰슨 라이센싱 비디오 인코더, 비디오 디코더, 각각의 컬러 면에 대해 별개로 비디오 인코딩하기 위한 방법 및 비디오 디코딩하기 위한 방법
CN102939750B (zh) * 2010-04-13 2016-07-06 Ge视频压缩有限责任公司 跨平面预测
WO2011127964A2 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
ES2907203T3 (es) * 2010-04-13 2022-04-22 Ge Video Compression Llc Codificación de vídeo que usa subdivisiones multiárbol de imágenes
WO2011127963A1 (en) * 2010-04-13 2011-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sample region merging
KR101791242B1 (ko) * 2010-04-16 2017-10-30 에스케이텔레콤 주식회사 영상 부호화/복호화 장치 및 방법
WO2012012444A2 (en) * 2010-07-19 2012-01-26 Dolby Laboratories Licensing Corporation Enhancement methods for sampled and multiplexed image and video data
JP5512502B2 (ja) * 2010-12-13 2014-06-04 日本放送協会 符号化装置、復号装置及びプログラム
US9135724B2 (en) * 2011-03-11 2015-09-15 Sony Corporation Image processing apparatus and method
JP6094973B2 (ja) * 2011-05-20 2017-03-15 サン パテント トラスト 色平面内予測を用いて映像を符号化および復号する方法および装置
JP5707261B2 (ja) * 2011-07-12 2015-04-22 Kddi株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム
US20130051467A1 (en) * 2011-08-31 2013-02-28 Apple Inc. Hybrid inter/intra prediction in video coding systems
BR112014025563B1 (pt) * 2012-04-16 2023-12-05 Electronics And Telecommunications Research Institute Método para decodificar um sinal de vídeo
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
US9781447B1 (en) * 2012-06-21 2017-10-03 Google Inc. Correlation based inter-plane prediction encoding and decoding
US9979960B2 (en) * 2012-10-01 2018-05-22 Microsoft Technology Licensing, Llc Frame packing and unpacking between frames of chroma sampling formats with different chroma resolutions
US9661340B2 (en) * 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
ES2665908T3 (es) * 2013-04-08 2018-04-30 Ge Video Compression, Llc Predicción inter-componente
CN107534781B (zh) * 2015-02-05 2020-11-06 弗劳恩霍夫应用研究促进协会 支持分量间预测的3d视频编解码器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124846A (ja) * 2009-12-11 2011-06-23 Kddi R & D Laboratories Inc 画像符号化装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KAWAMURA, KEI AND NAITO, SEI ET AL: "Non-RCE1: Inter colour-component residual coefficients prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0263 (version 2), JPN6020006329, 24 October 2013 (2013-10-24), pages 1 - 5, ISSN: 0004426562 *
KAWAMURA, KEI ET AL.: "AHG7: Inter-plane intra coding for residual signals", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0191 (version 3), JPN6020006326, 12 January 2013 (2013-01-12), pages 1 - 4, ISSN: 0004426561 *
NGUYEN, T. ET AL.: "Non-RCE1/Non-RCE2/AHG5/AHG8: Adaptive Inter-Plane Prediction for RGB Content", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0230 (version 4), JPN6020006318, 21 April 2013 (2013-04-21), pages 1 - 6, ISSN: 0004426564 *
PU, WEI ET AL.: "Non-RCE1: Inter Color Component Residual Prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0266 (version 7), JPN6020006317, 30 July 2013 (2013-07-30), pages 1 - 7, ISSN: 0004426563 *
河村 圭 他: "CTB構造におけるイントラ予測残差信号のチャネル間予測符号化の評価", FIT2011 第10回情報科学技術フォーラム, JPN6020006323, 22 August 2011 (2011-08-22), JP, pages 1 - 4, ISSN: 0004426565 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511678B2 (ja) 2020-06-10 2024-07-05 華為技術有限公司 チャネル間相関情報を用いた適応的画像向上

Also Published As

Publication number Publication date
CN113259682A (zh) 2021-08-13
KR20200077610A (ko) 2020-06-30
ES2665908T3 (es) 2018-04-30
PT2984837T (pt) 2018-04-26
KR20230131286A (ko) 2023-09-12
EP2984837B1 (en) 2018-01-17
EP3955577A3 (en) 2022-03-16
US20200374538A1 (en) 2020-11-26
CN113259681A (zh) 2021-08-13
CN105409218B (zh) 2021-05-25
HUE038732T2 (hu) 2018-11-28
KR20150140352A (ko) 2015-12-15
CN105409218A (zh) 2016-03-16
JP6962576B2 (ja) 2021-11-05
US10743013B2 (en) 2020-08-11
PL2984837T3 (pl) 2018-07-31
EP3340628A1 (en) 2018-06-27
DK2984837T3 (en) 2018-04-30
US11595674B2 (en) 2023-02-28
US10237567B2 (en) 2019-03-19
KR20170097790A (ko) 2017-08-28
KR20220073861A (ko) 2022-06-03
KR101770317B1 (ko) 2017-09-05
JP2022008930A (ja) 2022-01-14
US20230283792A1 (en) 2023-09-07
KR102245088B1 (ko) 2021-04-28
WO2014166965A1 (en) 2014-10-16
KR102127280B1 (ko) 2020-06-26
US20160029035A1 (en) 2016-01-28
EP3340628B1 (en) 2021-03-31
CN113259684A (zh) 2021-08-13
JP2016519898A (ja) 2016-07-07
KR102573801B1 (ko) 2023-09-07
EP3955577A2 (en) 2022-02-16
US20190158861A1 (en) 2019-05-23
CN113259683A (zh) 2021-08-13
EP2984837A1 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP6962576B2 (ja) コンポーネント間予測
US11622129B2 (en) Intra prediction method and apparatus using the method
US20230276071A1 (en) Intra prediction method of chrominance block using luminance sample, and apparatus using same
CN109716771B (zh) 用于视频译码的线性模型色度帧内预测
KR102543505B1 (ko) 종속 양자화
CN112352429B (zh) 对视频数据进行编解码的方法、设备和存储介质
US11979554B2 (en) Intra prediction-based video signal processing method and device
KR20210046861A (ko) 성분-간 예측

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6962576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150