JP2021101541A - マルチコンポーネント画像またはビデオ符号化のコンセプト - Google Patents
マルチコンポーネント画像またはビデオ符号化のコンセプト Download PDFInfo
- Publication number
- JP2021101541A JP2021101541A JP2021024168A JP2021024168A JP2021101541A JP 2021101541 A JP2021101541 A JP 2021101541A JP 2021024168 A JP2021024168 A JP 2021024168A JP 2021024168 A JP2021024168 A JP 2021024168A JP 2021101541 A JP2021101541 A JP 2021101541A
- Authority
- JP
- Japan
- Prior art keywords
- component
- prediction
- signal
- icp
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Abstract
Description
ために、また、それぞれ、CbまたはCrは、2つの残りのクロマ要素を示すために、輝度またはY'に言及する。処理命令が若干のアプリケーションのために連続して起こること
がありえて、クロマコンポーネントの順序が重要でありえる点に注意することは、重要である。
本発明の実施形態によるマルチソースICPのサブピクチャ粒度のパラメータ化に関与することができる少なくとも一つの非ICP符号化モード、任意の付加的な信号の送信オーバーヘッドと符号化モード複数のソースICPの並置によって、そして、非ICP符号化モードに関連して符号化複数のソースICPの場合において増加し得るビデオの部分に制限することができ、少なくとも1つの非ICP符号化モードと、複数のソースICP符号化モードを並置することにより、任意の付加的な信号化オーバーヘッドは、ここで、本発明の実施形態に係るマルチソースICPのサブピクチャ粒度のパラメータ化に関与することができ、そして、それは、非ICP符号化モードに関連する複数のソースICP符号化モードの場合に増加することができ、この付加的な信号の送信オーバーヘッドは、コンポーネント間予測のために利用できる複数のコンポーネントのソースによって得られた符号化効率の向上によって過補償されたビデオの部分に制限されることがある。
信号の間のスイッチングは、それぞれ、予測ブロックの単位または、別の表現を用いて、符号化ユニットを用いて実行することができる。代替的に、変換ブロックを使用することができる。
本発明の好ましい実施形態は、図面に関連して以下に記載されている。
ポーネントCに関する第3のコンポーネント信号30を再構成するためのモジュール28を含み、後者のモジュール28は、第1のコンポーネント信号および第3のコンポーネント信号30を再構成する第2のコンポーネントの信号22および26からのコンポーネント間予測を使用するために、第1および第2のモジュール20および24の出力に接続された入力を有する。モジュール28は、コンポーネントCに関する第3のコンポーネント信号を再構築するために、第1および第2のコンポーネントAおよびBの信号22および26を使用するように、モジュール28によって用いられるコンポーネント間予測を向上させることができ、これにより、図1のデコーダ10が帰属するコーデックによって、達成可能な符号化効率を上昇させる。
ポーネントAを再構築するように構成され、符号化分岐32Bは、モジュール24を含み
、データストリーム12からのコンポーネントBを再構築するように構成され、復号化分岐32Cは、モジュール28を含み、データストリーム12からのコンポーネントCを再
構築するように構成されていて、そのような復号化分岐は、点線32A、32Bと32Cに
よって例示されている。特に、下で更に詳細に概説されるように、モジュール20と24で再建されて、モジュール28でコンポーネント間予測のために用いられる第1および第2のコンポーネント信号22および26は、実際に、予測残差を表わすことができる。再構成された第1のコンポーネント信号22は、例えば、分岐部32Aを復号化することに
よって実行されるコンポーネント間予測の予測残差、すなわち、単独のコンポーネントAの画像18の既に再構成された部分に基づいて、モジュール20によって実行されるコンポーネント間予測の予測残差を表すことができ、コンポーネント間予測は、空間的、時間的、および/または視点間予測であってもよい。同様に、第2のコンポーネント信号26は、復号化分岐32Bを実行することによって行われるコンポーネント間予測の予測残差
を意味することができる。すなわち、単にコンポーネントBの画像18の既に再構成された部分に基づくだけの予測残差を表すことができる。そこにおいて、このコンポーネント間予測は、空間的、時間的、および/または視点間予測である場合がある、同様に、再構成された第3のコンポーネント信号30は、復号化分岐32Cを実行することにより行う
コンポーネント間予測の予測残差を意味することができる。すなわち、単にコンポーネントCの画像18の既に再構成された部分に基づいてだけ行う予測残差を表わすことができる。そこにおいて、このコンポーネント間予測はまた、空間的、時間的、および/または視点間予測であってもよい。すなわち、空間的、時間的および/または視点間予測が用いられるかどうかにかかわらず、モジュール20、24や28で実行され視点間予測は、予測モードに関して変化してもよい。たとえば、予測モードは、コーディング装置、あるいは、別の文言を用いると、予測ブロック、すなわち、それぞれの符号化装置またはデータストリーム12内に信号を送るために用いられる予測モードを有する画像18の下位部分の単位で変化する。予測モードは、一般的にコンポーネントA、BおよびCについて、または個別に、または、さらにもっと、一方では第1のコンポーネントA、別途、他方では第2および第3のコンポーネントBおよびCについて、データストリーム12にシグナリングすることができる。データストリーム12でこのコンポーネント間予測の信号の送信に加えて、モジュール20、24および28は、コンポーネントに特有の信号が送られた予測残余のデータを受信する。予測残差データは、スペクトル分解の変換係数の形で、または空間領域において残留サンプルの形で、変換領域内のデータストリームに送信することができる。スペクトル領域において信号が送られる場合、コンポーネント間予測は、空間領域および/またはスペクトル領域において実行することもできる。データストリーム12のICP領域インジケータは、コンポーネント間予測が実行された領域を変化させることができる。例えば、前記の予測ブロックの単位において、または、前記のスペクトル
分解が実行される単位の変換ブロックの単位においてなど、ICP領域インジケータは、例えば、画像シーケンス、1つの画像またはサブピクチャ粒度で領域を変化させることができる。
2Cの中で実行されるコンポーネント間予測の予測残差に関するものである。図2を説明
した後に、図3および4は図1および2の実施例に適合しているエンコーダの実施形態を簡潔に提示している。そして、図1〜4の実施例を調整することに関するいろいろな実施形態例の詳細は、以降の図に関して記述されている。
ポーネント信号22、26および30を組み合わせるコンバイナ36A、36Bおよび36Cと、予測器34A、34Bおよび34Cによるコンポーネント間予測信号の出力と、モジュール20、24および28による出力とを備え、図1に従って構成されたデコーダ10を示している。具体的には、復号化ブランチ32Aのコンポーネント間予測器34Aは、順々に、再構築されたコンポーネントA、すなわちビデオの画像のコンポーネントAに関するサンプル値をもたらすように再構築された第1のコンポーネント信号22によりコンバイナ36Aで結合されるコンポーネント間予測信号40Aを生み出すように、コンポーネントA、すなわち38Aのためのコンポーネント間予測パラメータを介して制御される。モジ
ュール20は、先に述べたように、たとえばエントロピー符号化を使用して、空間またはスペクトルな領域において送られる第1のコンポーネント残差データ42Aにより、デー
タストリーム12を介して供給される。同様に、コンポーネント間予測34Bは、そこか
ら、モジュール24で出力される再構築された第2のコンポーネント信号26でコンバイナ36Bによって順番に結合される第2のコンポーネント間予測信号40Bを定めるよう
に、データストリーム12でコンポーネントB、すなわち、38Bのコンポーネント間予
測パラメータによって制御される。モジュール24は、残差データ42Aのように局所的
に適用される変換の残差サンプルの形態で、またはスペクトル分解の変換係数の形で空間領域にデータストリーム12中に存在することができるように、第2のコンポーネントの残差データ42Bによって供給される。しかしながら、図2に示された実施形態によれば
、モジュール24は、第1のコンポーネント信号22に基づいてモジュール24で適用されるコンポーネント間予測を変化させるように、データストリーム12に存在する、すなわち、44B、第2のコンポーネントのために、ICPパラメータデータを介して、さら
に制御される。このオプションは、先に述べたように、任意に除外することができる。特に、モジュール24は、第2のコンポーネント信号26を得るために、信号22と、データ42Bからの残差信号、すなわち、コンポーネントBのための信号が送られた残差信号
を、内部的に結合する。そして、それはコンポーネントBのためのコンポーネント間予測を形成して、それから、従って、ビデオの画像の第2のコンポーネントのサンプルをもたらすように、コンバイナ26Bによって第2のコンポーネント間予測信号40Bと結合される。
ト間予測器34Cは、コンポーネント間予測を実行して、コンポーネント間予測信号40Cを引き出すように、データストリーム12内に存在するコンポーネント間予測パラメータ44Cを介して制御される。そして、それは、第3のコンポーネント信号30で順番にコ
ンバイナ26Cによって組み合わされる。データストリーム12で第3のコンポーネント
残差データ42Cに基づいて残留して、そして、第3のコンポーネント、すなわち、データストリーム12の44Cのためのコンポーネント間パラメータデータを介して制御され
ているモジュール28のコンポーネント間予測により第1および第2のコンポーネント信号22および26に基づくコンポーネント間予測を用いている内部予測として、モジュール28は、第3のコンポーネント信号30を生み出す。例えば掛け算など、他の組合せが同様に用いることができるように、コンバイナ36A〜36Cの組合せは、図2で図示されるように、追加として実行され得る。
00の要素は、単に、その100が、デコーダの対応する要素のそれぞれの参照符号に加えられるという点でだけ、デコーダに関して使われるそれらと異なる参照符号を使用して参照する。したがって、図3のエンコーダ100は、それぞれのコンポーネントのためのコンポーネントA、BおよびCの各々のために、それぞれのモジュール、すなわち、モジュール120、124および128を含み、そこにおいて、モジュール120は、データストリーム12に第1のコンポーネント信号22を符号化するためのものであり、モジュール124は、データストリーム12に第2のコンポーネント信号26を符号化するためのものであり、モジュール128は、データストリーム12に第3のコンポーネント信号30を符号化するためのものであり、そこで、モジュール128は、第1および第2のコンポーネント信号22および26から、コンポーネント間予測を用いている。ちょうど先に述べたように、信号22、26と30は、残差信号、すなわち、コンポーネントに特有の符号化分岐132A、132Bおよび132C内で実行されるコンポーネント間予測の残
差信号をそれぞれ表すことができる。
ント間予測134A、134B、134Cと、残差前者136A、134B、134Cと、それぞれのモジュール120、124、128とを含む。コンポーネント間予測134A〜1
34Cに関する限り、それらは、デコーダ側における各予測子34A〜34Cと同様に作用
する。それらは、コンポーネント間予測として、コンポーネント間予測パラメータ38A
〜34Cに関して存在しているだけの違いで、ビデオ16のそれぞれのコンポーネントの
既に符号化された部分に基づいて、それぞれのコンポーネント間予測信号40A、40Bおよび40Cを生成している。予測子34A〜34Cが後者によって制御される間、たとえば
、予測器134A〜134Cは、率/歪曲最適化センスまたはその種の他のもので同じこと
を調節する。それから、残差形付け136A〜136Cは、それぞれ、のモジュール120、124および128で、データストリーム12内に符号化された損失性方法であるそれぞれの第1の命令のコンポーネント間予測信号120、124および130を得るように、コンポーネント間予測信号40A〜40Cとビデオ16とのそれぞれのコンポーネントの同じ位置に配置された部分の間で予測残差を形成している。それぞれの第1の命令予測残差信号122、すなわち、モジュール120で持ち出される符号化損失から解放される、第1の命令予測残差信号122の再構築バージョンは、データストリーム12に予測残差信号126を符号化するように、それから、コンポーネント間予測の根拠としてのモジュール124により用いられる信号22である。符号化の結果として、モジュール120は、第1のコンポーネント残差データ42Aを生成し、そして、それから、それはデータス
トリーム12に挿入される。同様に、モジュール124は、インバウンド残差信号126を符号化することの結果として、第2のコンポーネント残差データ42BとICPパラメータデータ44Bを生成し、そして、それから、それはデータストリーム12に挿入され
る。後者のデータに基づいて、残差信号126の再構築可能なバージョン、すなわち、データストリームに第1の命令残差信号130を符号化することへの残差信号22と一緒のコンポーネント間予測のためのモジュール128により用いられる再構築可能なバージョン26は、引き出すことが可能である。モジュール128を符号化することの結果として、モジュール128はICPパラメータデータ44Cとそれぞれの残差データ42Cを出力する。
65/HEVCになされ、そして、但し、2つのソースICP予測から生じている利点に
動機づけするために、以下で概説される全体の説明は、H.265/HEVCの拡張に限定されるものと扱われるべきではない。むしろ、以下の説明は、単に手本となって時々明確にH.265/HEVCに言及するだけである。
空間領域の、または、ICPはスペクトル領域でオリジナル信号、すなわち、ビデオ16、の上で実行される。すなわち、スペクトル分解の変換係数、例えば画像の変換ブロックを単位にして局所的に適用されるDCTなどの変換係数、または、ウェーブレット変換係数に関して、実行される。実施とアプリケーション効率面のために、すなわち同じことを改善するために、しかし、ICPは、記述されて、たとえば、図2および4に関して、上で例示されるコンポーネント間予測の残差信号上へ実行することができる。このような方法については、アフィン予測が複雑な理由のために使用することができる。さらに、簡略化したものは、線形予測につながる。後者の場合には、予測の唯一の勾配が、それぞれ、ICPパラメータデータ44Bおよび44Cの一部としてビットストリーム内の予測パラメータとして送信しなければならないことがある。しかしながら、さらに、以下に概説する実施例の拡張は、容易にアフィン変換またはより複雑な予測に拡張することができる。
r'(x,y)=rB(x,y)+α×r0(x,y)
ための最終的な残差サンプル値であり、すなわち、上記の式で、r'(x,y)は、空間位
置(x,y),rB(x,y)のコンポーネントBのための最終的な残差サンプル値であり、
すなわち、ビットストリーム、44Bに含まれるコンポーネントBのための予測パラメータα、および、r0(x,y)から得られるコンポーネントBのための復号化/シグナリン
グされた残差サンプルである。そして、予測ソース内の同じ空間位置にコンポーネントAの再構築された残差サンプルは、r0(x,y)が、rB(x,y)、すなわち、シグナリングされたコンポーネントAの残差を供給する。αが浮動小数点値でありえる点に注意してください。
はICPを適用することができる。
r'(x,y)=rB(x,y)+(α×r0(x,y))≫3
α∈[0,±1,±2,±3,±4,±5,±6,±7,±8]
α∈[0,±1,±2,±4,±8]
て、ビットストリーム、すなわち、実はデータストリーム12のICPパラメータデータ44Bの中に含まれるもの、からの復号化値である。
α=1≪αd
と同じソースコンポーネントの空間位置を用いた線形予測因子であり、唯一の予測モデルパラメータはαである。
r''(x,y)=rC(x,y)+α0×r0(x,y)+α1×r1(x,y)
得られるという第2のコンポーネント信号を基礎としてICPを使用することができる。すなわち、r'はモジュール28によって実行されるICPの基礎、すなわち1つの予測
ソースとして役立つことができる。すなわち、r'は、r1として用いることができる。しかし、上で記述されもしたように、選択肢に従って、モジュール24はICPを用いない。その場合、図2および4において、一方での、モジュールの20の出力とモジュール24との間の接続は、他方では、除外される(またはモジュール120と124との間で)。その場合、r1は、rBである。さらなる実施形態では、r1がコンポーネントAに基づ
いてICPを用いたモジュール26にもかかわらずrBと等しいために選ばれるという点
で、図2および4の実施形態は、修正することができる。その場合、図2の中でモジュール24からモジュール28まで通じている矢は、コンバイナ36Bに至っている出力以外のモジュール24のさらなる出力から始まっている。
される画像パラメータにおいてセットされるシーケンスパラメータのような セットした
シーケンスにおいて、または、スライスヘッダにおいてさえ送信することができる。精度は、追加ツールの使用状況によって異なり、例えば、タイルまたは波面処理のために、両方の並列処理のためのさらに異なるレベルのシグナリングさえ可能である。例えば、複数のソースICPは、全体のビデオシーケンスのために有効にすることができるが、シーケンス内の特定のコンテンツの無効化がある可能性がある。そのような例を考えると、ピクチャパラメータセットのグローバルフラグは、例えば、シーケンスパラメータセット中のフラグを上書きすることになる。
シグナリングすると想像する。その場合、たとえば、モジュール28と128は、それぞれ、コンポーネントCのブロック単位のためのICPを実行することができる。そして、それは、例えば予測ブロックまたはその種の他のものである。そこにおいて、ICPパラメータデータ44Cは、それぞれのブロック208が空間的に対応する部分204か、空
間的に対応する部分206からコンポーネント間予測であるかどうかについて、これらのブロック208のために示している。あるいは、中間の部分202の範囲内の画像のブロック208で、第3のコンポーネント信号30は、204および206の両方の部分の組合せから予測される。それから、各々の部分208が、例えば、それぞれのブロック208のためのコンポーネント間予測を与えている部分204および206の加重和の重み付けを示している重み付けの要因α0およびα1に関して、同じ位置に配置された部分204および206からのコンポーネント間予測である方法を、ICPパラメータデータ44C
は示すことができる。
このようなICPモード部202のために、コンポーネント間予測は、コンポーネントAおよびBの一定されたものの内の1つから、それぞれのモジュール28および128によって実行することができる。例えば、そのような非ICP符号化モード部202のブロック208は、コンポーネントAの同じ位置に配置されたブロック204から予測されるICPである場合がある。または、全体のブロック208は、同じ位置に配置されたブロック206からのコンポーネント間予測である場合がある。しかし、ブロック208間のスイッチングは可能でない。すなわち、部分202の範囲内の全てのどちらのブロック208でもコンポーネントAのブロック204からのコンポーネント間予測である。または、部分202の範囲内の全てのブロック208は、コンポーネントBのそれぞれの同じ位置に配置されたブロック206からのコンポーネント間予測である。
一方で、非ICP符号化モードが、動作中であるICPモード部202のために、ICPパラメータデータ44Cは存在しない。あるいは、ブロック208のためのICPパラメ
ータデータ信号44Cは、単に、重み付けの要因α0およびα1の内の1つだけが、それぞ
れの部分202内の全てのブロック208のために零に設定されている。
えば、たとえば、コンポーネントA、BおよびCは、たとえば輝度、第1のクロマと第2のクロマである場合がある。それから、ICPパラメータデータ44Cは、コンポーネン
ト間予測が、輝度、すなわちAか第1のクロマ成分、すなわち、Bであるかどうか、それぞれのブロック208のために示している210のフラッグを含む。ブロック208は、符号化ブロック、予測ブロックまたは変換ブロックでもよい。符号化ブロックは、たとえば、コンポーネント間予測のパラメータ38Cが、空間的および時間的予測との間に切り
替わるブロックである。予測ブロックは、コンポーネント間予測パラメータ38Cが、そ
れぞれの予測ブロックが一部である符号化ブロックのために信号化される種類の予測と関連した予測パラメータに信号を送るかまたは変化させるブロックであってもよい。例えば、もし、空間予測が符号化ブロックのためにシグナリングされるならば、予測ブロックのための予測パラメータ、または、その符号化ブロックの予測ブロックは、それぞれの予測
ブロックがミンポネントCの隣接したすでに復号化/符号化された部分から空間的に予測されることになっている空間方向に沿って信号化することができる。そして、それぞれの予測ブロックが帰属する符号化ブロックのために信号化されている時間的予測モードが生じた場合、予測ブロックは、予測パラメータとして運動ベクトルを信号化することができる。変換ブロックは、コンポーネントCのためのコンポーネント間予測が、スペクトル分解されたブロックであってもよい。この事については、予測のためのソースが輝度か第1のクロマ成分であるかどうか示しているフラグ210が結合することがあり得たか、他のICP予測パラメータ212、例えば予測重み付けαから独立していることがありえたかの点に留意する必要がある。そして、それは、ICP予測ソースを形成しているコンポーネントAの場合、α0として、また、ICP予測ソースを形成しているコンポーネントB
の場合、α1として用いられる。予測ソースは、常に、このような重み付けとして、予測
パラメータ(s)の後にシグナリングされるとき、たとえば、依存関係は与えられる。一方では、ソースが常に予測ブロックまたは符号化ブロックのためにフラグ210としてシグナリングされるとき、独立したケースがなされ得る。しかし、ICP予測パラメータ212は、変換ブロックごとに送信される。
であることをαがゼロに等しいかどうかをチェック222が明らかになった場合には、ICPパラメータデータ44Cは、このブロック208のためのさらなるICPパラメータ
データを含む。そして、224に示されるように、ICPはコンポーネントAとBのいずに基づいてもブロック208のために実行されない。しかし、αがゼロでない場合には、ICPパラメータデータ44Cはステップ226または228でICPパラメータデータ44Cから読み込まれるか、それに書かれるソースフラグ212としてICP予測ソースまたはブロック208のための信号を含む。
とを供給して、ICPはステップ220のαを用いて実行され、あるいは、ICP予測ソースの場合、α1がソースフラグでステップ230の第2のコンポーネントBであること
を示している。
用される逆の変換によって得られる。スペクトル領域の複数のソースICPを実行することは、それぞれ、基礎として、再び、図5Bおよび5Cの実施例のモジュールを使用している図5Fおよび5Gにおいて例示されている。ここで示されているように、信号24お
よび22が、空間的に一致する、すなわち同じ位置に配置される形で、到達することができて、 サンプルは、それらが(前に)変換217を前提としてどのケースでもよいか、
同じことのスペクトル分解を得るために、すなわち、係数を変える。あるいは、信号20および24は、すでに変換領域に到着する。変換217は、例えば、コンポーネントAとCとBとCとの間の変換ブロックのミスアライメントの場合には、それぞれ、必要であり得る。信号20および24の係数は、それぞれ、重みα0およびα1によって乗算されて、そして、それぞれであるもの、すなわち、スペクトルに対応して、42Cから得られるよ
うに係数によって、それぞれ、合計される。それから、合計された係数は、信号30を与えるために、逆変換216を受ける。
44で、リード/ライトされていることを示している。そこにおいて、モジュール24と28と124と128によるICPは、それぞれ、すなわち、246は、スワップ信号化248、第1のコンポーネントを基礎として実行されるICPのための重み、すなわちαを含む、ICPパラメータデータ44Bおよび44Cによって制御される。そして、それは、第2のコンポーネントのためのICPパラメータデータ44Bと、第2および第3のコ
ンポーネント間でICPのために使用される重み、すなわち、第3のコンポーネントのためのICPパラメータデータ44Cから取得されるα1から取得される。スワップ信号化に応じて、送信された残差信号42A〜42Cは、連続線または破線に従ってICP246に結合される。図から見ることができるように、第2コンポーネント信号26は、ICPによって第1のコンポーネントまたは第3のコンポーネントを基礎としてスワップ信号化に応じて得られる、そして、同様に、第3のコンポーネント信号30は、ICPによって第1のコンポーネントまたは第2のコンポーネントを基礎として得られる。実線で例示される非交換されたケースにおいて、ICPパラメータデータの重みαおよびα1は、それら
の意味のままである、すなわち、それらは第2のコンポーネント信号26および第3のコンポーネント信号30のICP予測をそれぞれ制御する。しかし、点線によって示される交換されたケースにおいて、ICPパラメータデータの重みαおよびα1は、それぞれ、
第1ステージおよび第2ステージのICP予測を制御するように、解釈し直される。ICPパラメータデータの重みαは、第1のステージICPに言及され、そして、ICPパラメータデータの重みα1は、第1のステージICPに言及される。交換されない場合、再
解釈は何も変えない。しかし、交換されたケースにおいて、第3のコンポーネント信号30は、第2のコンポーネント信号26の前に予測されるコンポーネント間予測である。その結果、ICPパラメータデータ重みα1は、実質的に、第2のコンポーネント信号26
を予測しているコンポーネント間予測のために使われる。言い換えると、スワップされた状態では、コンポーネント間予測に関する限り、第2のコンポーネントBは、前もって、
第3のコンポーネントCとその逆の役割を引き受けている。
で、図8の実施例が以前のものと結合することができる点に注意されたい。データ44C
が第2のステージICPに言及する、すなわち、信号がICPを受ける第2のコンポーネントのために、これが信号26または30であるどうか、解釈し直される。2つのソースは、スワップ信号化248にかかわりなく、両方のケースで利用できる。そして、ICPパラメータデータの重みα0は、両方のケースでコンポーネントAに基づいて、ICPを
支配するのに用いることができる。そして、非交換されたケースのコンポーネントAおよびB間に、そして、交換されたケースのコンポーネントAおよびC間に、それぞれ、切り替わるように、ソースインジケータは解釈することができる。
α1を使用しているAから個々に予測される。そして、コンポーネントAは、ちょうど先
に述べられたように、輝度とみなされる。しかし、たとえば、色の変化が起こることがシグナリングされるならば、それぞれ、BとCがα0またはα1を用いてAから個々に予測されて、それから、それらが色空間の変化への変換を一般に受ける、そして、それは、たとえば、ABC色空間を線形にYCC色空間に変える。コンポーネントBが、例えば、色空間変化が生じた場合だけAから予測されない間、それは、たとえば、色空間変化が生じた場合AとCから事実上予測される。あるいは、シグナリングされた色空間ABCをYCC色空間にマップピングしている2種類以上の色の変化の変換は、利用できるかもしれなくて、シグナルゼーション248を介して切り替えられる。このように、局所的に様々な方法では、ABCコンポーネントが送信される色空間は、2つ以上の色空間の間で変わることができ、そして、信号の送信248によってシグナリングされるように、YCCに対する変化は変化でないと色変換との間で変化する。信号の送信248は、ICP予測パラメータ信号が行なわれる単位以上の符号化装置のデータストリームにおいて送信することができる。そして、例えば、それはブロックを変換する。このように、α0またはα1は、コンポーネントBおよびCのために、変換ブロックのような第1のブロックで送信される。Bのために送信される残査rBは、rB’=rB+α0・rAに従うコンポーネントAのため
に送信される残査rAと結合される。そして、同様に、Cのために送信される残差rCは、rB’=rB+α1・rAに従うrAと結合される。予測残差信号(22、26、30)は、
簡単にするためにTを付し、または直接YCCの予測残差信号として、すなわち、(rY
,rC1,rC2)T=T・(rA,rB’,rC’)Tまたは(rY,rC1,rC2)T=(rA、rB’,rC’)Tのいずれかの残差を採用することにより、最終的にどちらかのYCC色に
RGB変換と同様とすることができる色変換によって得られる。色空間変換Tが適用されるかどうかは、信号の送信248を介して制御される。
で色空間において適用されるときに、αの値は、代表として、αまたはα0またはα1のい
ずれかのために使われ、主に正の比較的大きい値であり、すなわち、浮動小数点精度で、1または0.5である。一方で、Y'CbCrのために、αの値は、多くの場合、ゼロ値を
中心に、比較的小さい。非対称のマッピングとαの規制は、圧縮比に関してさらに効率を改善するために使用することができる。観察を考えると、αのマッピングは、以下の通りである。
α∈{0,±1,±2,+4,+8}またはα∈{0,±1,+2,+4,+8}
のICP予測パラメータ212に連結することができる。例えば重み、すなわち、現在特定されるICP予測パラメータは、ブロックまたは現在の予測ブロックまたは現在の符号化ブロックさえを変換する。本実施例において、予測ソースを示しているソースフラグ210が線形予測の場合、唯一の予測パラメータは、0.25および+0.25の範囲(または、整数値を有するαのための―2および+2の範囲、または、より正確であるために、整数は、そのノミネータを評価した)である場合だけ、しかし、全て込みで、符号化することができる。例えば、図6を参照。ここで、ICPパラメータまたはデータ44Cは、零と異なるαだけの場合に、ソースフラグを復号化することを必要とする。加えて、または、あるいは、ソースフラグは、αで特定の値範囲(例えば―0.25〜+0.25)においてあることが上記に言及した場合に備えてだけ、両方ともすべてこみで、特定のブロックのために、ICPパラメータデータ44Cによって含まれることがある。αがその
範囲の外にある場合、ソースフラグは、明確にデータストリームの中で送信されなくて、第1のコンポーネントAを例えばICP予測ソースと称するために例えば推定されないだろう。たとえば、コンポーネントAが輝度成であり、コンポーネントBおよびCが2つのクロマ成分であるならば、αの大きな絶対値は、第2のクロマ成分Cのための予測ソースが他の第1のクロマ成分Bよりもむしろ輝度成分であるという暗示である。このように、図6の中で、さらなるチェックは、αがソースフラグの伝送/読み込みを必要としている値の範囲内にあるかどうかについてチェックして、222と229の間に位置します。そうでないなら、ソースフラグは、読んだり/書いたりされず、さもなければ、ステップ229にアクセスされる。
ド化/復号化される。例えば、チェックは図7に加えられることができる。そして、それによれば、ICPパラメータデータ44Bがそれぞれの同じ位置に配置されたブロックか
らのコンポーネントBのコンポーネント間予測が、重みαを使って実行されることを同じ位置に配置されたブロックのために示すかどうかが、チェックされる。そして、それの大きさは、たとえば、若干の予め定められた値を越えます。その場合は、これが、コンポーネントA、BおよびCが、第3のコンポーネントCがたぶんICPでなければならないという場合が第2のコンポーネント、すなわち、推定の第1のクロマ成分を基礎として、そのように予測した。その場合、ソースフラグが推定されると、第2のコンポーネントをICP予測ソースと確認するために、YCCのような色空間に対応するという暗示として使うことができる。しかしながら、同じ位置に配置するもののためのαの大きさがブロックする場合、パラメータデータ44Bは、予め定められた値より小さいというICP予測に
よって示されるように、ソースフラグは、ICPパラメータデータの一部として現行のブロックのために信号44Cが送られる。
、重み付けは、上で示したように整数値を有する予測パラメータの場合、例えば、−2および2の両方とも全て込みの範囲である。
る同じ位置に配置されたブロックと関連した重みが予め定められた量より多くのものによって現在のブロックのために、ICPパラメータデータ44Cのαと異なるかどうかにか
かわらず、それはこの付加的なチェックでチェックされる。イエスの場合は、これは、コンポーネントA〜Cは、互いにYCC色空間のように関連がある。そして、したがって、ソースフラグが特定の第1のクロマ成分、すなわち、コンポーネントBをコンポーネントCのICPのためのICPソースと特定することが推測することができるという暗示と、これは解釈することができる。さもなければ、ソースフラグの読み取り/書き込みが実行
される。言い換えると、データ44CのICP予測パラメータ信号の送信212に応答し
て、第3のコンポーネント予測パラメータαは、サブピクチャ粒度で変化することができる。そして、同様に、第2コンポーネント信号44BのためのICP予測パラメータ信号
の送信に応答する。コンポーネント予測パラメータαは、サブピクチャ粒度で変化する。このように、重み付けは、コンポーネントBのためのICPとコンポーネントCのためのマルチソースICPとの間で局所的に異なる場合がある。かくして、チェックは、第2のコンポーネントおよび第3のコンポーネント予測パラメータが所定の限度を超えて異なる場合に、例えば偏差の基準として、α値の違いまたは指数を用いるように実行することができる。上記のように制限を超えた場所については、ICPソースインジケータ210は、そうでなければ、推論かもしれないが、それらは限界を超えて異なっていない場所のために、ICPソースインジケータ210は、データ44Cに存在してもよい。
ましい具体化でコード化されたサイン、つまり、パラメータが異なって実行されるという予測の量子化に従い、最大の許容された予測パラメータは、0.25と1の間で、両方ともすべてこみの範囲にあり得る。
法の1つを実行するためのコンピュータプログラムを含む、データ記憶媒体(またはデジタル記憶媒体またはコンピュータで読取り可能な媒体)である。データ記憶媒体、デジタル記憶媒体または記録された媒体は、典型的に有形および/または非推移的である。
ータプログラムをレシーバに移す(たとえば、電子的に、または、光学的に)ように構成される装置またはシステムを含む。レシーバは、例えば、コンピュータ、モバイル機器、メモリデバイスなどであってもよい。装置またはシステムは、例えば、レシーバへのコンピュータプログラムを移送するためのファイルサーバを含むことができる。
Claims (31)
- データストリーム(12)からマルチコンポーネント画像またはビデオ(16)の第1のコンポーネント(A)に関して第1のコンポーネント信号(22)を再構築し、
前記データストリーム(12)から前記マルチコンポーネント画像または前記ビデオ(16)の第2のコンポーネント(B)に関して第2のコンポーネント信号(26)を再構築し、
前記再構築された第1のコンポーネント信号(22)および前記再構築された第2のコンポーネント信号(26)からコンポーネント間予測を用いて前記マルチコンポーネント画像または前記ビデオ(16)の第3のコンポーネント(C)に関する第3のコンポーネント信号(30)を再構築することによって、
空間的に異なるコンポーネントに関するシーンをサンプリングし、前記マルチコンポーネント画像または前記ビデオ(16)を復号するように構成される、デコーダ。 - 前記デコーダは、前記データストリーム(12)において、1組のICP符号化モードのICP符号化モードの間で、前記マルチコンポーネント画像の異なるICPモード部分またはビデオ(16)のために切り替わるように、複数のソースICP信号の送信(200)に応答するように構成され、
複数のソースICP符号化モードと、
非ICP符号化モードおよび固定された1つのソースICP符号化モードの内の少なくとも1つとを含み、
前記複数のソースICP符号化モードは、前記デコーダが、シグナリングされたもの、または、前記再構築された第1のコンポーネント信号の空間的に対応する部分と前記再構築された第2のコンポーネント信号との組合せから前記コンポーネント間予測を用いている、前記マルチコンポーネント画像またはビデオの現在の画像の現在のサブ部分で前記第3のコンポーネント信号(30)を再建するように構成され、
前記非ICP符号化モードは、前記デコーダがいかなるコンポーネント間予測も用いていない前記マルチコンポーネント画像またはビデオの現在の画像の前記現在のサブ部分の前記第3のコンポーネント信号(30)を再構築するように構成され、
前記固定された1つのソースICP符号化モードは、前記デコーダが、前記再構築された第1のコンポーネント信号および前記再構築された第2のコンポーネント信号の固定された1つの空間的に対応する部分から前記コンポーネント間予測を用いている前記マルチコンポーネント画像またはビデオの前記現在の画像の前記現在のサブ部分の前記第3のコンポーネント信号を再構築するように構成され、そして、前記デコーダが、複数のソースICP信号の送信に応じて、前記固定された1つのソースICP符号化モードに切り替わる前記マルチコンポーネント画像またはビデオの各々の部分の範囲内で固定される、請求項1に記載のデコーダ。 - 前記複数のソースICP信号の送信は、前記ICPモード部分(202)が単一の画像、画像シーケンスまたはスライスであるように、前記データストリーム(12)でシグナリングされる、請求項2に記載のデコーダ。
- 前記第1のコンポーネント(A)は輝度であり、前記第2のコンポーネント(B)は第1のクロマ成分であり、前記第3のコンポーネント(C)は前記第2のクロマ成分である、請求項1〜請求項3のいずれかに記載のデコーダ。
- 前記デコーダは、前記再構築された第1のコンポーネント信号(22)の空間的に対応する部分からコンポーネント間予測を用いる前記マルチコンポーネント画像の現在の画像またはビデオ(16)の前記第3のコンポーネント信号(30)を再構築することと、前記再構築された第2のコンポーネント信号(26)の空間的に対応する部分からコンポーネ
ント間予測を用いる前記マルチコンポーネントビデオの前記現在の画像の中で前記第3のコンポーネント信号(30)を再構築することとの間に、第1のサブ画像粒度で、切り替わるように構成されている、請求項1〜請求項4のいずれかに記載のデコーダ。 - 前記デコーダは、前記再構築された第1のコンポーネント信号(22)の空間的に対応する部分からコンポーネント間予測を用いる前記マルチコンポーネント画像またはビデオ(16)の現在の画像の中で第3のコンポーネント信号(30)を再構築することと、前記データストリーム(12)内の明示的なICPソース信号の送信(210)に応答して、前記再構築された第2のコンポーネント信号(26)の空間的に対応する部分からコンポーネント間予測を用いるマルチコンポーネント画像またはビデオ(16)の現在の画像の中で前記第3のコンポーネント信号(30)を再構築することの間に、前記第1のサブ画像粒度で、切り替わるように構成されている、請求項1〜請求項5のいずれかに記載のデコーダ。
- 前記デコーダは、予測ブロックの単位で空間的、時間的および/または視点間予測モードの間で変わることにより、前記空間的、時間的および/または視点間予測を用いている前記マルチコンポーネント画像またはビデオの前記第3のコンポーネント(C)に関する前記第3のコンポーネント信号(30)の再構築するように構成され、前記デコーダは、前記第1のサブ画像粒度が予測ブロックの単位で前記現在の画像を再分割するように、構成されている、請求項5または請求項6のいずれかに記載のデコーダ。
- 前記デコーダは、前記マルチコンポーネント画像またはビデオの前記第3のコンポーネントに関し、空間的、時間的の、および/または視点間予測を使用して、そして、変換ブロックの単位で空間的、時間的の、および/または視点間予測により残差予測を逆変換することによって、前記第3のコンポーネント信号(30)の再構築を実行するように構成され、前記デコーダは、前記第1のサブ画像粒度が変換ブロックの単位で前記現在の画像を再分割するように構成されている、請求項5または請求項6のいずれかに記載のデコーダ。
- 前記デコーダは、変化することで線形予測を用いている前記再構築された第1のコンポーネント信号(22)および前記再構築された第2のコンポーネント信号(26)からの前記コンポーネント間予測を実行するように構成され、そして、前記再構築された第1のコンポーネント信号(22)および前記再構築された第2のコンポーネント信号(26)が第2のサブ画像粒度により前記コンポーネント間予測に線形に関与する重み付けにより、前記データストリーム(12)でICP予測パラメータ信号の送信(212)に応答するように構成されている、請求項1〜請求項8のいずれかに記載のデコーダ。
- 前記デコーダは、予測ブロックの単位で空間的、時間的および/または視点間予測モードの間で切り替わることにより、前記空間的、時間的および/または視点間予測を用いている前記マルチコンポーネント画像またはビデオの第3のコンポーネント(C)に関する前記第3のコンポーネント信号(30)の再構築を実行するように構成され、前記デコーダは、前記第1のサブ画像粒度が予測ブロックの単位で前記現在の画像を再分割するように構成されている、請求項1〜請求項9のいずれかに記載のデコーダ。
- 前記デコーダは、空間的、時間的および/または視点間予測を使用して、そして、変換ブロックの単位により、前記空間的、時間的および/または視点間予測により残差の予測を逆変換することによって、前記マルチコンポーネント画像またはビデオの第3のコンポーネント(C)に関する前記第3のコンポーネント信号(30)の再構築を実行するように構成され、前記デコーダは、前記第1のサブ画像粒度が変換ブロックの単位で前記現在の画像を再分割するように構成されている、請求項9または請求項10のいずれかに記載
のデコーダ。 - 前記デコーダは、零に関して非対称である不均一性の量子化により重み付けで前記データストリームの前記ICP予測パラメータ信号の送信(212)から抽出するように構成される、請求項9〜請求項11のいずれかに記載のデコーダ。
- 前記デコーダは、重さの一組の可能性がある値に属している零で前記データストリーム(12)において前記重み付けをICP予測パラメータ信号の送信(212)から抽出する(220)ように構成され、それぞれのブロックのための前記重み付けが、ICP予測パラメータ信号の送信による零であるかどうかにかかわらず、前記マルチコンポーネント画像またはビデオ(16)の現在の画像のブロックの各々のために、前記デコーダは、チェック(222)するように構成され、そして、もしそうでなければ、前記データストリーム(12)からそれぞれのブロック(208)のための前記ICPソース指標(210)を抽出(226)して、もし可能ならば、前記それぞれのブロックのために前記ICPソース指標の抽出が抑制(224)され、前記デコーダは、もし、それぞれのブロックのための前記重み付けが零でないならば、前記再構築された第1のコンポーネント信号(22)の空間的に対応するブロック(204)から線形予測を使っているそれぞれのブロックにおいて、それぞれの非ゼロの重み付けに従って、前記第3のコンポーネント信号(30)を再構築するように、あるいは、前記再構築された第2のコンポーネント信号(26)の空間的に対応するブロック(24)から線形予測を使っているそれぞれの前記ブロック(2
08)において、前記それぞれの非ゼロの重み付けに従って、前記第3のコンポーネント
信号(30)を再構築するように、それぞれのブロックのために前記ICPソース指標(
210)に応答(230)するように構成される、請求項9〜請求項12のいずれかに記
載のデコーダ。 - 前記デコーダは、前記重さの一組の可能性がある値に属している零でデータストリーム(12)によりで前記重み付けを前記ICP予測パラメータ信号の送信(212)から抽出するように構成され、そして、前記ICP予測パラメータ信号の送信(212)によるそれぞれのブロック(208)のための前記重み付けが予め定められた基準を満たすかどうかにかかわらず、前記マルチコンポーネント画像またはビデオの現在の画像のブロックの各々のために、前記デコーダがチェックされ、そして、もしそうでなければ、前記データストリームからの前記それぞれのブロックのために、そして、もし可能ならば、前記ICPソース指標(210)を得て、それぞれのブロックのための前記ICPソース指標の抽出を抑えて、予め定められた基準に前記ICPソース指標を前記それぞれのブロックにセットし、前記それぞれのブロックのための前記重みに応じて重み付けされ、前記再構築された第1のコンポーネント信号の空間的に対応するブロックから線形予測を使っている前記それぞれのブロックの前記第3のコンポーネント信号を再構築するように、または、前記それぞれのブロックのための前記重みに応じて重み付けされ、前記再構築された第2のコンポーネント信号の空間的に対応するブロックから線形予測を使っている前記それぞれのブロックの前記第3のコンポーネント信号を再構築するように、前記それぞれのブロックのための前記ICPソース指標に応答するように、前記デコーダが構成される、請求項9〜請求項13のいずれかに記載のデコーダ。
- 前記デコーダは、最初に前記重み付けのサインを復号化して、前記サインに応じたコンテキストモデリングを用いて、その絶対値を復号化することによってデータストリームで前記重み付けを前記ICP予測パラメータ信号の送信(212)から抽出するように構成されている、請求項9〜請求項14のいずれかに記載のデコーダ。
- 前記デコーダは、空間、時間的および/または視点間予測で、残差予測の上へ、前記コンポーネント間予測を適用することにより、前記空間的、時間的および/または視点間予
測(34C)を用いている前記マルチコンポーネント画像またはビデオの前記第3のコンポーネント(C)に関する前記第3のコンポーネント信号(30)の再構築を実行するように、構成されている、請求項9〜請求項14のいずれかに記載のデコーダ。 - 前記デコーダは、前記マルチコンポーネント音声信号の前記第1および第2のコンポーネントに関して、コンポーネント内部の空間的、時間的および/または視点間予測(34A、34B)を実行するように構成され、そして、前記再構築された第1のコンポーネント信号および前記再構築された第2のコンポーネント信号は、前記マルチコンポーネント音声信号の前記第1および第2のコンポーネントに関して、前記空間的、時間的および/または視点間予測の予測残余であるように構成されている、請求項1〜請求項16のいずれかに記載のデコーダ。
- 前記デコーダは、前記マルチコンポーネント画像の第3のコンポーネントまたはコンポーネント内部の空間的、時間的および/または視点間予測(34C)を使用して、そして、スペクトル領域から空間領域まで、前記コンポーネント内部の空間的、時間的および/または視点間予測で、残差予測を逆変換する(216)ことにより、ビデオに関して、前記第3のコンポーネント信号の前記再構築を実行して、そして、前記空間領域で前記残差予測または前記スペクトル領域の上へ前記コンポーネント間予測を適用するように、構成されている、請求項1〜請求項17のいずれかに記載のデコーダ。
- 前記デコーダは、コンポーネント内の空間的、時間的および/または視点予測(34A、34B)を用いて、前記第1および第2のコンポーネント信号の前記再構築を実行するように構成されている、請求項1〜請求項18のいずれかに記載のデコーダ。
- 前記デコーダは、前記再構築された第1のコンポーネント信号の空間的に対応する部分(204)から前記コンポーネント間予測を使っている前記マルチコンポーネント画像の現在の画像またはビデオの中の前記第3のコンポーネント信号を再構築することと、そして、前記再構築された第2のコンポーネント信号の空間的に対応する部分(206)から前記コンポーネント間予測を使っている前記マルチコンポーネント画像の現在の画像またはビデオの中の前記第3のコンポーネント信号を再建することとの間に、前記第1のサブ画像粒度で切り替わるようにして構成され、前記再構築された第1のコンポーネント信号および前記再構築された第2のコンポーネントが異なることによる予め定められた予測モデルを使っていて、前記データストリームで第2のサブ画像粒度で予測モデルの予測パラメータの信号、つまり、ICP予測パラメータ信号の送信(212)に応答してコンポーネント間予測を実行して、前記データストリームで明示的なICPソース信号の送信(210)に応答する前記第1のサブ画像粒度でスイッチングを行って、予測モデルの予測パラメータに対応しているコンテキストモデリングを用いたデータストリームから明示的なICPソース信号の送信を復号化するように、構成されている、請求項1〜請求項19のいずれかに記載のデコーダ。
- 前記デコーダは、前記予測パラメータのような勾配によって制御される予測モデルとして、線形予測を用いるように構成されている、請求項19に記載のデコーダ。
- 前記デコーダは、そのサブ部分のための勾配が正であるか負であるかどうかにかかわらず、前記マルチコンポーネント画像またはビデオの現在の画像の現在のサブ部分についてチェック(229)し、前記チェックに応じて前記コンテキストモデリングを実行するように構成されている、請求項19または請求項21に記載のデコーダ。
- 前記デコーダは、そのサブ部分のための勾配が所定の間隔内にあるかどうか、前記マルチコンポーネント画像またはビデオの現在のピクチャの現在のサブ部分のためにチェック
して、前記チェックに応じてコンテキストモデリングを実行するように構成されている、請求項19または請求項22に記載のデコーダ。 - 前記デコーダは、前記マルチコンポーネント画像またはビデオの現在の画像の予め定められたサブ部分のために、前記データストリーム(12)から第1および第2の予測パラメータを得て、予め定められた予測モデルと前記第1の予測パラメータを用いる再構築された第1のコンポーネント信号(22)からコンポーネン間予測を実行して、前記予め定められた予測モデルと前記第2の予測パラメータを用いる再構築された第2のコンポーネント信号(26)から前記コンポーネント間予測を実行して、線形に再構築された第1のコンポーネント信号からの前記コンポーネント間予測と、前記再構築された第2のコンポーネント信号からのコンポーネント間予測とを結合するように、構成されている、請求項1〜請求項23のいずれかに記載のデコーダ。
- 前記デコーダは、第3のサブ画像粒度で、前記再構築された第3のコンポーネント信号と前記再構築された第2のコンポーネント信号をスワップするために、前記データストリームでスワップ信号の送信(248)に応答する、請求項1〜請求項24のいずれかに記載のデコーダ。
- 前記データストリーム(12)の前記第3のコンポーネント信号(30)のためのICP予測パラメータ信号の送信(212)に応答して、サブ画像粒度で前記予測モデルの第3のコンポーネント予測パラメータを切り替えることで、予め定められた予測モデルを使っている前記再構築された第1のコンポーネント信号(22)および前記再構築された第2のコンポーネント信号(26)からの前記コンポーネント間予測を実行するように、デコーダが構成され、そして、
前記再構築された第1のコンポーネント信号(22)から前記コンポーネント間予測を使っている前記マルチコンポーネント画像の前記第2のコンポーネント(B)またはビデオに関する前記第2のコンポーネント信号(26)の再構築を実行して、そして、前記データストリーム(12)の前記第2のコンポーネント信号のためのICP予測パラメータ信号の送信に応答して、サブ画像粒度で予測モデルのコンポーネント信号予測パラメータを切り替えることで予め定められた前記予測モデルを使っている前記再構築された第1のコンポーネント信号(22)からの前記コンポーネント間予測を実行するように、デコーダが構成され、そして、
前記第2のコンポーネンテトおよび第3のコンポーネントの予測パラメータが予め定められた制限を超えて異なる場合にチェックし、そして、場所のためでない場合、前記データストリームからのそれぞれの場所のために、前記場所のためにICPソース指標(210)を抽出し、そこで、イエスであれば、ICPソース指標(210)の抽出を抑えて、予め定められた基準にICPソース指標(210)をそれぞれの場所に設定し、そして、デコーダは、それぞれの場所のためのICPソース指標(210)をそれぞれの第3のコンポーネント予測パラメータによって重み付けされるように設定され、前記再構築された第1のコンポーネント信号の空間的に対応する位置から線形予測を使っているそれぞれの場所の前記第3のコンポーネント信号を再構築するように、ICPソース指標(210)に応答するように構成されるか、あるいは、(それぞれの第3のコンポーネント予測パラメータによって重み付けされ、前記再構築された第2のコンポーネント信号の空間的に対応する位置から線形予測を使っているそれぞれの場所の前記第3のコンポーネント信号を再構築するように、構成される、請求項1〜請求項25のいずれかに記載のデコーダ。 - 前記マルチコンポーネント画像またはビデオの前記第3のコンポーネント(C)に関して前記第3のコンポーネント信号(30)を再構築する際に、前記第3のコンポーネントのための残差信号を前記データストリームから抽出して、それによって前記コンポーネント間予測を修正するように構成されている、請求項1〜請求項26のいずれかに記載のデコー
ダ。 - 空間的に異なるコンポーネントに関するシーンをサンプリングし、マルチコンポーネント画像またはビデオ(16)を復号化するための方法であって、
前記方法は、
前記データストリーム(12)から前記マルチコンポーネント画像または前記ビデオ(16)の第1のコンポーネント(A)に関して第1のコンポーネント信号(22)を再構築する工程、
前記データストリーム(12)から前記マルチコンポーネント画像または前記ビデオ(16)の第2のコンポーネント(B)に関して第2のコンポーネント信号(26)を再構築する工程、および
前記再構築された前記第1のコンポーネント信号(22)および前記再構築された第2のコンポーネント信号(26)からコンポーネント間予測を用いて前記マルチコンポーネント画像または前記ビデオ(16)の第3のコンポーネント(C)に関する第3のコンポーネント信号(30)を再構築する工程を含む、方法。 - データストリーム(12)にマルチコンポーネント画像またはビデオ(16)の第1のコンポーネント(A)に関して第1のコンポーネント信号(22)を符号化すること、
前記データストリーム(12)に前記マルチコンポーネント画像または前記ビデオ(16)の第2のコンポーネント(B)に関して第2のコンポーネント信号(26)を符号化すること、
前記符号化された第1のコンポーネント信号(22)および前記符号化された第2のコンポーネント信号(26)からコンポーネント間予測を用いて前記マルチコンポーネント画像または前記ビデオ(16)の第3のコンポーネント(C)に関する第3のコンポーネント信号(30)を符号化することによって、
空間的に異なるコンポーネントに関するシーンをサンプリングし、前記マルチコンポーネント画像または前記ビデオ(16)を符号化するように構成される、エンコーダ。 - 空間的に異なるコンポーネントに関するシーンをサンプリングし、マルチコンポーネント画像またはビデオ(16)を符号化するための方法であって、
前記データストリーム(12)にマルチコンポーネント画像またはビデオ(16)の第1のコンポーネント(A)に関して第1のコンポーネント信号(22)を符号化する工程、
前記データストリーム(12)に前記マルチコンポーネント画像または前記ビデオ(16)の第2のコンポーネント(B)に関して第2のコンポーネント信号(26)を符号化する工程、および
前記符号化された第1のコンポーネント信号(22)および前記符号化された第2のコンポーネント信号(26)からコンポーネント間予測を用いて前記マルチコンポーネント画像または前記ビデオ(16)の第3のコンポーネント(C)に関する第3のコンポーネント信号(30)を符号化する工程を含む、方法。 - コンピュータプログラムは、コンピュータで動作しているときに、実行するためのプログラムコードを有する、請求項28または請求項30に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023015016A JP2023065387A (ja) | 2013-10-18 | 2023-02-03 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13189444 | 2013-10-18 | ||
EP13189444.6 | 2013-10-18 | ||
JP2018202249A JP6841807B6 (ja) | 2013-10-18 | 2018-10-26 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018202249A Division JP6841807B6 (ja) | 2013-10-18 | 2018-10-26 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023015016A Division JP2023065387A (ja) | 2013-10-18 | 2023-02-03 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021101541A true JP2021101541A (ja) | 2021-07-08 |
JP7223045B2 JP7223045B2 (ja) | 2023-02-15 |
Family
ID=49474248
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016524405A Active JP6656147B2 (ja) | 2013-10-18 | 2014-10-17 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
JP2018202249A Active JP6841807B6 (ja) | 2013-10-18 | 2018-10-26 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
JP2021024168A Active JP7223045B2 (ja) | 2013-10-18 | 2021-02-18 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
JP2023015016A Pending JP2023065387A (ja) | 2013-10-18 | 2023-02-03 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016524405A Active JP6656147B2 (ja) | 2013-10-18 | 2014-10-17 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
JP2018202249A Active JP6841807B6 (ja) | 2013-10-18 | 2018-10-26 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023015016A Pending JP2023065387A (ja) | 2013-10-18 | 2023-02-03 | マルチコンポーネント画像またはビデオ符号化のコンセプト |
Country Status (6)
Country | Link |
---|---|
US (4) | US10230949B2 (ja) |
EP (2) | EP3058730B8 (ja) |
JP (4) | JP6656147B2 (ja) |
KR (4) | KR20220156106A (ja) |
CN (2) | CN111526359B (ja) |
WO (1) | WO2015055832A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9948933B2 (en) | 2014-03-14 | 2018-04-17 | Qualcomm Incorporated | Block adaptive color-space conversion coding |
JP6416060B2 (ja) * | 2015-09-02 | 2018-10-31 | 株式会社東芝 | 画像圧縮装置、画像伸張装置および画像伝送システム |
CN105306944B (zh) * | 2015-11-30 | 2018-07-06 | 哈尔滨工业大学 | 混合视频编码标准中色度分量预测方法 |
CN105491390B (zh) * | 2015-11-30 | 2018-09-11 | 哈尔滨工业大学 | 混合视频编码标准中帧内预测方法 |
WO2017139937A1 (en) * | 2016-02-18 | 2017-08-24 | Mediatek Singapore Pte. Ltd. | Advanced linear model prediction for chroma coding |
JP6680260B2 (ja) * | 2017-04-28 | 2020-04-15 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム |
GB2571311B (en) * | 2018-02-23 | 2021-08-18 | Canon Kk | Methods and devices for improvement in obtaining linear component sample prediction parameters |
GB2571313B (en) | 2018-02-23 | 2022-09-21 | Canon Kk | New sample sets and new down-sampling schemes for linear component sample prediction |
CN110012294B (zh) * | 2019-04-02 | 2021-03-23 | 上海工程技术大学 | 一种用于多分量视频的编码方法及解码方法 |
CN110312136A (zh) * | 2019-05-10 | 2019-10-08 | 同济大学 | 一种对多分量数据的编码和解码方法 |
CN115004697A (zh) * | 2019-12-04 | 2022-09-02 | 抖音视界(北京)有限公司 | 来自多个跨分量的预测 |
US11816868B2 (en) | 2020-08-14 | 2023-11-14 | Tencent America LLC | Coding of multiple-component attributes for point cloud coding |
CN113489974B (zh) * | 2021-07-02 | 2023-05-16 | 浙江大华技术股份有限公司 | 帧内预测方法、视频/图像编解码方法及相关装置 |
US11863775B2 (en) | 2021-07-21 | 2024-01-02 | Tencent America LLC | Cross-component transform coefficient level reconstruction |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009518940A (ja) * | 2006-07-04 | 2009-05-07 | サムスン エレクトロニクス カンパニー リミテッド | 画像の符号化方法及び装置、復号化方法及び装置 |
US20120307899A1 (en) * | 2009-12-07 | 2012-12-06 | Sk Telecom Co., Ltd. | Apparatus and method for encoding/decoding multi-plane images using bi-prediction and recording medium using same |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL129203A (en) * | 1999-03-28 | 2002-07-25 | Univ Ramot | System and method for compressing figures |
JP2001292372A (ja) * | 2000-04-04 | 2001-10-19 | Pioneer Electronic Corp | 画像変化検出装置及び画像変化検出方法、画像符号化装置並びに画像変化検出用プログラムがコンピュータで読取可能に記録された情報記録媒体 |
CN101189875B (zh) * | 2005-04-13 | 2010-11-17 | 汤姆逊许可公司 | 利用公共预测器的亮度和色度编码 |
KR101138393B1 (ko) * | 2005-07-15 | 2012-04-26 | 삼성전자주식회사 | 부호화 모드에 따른 컬러 성분간 예측을 이용한 컬러 영상및 비디오 부호화/복호화 방법 및 장치 |
KR101200865B1 (ko) * | 2006-03-23 | 2012-11-13 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
JP4304639B2 (ja) * | 2007-01-16 | 2009-07-29 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR101362757B1 (ko) * | 2007-06-11 | 2014-02-14 | 삼성전자주식회사 | 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치 |
CN101335902B (zh) * | 2007-06-25 | 2010-06-02 | 华为技术有限公司 | 视频编解码中的加权预测方法和装置 |
US8331664B2 (en) * | 2008-01-21 | 2012-12-11 | Telefonaktiebolaget Lm Ericsson (Publ) | Prediction-based image processing |
ATE524927T1 (de) * | 2008-01-21 | 2011-09-15 | Ericsson Telefon Ab L M | Auf prädiktion basierende bildverarbeitung |
KR20100018810A (ko) * | 2008-08-07 | 2010-02-18 | 전자부품연구원 | 초고화질 영상 부호화, 복호화 방법 및 장치 및 컴퓨터로판독가능한 기록매체 |
WO2011088594A1 (en) * | 2010-01-25 | 2011-07-28 | Thomson Licensing | Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane |
JP5856143B2 (ja) * | 2010-04-13 | 2016-02-09 | ジーイー ビデオ コンプレッション エルエルシー | 細分割を使用した2次元情報信号の空間的なサンプリングの符号化 |
DK2559246T3 (en) * | 2010-04-13 | 2016-09-19 | Ge Video Compression Llc | Fusion of sample areas |
KR101447796B1 (ko) * | 2010-04-13 | 2014-10-07 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 평면 간 예측 |
KR101791242B1 (ko) * | 2010-04-16 | 2017-10-30 | 에스케이텔레콤 주식회사 | 영상 부호화/복호화 장치 및 방법 |
KR101673027B1 (ko) * | 2010-07-01 | 2016-11-04 | 에스케이 텔레콤주식회사 | 색공간 예측 방법 및 장치와 이를 이용한 영상 부호화/복호화 방법 및 장치 |
JP5134047B2 (ja) * | 2010-07-23 | 2013-01-30 | ソニー株式会社 | 復号装置および方法、記録媒体、並びにプログラム |
WO2014045506A1 (en) * | 2012-09-24 | 2014-03-27 | Sharp Kabushiki Kaisha | Video compression with color space scalability |
PL2984837T3 (pl) * | 2013-04-08 | 2018-07-31 | Ge Video Compression, Llc | Predykcja międzykomponentowa |
US9648330B2 (en) * | 2013-07-15 | 2017-05-09 | Qualcomm Incorporated | Inter-color component residual prediction |
US20150382016A1 (en) * | 2014-06-27 | 2015-12-31 | Mitsubishi Electric Research Laboratories, Inc. | Method for Processing Multi-Component Video and Images |
-
2014
- 2014-10-17 EP EP14792424.5A patent/EP3058730B8/en active Active
- 2014-10-17 JP JP2016524405A patent/JP6656147B2/ja active Active
- 2014-10-17 KR KR1020227039326A patent/KR20220156106A/ko not_active Application Discontinuation
- 2014-10-17 KR KR1020197009853A patent/KR102207000B1/ko active IP Right Grant
- 2014-10-17 KR KR1020217001734A patent/KR102467057B1/ko active IP Right Grant
- 2014-10-17 EP EP20211115.9A patent/EP3846469A1/en active Pending
- 2014-10-17 KR KR1020167013016A patent/KR101968236B1/ko active IP Right Grant
- 2014-10-17 CN CN202010102694.5A patent/CN111526359B/zh active Active
- 2014-10-17 WO PCT/EP2014/072350 patent/WO2015055832A1/en active Application Filing
- 2014-10-17 CN CN201480056687.9A patent/CN105723706B/zh active Active
-
2016
- 2016-04-12 US US15/096,512 patent/US10230949B2/en active Active
-
2018
- 2018-10-26 JP JP2018202249A patent/JP6841807B6/ja active Active
-
2019
- 2019-01-25 US US16/257,208 patent/US10778968B2/en active Active
-
2020
- 2020-09-14 US US17/019,770 patent/US11765342B2/en active Active
-
2021
- 2021-02-18 JP JP2021024168A patent/JP7223045B2/ja active Active
-
2023
- 2023-02-03 JP JP2023015016A patent/JP2023065387A/ja active Pending
- 2023-08-02 US US18/363,829 patent/US20230379454A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009518940A (ja) * | 2006-07-04 | 2009-05-07 | サムスン エレクトロニクス カンパニー リミテッド | 画像の符号化方法及び装置、復号化方法及び装置 |
US20120307899A1 (en) * | 2009-12-07 | 2012-12-06 | Sk Telecom Co., Ltd. | Apparatus and method for encoding/decoding multi-plane images using bi-prediction and recording medium using same |
Non-Patent Citations (4)
Title |
---|
A. KHAIRAT, T. NGUYEN, M. SIEKMANN, AND D. MARPE: "Non-RCE1: Extended Adaptive Inter-Component Prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0150, JPN6022021190, October 2013 (2013-10-01), pages 1 - 6, ISSN: 0004787444 * |
KEI KAWAMURA, AND SEI NAITO: "Non-RCE1: Inter colour-component residual coefficients prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0263 (version 1), JPN6022021192, 15 October 2013 (2013-10-15), pages 1 - 5, ISSN: 0004787442 * |
T. NGUYEN, A. KHAIRAT, AND D. MARPE: "Non-RCE1/Non-RCE2/AHG5/AHG8: Adaptive Inter-Plane Prediction for RGB Content", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0230, JPN6022021191, April 2013 (2013-04-01), pages 1 - 6, ISSN: 0004787443 * |
WEI PU, ET AL.: "Non-RCE1: Inter Color Component Residual Prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-N0266, JPN6022021193, July 2013 (2013-07-01), pages 1 - 7, ISSN: 0004787441 * |
Also Published As
Publication number | Publication date |
---|---|
US11765342B2 (en) | 2023-09-19 |
US10778968B2 (en) | 2020-09-15 |
KR101968236B1 (ko) | 2019-08-20 |
EP3058730A1 (en) | 2016-08-24 |
US10230949B2 (en) | 2019-03-12 |
JP2019050588A (ja) | 2019-03-28 |
JP2023065387A (ja) | 2023-05-12 |
JP7223045B2 (ja) | 2023-02-15 |
US20190158826A1 (en) | 2019-05-23 |
CN111526359B (zh) | 2023-01-06 |
KR20160091325A (ko) | 2016-08-02 |
JP6656147B2 (ja) | 2020-03-04 |
EP3846469A1 (en) | 2021-07-07 |
CN105723706B (zh) | 2020-03-17 |
WO2015055832A1 (en) | 2015-04-23 |
KR102207000B1 (ko) | 2021-01-25 |
KR20210010644A (ko) | 2021-01-27 |
KR20190040083A (ko) | 2019-04-16 |
US20160227210A1 (en) | 2016-08-04 |
US20230379454A1 (en) | 2023-11-23 |
EP3058730B1 (en) | 2020-12-02 |
EP3058730B8 (en) | 2021-03-10 |
CN105723706A (zh) | 2016-06-29 |
JP6841807B6 (ja) | 2021-04-07 |
US20200413046A1 (en) | 2020-12-31 |
KR102467057B1 (ko) | 2022-11-14 |
JP6841807B2 (ja) | 2021-03-10 |
JP2016539551A (ja) | 2016-12-15 |
CN111526359A (zh) | 2020-08-11 |
KR20220156106A (ko) | 2022-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6841807B6 (ja) | マルチコンポーネント画像またはビデオ符号化のコンセプト | |
CN105453570B (zh) | 用于下一代视频的对分区数据的内容自适应熵编码 | |
CN105409218B (zh) | 解码器和解码方法 | |
US20150010076A1 (en) | Method of Coding and Decoding Images, Coding and Decoding Device and Computer Programs Corresponding Thereto | |
CN105432077A (zh) | 在切换色彩空间时调整量化/缩放和逆量化/缩放 | |
CN105230023A (zh) | 色彩空间、色彩采样率和/或比特深度的自适应切换 | |
CN105474642A (zh) | 使用频域差对图像集合进行重新编码 | |
CN110650349B (zh) | 一种图像编码方法、解码方法、编码器、解码器及存储介质 | |
KR20160057311A (ko) | 픽처 부호화 프로그램, 픽처 부호화 방법 및 픽처 부호화 장치 및 픽처 복호화 프로그램 | |
US11729426B2 (en) | Block-based predictive coding and decoding of a picture | |
US20240064308A1 (en) | Magnitude Prediction with Candidate Pruning | |
JP2013183207A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |