JP2017538381A - ビデオ符号化における成分間予測 - Google Patents

ビデオ符号化における成分間予測 Download PDF

Info

Publication number
JP2017538381A
JP2017538381A JP2017543877A JP2017543877A JP2017538381A JP 2017538381 A JP2017538381 A JP 2017538381A JP 2017543877 A JP2017543877 A JP 2017543877A JP 2017543877 A JP2017543877 A JP 2017543877A JP 2017538381 A JP2017538381 A JP 2017538381A
Authority
JP
Japan
Prior art keywords
encoded
sample block
segment
sample
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017543877A
Other languages
English (en)
Inventor
マルティン ペッテション,
マルティン ペッテション,
ケネト アンデション,
ケネト アンデション,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル), テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2017538381A publication Critical patent/JP2017538381A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオシーケンスのピクチャをビデオビットストリームに符号化する機構が提供される。ピクチャは、少なくとも第1の色成分および第2の色成分を含み、第1の色成分は、第1のサンプルブロックを含み、第2の色成分は、第2のサンプルブロックを含む。この方法は、第1のブロックおよび第2のブロック内に同じ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロックおよび第2のサンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化することを含む。この方法は、同じセグメントに属する第1のサンプルブロック内のサンプル値に基づいて第2のサンプルブロック内のサンプル値を予測することを含む。ビデオシーケンスの符号化ピクチャを含むビットストリームを復号する機構が提供される。符号化ピクチャは、少なくとも第1の符号化色成分および第2の符号化色成分を含み、第1の符号化色成分は、第1の符号化サンプルブロックを含み、第2の符号化色成分は、第2の符号化サンプルブロックを含む。この方法は、第1の符号化サンプルブロックおよび第2の符号化サンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化することを含む。この方法は、同じセグメントに属する第1の符号化サンプルブロック内のサンプル値から第2の符号化サンプルブロック内のサンプル値を予測することを含む。【選択図】図3

Description

本明細書の実施形態は、高効率ビデオ符号化(HEVC)などのビデオ符号化の分野に関する。詳細には、本明細書の実施形態は、ビデオシーケンスのピクチャを符号化する方法および符号器ならびにビデオシーケンスの符号化ピクチャを含むビットストリームを復号する方法および復号器に関する。これに対応するコンピュータプログラムも開示される。
画像およびビデオ符号化技法では、異なるカラーフォーマットを使用して、ピクチャ要素(画素またはサンプル)の色情報を表す。色情報は、ユースケースに応じて異なる形で表現することができる。たとえば、ディスプレイは、3つの色要素、赤色(R)、緑色(G)、および青色(B)を有することが一般的であり、これらの色要素は、何の色が表示されるべきかに応じて異なる強度で照明される。したがって、画素情報はRGBカラーフォーマットでディスプレイへ送ることが好都合になる。信号がデジタルであるため、画素の各成分の強度は、成分のビット深度と呼ばれる固定の数のビットで表さなければならない。nのビット深度は、2個の異なる値、すなわち8ビットの場合は1成分当たり256個の値、10ビットの場合は1成分当たり1024個の値を表すことができる。
YUVカラーフォーマットは、ルミナンス(輝度)色成分Yならびに2つのクロミナンス(色差)色成分UおよびV(またはそれぞれCbおよびCr)を使用することによって色を記述する。ルミナンス色成分(Y)は明るさを表し、クロミナンス成分(UおよびV)は色差を含む。YUV(YCbCr)フォーマットで画素を表すことは、ビデオ符号化にとって好都合である。すなわち、人間視覚システム(HVS)は、クロミナンスよりルミナンスに敏感であり、これはクロミナンスより高い精度でルミナンスを表すことができることを意味する。
HVSは、線形光強度におけるすべてのレベルのルミナンスに対して等しい感度を有するわけではないため、ビデオは通常、知覚ドメインY’UV(Y’CbCr)に転送される。ここでY’は輝度を指す。HDTVに対するRGBとY’UVとの間の変換は、次の行列乗算を使用して行われるべきである。
Fourcc.orgは、規定のYUVおよびRGBフォーマットのリストを保持している。標準化されたビデオコーデック(たとえば、H.264/AVC、MPEG−4、HEVC)で最も一般に使用される画素フォーマットは、2次元のY’UV4:2:0(別名YV12またはY’CbCr4:2:0)であり、UおよびVクロミナンス成分は、垂直方向と水平方向の両方にサブサンプリングされ、Y’、U、およびV成分が、ピクチャごとに別個のチャンク内に記憶される。したがって、ビット深度が1成分当たり8ビットである場合、1画素当たりのビット数は12であり、8つのビットがルミナンスを表し、4つのビットが2つのクロミナンス成分を表す。いずれの成分でもサブサンプリングを行わない画素フォーマットは、4:4:4サンプリングフォーマット、たとえばY’CbCr4:4:4またはRGB4:4:4を有することを指す。
H.265としても知られている高効率ビデオ符号化(HEVC)は、サンプル(画素)のルミナンスブロックの残余からサンプル(画素)のクロミナンスブロックの残余を予測する成分間予測(CCP)ツールを有する。このツールは、当初、HEVCに対するより大きいビット深度ならびに4:2:2および4:4:4色差サンプリングフォーマットに対応するH.265/HEVC RExtの開発中に提案されたものである。
色差成分の残余は、次のように計算される。

上式で、

は、ルミナンス成分残余であり、

は、同じ空間位置に残っている成分の残余であり、αは、重み係数である。αパラメータは、2つの色差成分の各々に対してビットストリーム内でブロックレベルでシグナリングされる。
線形モデル(LM)を使用する色差イントラ予測は、HEVCの開発中に提案された別のツールである。このツールでは、次の線形モデルを使用することによって、ダウンサンプリングされて再構築された輝度サンプルから、色差ブロックのサンプルが予測される。

上式で、pred(i,j)は、予測されるべき色差サンプルであり、rec(i,j)は、対応するダウンサンプリングされて再構築された輝度サンプルであり、αおよびβは、モデルパラメータである。αおよびβの値は、現在のブロックの再構築された隣接サンプルから導出される。輝度参照サンプルと色差参照サンプルとの間の正規化された共分散が計算され、αとして得られる。オフセットβは、既知のαを考慮し、上記の関数を利用して、参照サンプルに線形モデルを適合させることによって取得される。
寄書ITU−T COM16−C 806−Eは、HEVCに比べて大きな改善を示す複数のツールを調査している。この寄書は、後に、HEVC後の次世代ビデオコーデックの初期開発に対するKTA試験モデルとなる。KTAのツールの1つは、線形モデル(LM)を使用する色差イントラ予測であり、ここではさらに、次式にしたがって、色差成分の1つの残余を他の色差成分の残余から予測することもできる。
成分間予測および線形モデルを使用する色差イントラ予測などの現況技術の成分間予測方法は、ブロック内のほとんどのクロミナンスサンプルがルミナンスサンプルに対して同じ線形関係を有することに依拠する。これは、R、G、およびB成分の各々がルミナンス成分の強度をある程度含むRGB色空間では当てはまることがある。Y’CbCrの場合、これらの成分は、異なる形で互いから切り離されている。これを図1に示す。図1では、グレースケール版のピクチャならびにY’UVおよびRGBにおけるその各成分が、16×16のサンプルブロックで示されている。
CCPおよび線形モデルを使用する色差イントラ予測は、単色のブロックの場合、引き続きうまく機能することができる。しかし、上記の例のように2つ以上の色を有するブロックでは、成分間の非線形性のため、同様にはうまく機能することができない。これを図1に示す。
異なる色成分間の線形関係を想定するとき、その関係が想定通りでない場合、その結果、予測の品質が悪くなることがある。予測の品質が悪いということは、元のサンプルブロックと予測されたサンプルブロックとの間の差がより大きいことを示唆することがあり、そのような場合、ビットレートがより高くなることをさらに示唆する。
したがって、ビットレートを低減させるために、サンプルブロックを可能な限り正確に予測することが非常に重要である。
上記その他の目的は、本明細書に開示される実施形態によって達成される。
実施形態の第1の態様は、ビデオシーケンスのピクチャをビットストリームに符号化するために符号器によって実行される方法を規定する。ピクチャは、少なくとも第1の色成分および第2の色成分を含み、第1の色成分は、第1のサンプルブロックを含み、第2の色成分は、第2のサンプルブロックを含む。この方法は、第1のブロックおよび第2のブロック内に同じ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロックおよび第2のサンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化することを含む。この方法は、同じセグメントに属する第1のサンプルブロック内のサンプル値に基づいて第2のサンプルブロック内のサンプル値を予測することを含む。
実施形態の第2の態様は、ビデオシーケンスのピクチャをビットストリームに符号化する符号器を規定する。ピクチャは、少なくとも第1の色成分および第2の色成分を含み、第1の色成分は、第1のサンプルブロックを含み、第2の色成分は、第2のサンプルブロックを含む。符号器は、第1のブロックおよび第2のブロック内に同じ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロックおよび第2のサンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化するように動作する処理手段を備える。符号器は、同じセグメントに属する第1のサンプルブロック内のサンプル値に基づいて第2のサンプルブロック内のサンプル値を予測するように動作する処理手段を備える。
実施形態の第3の態様は、ビデオシーケンスのピクチャを符号化するコンピュータプログラムを規定する。ピクチャは、少なくとも第1の色成分および第2の色成分を含み、第1の色成分は、第1のサンプルブロックを含み、第2の色成分は、第2のサンプルブロックを含む。コンピュータプログラムは、コンピュータ上で実行されると、コンピュータに対して、第1のブロックおよび第2のブロック内に同じ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロックおよび第2のサンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化させる符号化手段を備える。コンピュータプログラムは、コンピュータ上で実行されると、コンピュータに対して、同じセグメントに属する第1のサンプルブロック内のサンプル値に基づいて第2のサンプルブロック内のサンプル値を予測させる符号化手段を備える。
実施形態の第4の態様は、コンピュータ可読手段と、コンピュータ可読手段上に記憶された第3の態様によるコンピュータプログラムとを備えるコンピュータプログラム製品を規定する。
実施形態の第5の態様は、ビデオシーケンスの符号化ピクチャを含むビットストリームを復号するために復号器によって実行される方法を規定する。符号化ピクチャは、少なくとも第1の符号化色成分および第2の符号化色成分を含み、第1の符号化色成分は、第1の符号化サンプルブロックを含み、第2の符号化色成分は、第2の符号化サンプルブロックを含む。この方法は、第1の符号化サンプルブロックおよび第2の符号化サンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化することを含む。この方法は、同じセグメントに属する第1の符号化サンプルブロック内のサンプル値に基づいて第2の符号化サンプルブロック内のサンプル値を予測することを含む。
実施形態の第6の態様は、ビデオシーケンスの符号化ピクチャを含むビットストリームを復号する復号器を規定する。符号化ピクチャは、少なくとも第1の符号化色成分および第2の符号化色成分を含み、第1の符号化色成分は、第1の符号化サンプルブロックを含み、第2の符号化色成分は、第2の符号化サンプルブロックを含む。復号器は、第1の符号化サンプルブロックおよび第2の符号化サンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化するように動作する処理手段を備える。復号器は、同じセグメントに属する第1の符号化サンプルブロック内のサンプル値に基づいて第2の符号化サンプルブロック内のサンプル値を予測するように動作する処理手段を備える。
実施形態の第7の態様は、ビデオシーケンスの符号化ピクチャを含むビットストリームを復号するコンピュータプログラムを規定する。符号化ピクチャは、少なくとも第1の符号化色成分および第2の符号化色成分を含み、第1の符号化色成分は、第1の符号化サンプルブロックを含み、第2の符号化色成分は、第2の符号化サンプルブロックを含む。コンピュータプログラムは、コンピュータ上で実行されると、コンピュータに対して、第1の符号化サンプルブロックおよび第2の符号化サンプルブロックを少なくとも第1のセグメントおよび第2のセグメントにセグメント化させる符号化手段を備える。コンピュータプログラムは、コンピュータ上で実行されると、コンピュータに対して、同じセグメントに属する第1の符号化サンプルブロック内のサンプル値から第2の符号化サンプルブロック内のサンプル値を予測させる符号化手段を備える。
実施形態の第8の態様は、コンピュータ可読手段と、コンピュータ可読手段上に記憶された第7の態様によるコンピュータプログラムとを備えるコンピュータプログラム製品を規定する。
有利には、実施形態の少なくともいくつかは、ビデオシーケンスの異なる色成分間のより正確な予測を提供する。
さらに有利には、実施形態の少なくともいくつかは、より高い圧縮効率を提供する。
第1、第2、第3、第4、第5、第6、第7、および第8の態様の任意の特徴を、適当なときはいつでも、任意の他の態様に適用することができることに留意されたい。同様に、第1の態様の任意の利点を、それぞれ第2、第3、第4、第5、第6、第7、および第8の態様に等しく適用することができ、逆も同様である。含まれる実施形態の他の目的、特徴、および利点は、次の詳細な開示、添付の従属請求項、および図面から明らかになるであろう。
概して、特許請求の範囲で使用されるすべての用語は、本明細書に別途明示しない限り、当技術分野での一般的な意味にしたがって解釈されるべきである。「要素、装置、成分、手段、ステップなど」に対するすべての言及は、別途明示しない限り、要素、装置、成分、手段、ステップなどのうちの少なくとも1つの例について言及していると非限定的に解釈されるべきである。本明細書に開示するいずれの方法のステップも、明示しない限り、開示された通りの順序で実行される必要はない。
本発明は、そのさらなる目的および利点とともに、添付の図面ともに次の説明を参照することによって、最もよく理解することができる。
ルミナンス成分とクロミナンス成分との間の非線形性の一例を示す図である。 本発明の実施形態による符号化されるべきピクチャを示す図である。 本発明の実施形態によるビデオシーケンスのピクチャを符号化する方法の流れ図である。 ルミナンスサンプルブロック内のサンプル値の閾値処理に基づくセグメント化の一例を示す図であり、この特定の例では、閾値150が手動で選択されている。 エッジ検出フィルタが「キャニー」フィルタであるエッジ検出によるセグメント化の一例を示す図である。 4分木構造を使用して符号化された8×8の2値マスクの一例を示す図であり、0は第1のセグメントを表し、1は第2のセグメントを表している。 本発明の実施形態による復号されるべきビットストリームを示す図である。 本発明の実施形態によるビデオシーケンスのピクチャを復号する方法の流れ図である。 本発明の実施形態によるビデオシーケンスのピクチャを符号化する符号器の機能ユニットを示す概略ブロック図である。 本発明の実施形態によるビデオシーケンスのピクチャを符号化するコンピュータプログラムを有するコンピュータプログラム製品を備えるコンピュータを示す概略ブロック図である。 本発明の実施形態によるビデオシーケンスのピクチャを符号化する符号器の機能ユニットを示す概略ブロック図である。 本発明の実施形態によるビデオシーケンスの符号化ピクチャを含むビットストリームを復号する復号器の機能ユニットを示す概略ブロック図である。 本発明の実施形態によるビデオシーケンスの符号化ピクチャを含むビットストリームを復号するコンピュータプログラムを有するコンピュータプログラム製品を備えるコンピュータを示す概略ブロック図である。 本発明の実施形態によるビデオシーケンスの符号化ピクチャを含むビットストリームを復号する復号器の機能ユニットを示す概略ブロック図である。
添付の図面は、本明細書に組み込まれており、本明細書の一部を形成するものであり、本発明の様々な実施形態を示し、さらに本説明とともに、本発明の原理について説明し、当業者が本発明を作製および使用することを可能にする働きをする。図面全体にわたって、類似または対応する要素に対して同じ参照番号が使用される。
説明全体にわたって、「ビデオ」および「ビデオシーケンス」、「サンプルブロック」および「ブロック」、「画素」および「サンプル」、「ルミナンス」および「輝度」、「クロミナンス」および「色差」という用語は、区別なく使用される。
本発明の説明は、HEVCコーデックに基づくが、本発明は、任意の他の現況技術および将来のブロックに基づくビデオ符号化標準にも適用することができることを、当業者には理解されたい。
本実施形態は、概して、ビデオシーケンスのピクチャをビットストリームに符号化する方法および符号器ならびにビデオシーケンスの符号化ピクチャを含むビットストリームを復号する方法および復号器に関する。
HEVCは、ITU−TおよびMPEGによって標準化されたブロックに基づくビデオコーデックであり、時間と空間の両方の予測を利用する。空間予測は、現在のピクチャ内からのイントラ(I)予測を使用して実現される。時間予測は、以前に復号された参照ピクチャからのブロックレベルのインター(P)または双方向インター(B)予測を使用して実現される。予測誤差と呼ばれる元の画素データと予測された画素データとの間の差が、周波数ドメインに変換され、量子化およびエントロピー符号化され(たとえばHEVCの場合はコンテキスト適応型バイナリ算術符号化(CABAC)、またはたとえばH.264/AVCの場合はコンテキスト適応型可変長符号化(CAVLC)による)、エントロピー符号化後、モード選択および運動ベクトルなどの必要な予測パラメータともに伝送される。変換された予測誤差を量子化することによって、ビットレートとビデオの品質との間のトレードオフを制御することができる。量子化のレベルは、量子化パラメータ(QP)によって決定される。復号器は、エントロピー復号、逆量子化、および逆変換を実行して、残余と呼ばれる予測誤差の復号されたものを取得し、次いで、この残余をイントラまたはインター予測に加えて、ピクチャを再構築する。
CCPは、輝度ブロックの残余から色差ブロックの残余を予測するHEVCにおけるツールである。色差成分の残余は、次のように計算される。

上式で、

は、輝度成分残余であり、

は、同じ空間位置に残っている成分の残余であり、αは、重み係数である。αパラメータ(標準仕様および以下でResScaleValと示す)は、HEVC(H.265)仕様[1]の第7.3.8.12章に記載され、表1に示すように、2つのパラメータ、log2_res_scale_abs_plus1およびres_scale_sign_flagに分割され、2つの色差成分の各々に対してビットストリーム内でブロックレベルでシグナリングされる。
この表によれば、log2_res_scale_abs_plus1[c]から1を引いた値が、成分間残余予測で使用されるスケーリング係数ResScaleValの大きさの底を2とする対数を指定する。存在しないとき、log2_res_scale_abs_plus1は、0に等しいと推論される。
加えて、res_scale_sign_flag[c]は、次のように、成分間残余予測で使用されるスケーリング係数の符号を指定する。res_scale_sign_flag[c]が0に等しい場合、対応するResScaleValは正の値を有する。そうでない場合(res_scale_sign_flag[c]が1に等しい)、対応するResScaleValは負の値を有する。
変数ResScaleVal[cIdx][x0][y0]は、成分間残余予測で使用されるスケーリング係数を指定する。配列インデックスx0、y0は、ピクチャの左上輝度サンプルに対する当該変換ブロックの左上輝度サンプルの位置(x0,y0)を指定する。配列インデックスcIdxは、色成分の標識を指定し、Cbの場合は1に等しく、Crの場合は2に等しい。
変数ResScaleVal[cIdx][x0][y0]は、次のように導出される。log2_res_scale_abs_plus1[cIdx−1]が0に等しい場合、次式が当てはまる。ResScaleVal[cIdx][x0][y0]=0。そうでない場合(log2_res_scale_abs_plus1[cIdx−1]が0に等しくない)、次式が当てはまる。ResScaleVal[cIdx][x0][y0]=(1<<(log2_res_scale_abs_plus1[cIdx−1]−1))*(1−2*res_scale_sign_flag[cIdx−1])。
したがって、ResScaleVal(または同等にα)は、次の値{−8、−4、−2、−1、0、1、2、4、8}をとることができる。
HEVCでは、CCPは、4:4:4サンプルフォーマットに対してのみ指定される。
CCPおよび線形モデルを使用する色差イントラ予測は、線形モデリングを使用して、対応する輝度サンプルブロックの残余またはサンプルから色差サンプルブロックの残余またはサンプルを予測する。しかし、色差ブロックと輝度ブロックとの間の関係は、特にサンプルブロックが2つ以上の色を含むとき、必ずしもサンプルブロック全体にわたって線形であるとは限らない。
本発明の実施形態の概念は、CCPの方法、線形モデルを使用する色差イントラ予測、または類似の方法を使用するとき、サンプルブロックを2つ以上のセグメントにセグメント化して、すべてのセグメントを別個に処理することである。
一態様によれば、図3に示すように、ビデオシーケンスのピクチャをビットストリームに符号化するために符号器100によって実行される方法が提供される。ピクチャ1は、図2に示すように、少なくとも第1の色成分4および第2の色成分5を含み、第1の色成分4は、第1のサンプルブロック6を含み、第2の色成分5は、第2のサンプルブロック7を含む。この方法は、第1のサンプルブロック6および第2のサンプルブロック7内に同じピクチャ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロック6および第2のサンプルブロック7を少なくとも第1のセグメント8および第2のセグメント9にセグメント化するステップS1を含む。この方法は、同じセグメントに属する第1のサンプルブロック6内のサンプル値に基づいて第2のサンプルブロック7内のサンプル値を予測するステップS2をさらに含む。この方法は、任意選択で、セグメント化S1に関係するパラメータおよび/または予測S2に関係するパラメータをビットストリーム3内でシグナリングするステップS3をさらに含む。
第1の色成分は、ルミナンス色成分とすることができ、第2の色成分は、クロミナンス色成分とすることができる。その場合、実際には一般に行われるように、クロミナンス色成分からのサンプルブロックは、ルミナンス色成分からの対応するサンプルブロックから予測される。しかし、本発明の実施形態は、ルミナンス色成分からのクロミナンス色成分の予測のみに限定されるものではなく、ルミナンス色成分で予測のためにクロミナンス色成分を使用することができることも想定される。実施形態のいくつかについて、以下に説明する。
サンプルブロックは、符号化プロセスで異なるステップから発生することができる。たとえば、サンプルブロックは、符号化されるべきピクチャから発生することができる。サンプルブロックは、イントラ/インター予測から発生することができる。別法として、サンプルブロックは、残余サンプルブロックに対応することができる。さらに別の代替形態は、サンプルブロックがイントラ/インター予測と残余サンプルブロックとの組合せであることである。
第1および第2のサンプルブロックのセグメント化は、閾値処理によって実行することができる。その場合、セグメント化は、閾値より小さい値を有するサンプルが1つのセグメントに属し、閾値以上の値を有するサンプルが別のセグメントに属するように実行される。閾値は、サンプルブロック内のサンプル値の平均、中央値、または何らかの他の尺度として選択することができる。セグメントの数が2より大きい場合、複数の閾値を規定することができ、類似の手順を適用して、サンプルをセグメントに割り当てることができる。
別法として、セグメント化は、エッジ検出、大津の閾値処理方法、色に基づくセグメント化、K平均クラスタリング、画像テキスチャフィルタ、および空間変換に基づくセグメント化方法のうちの1つを使用することによって実行することができる。
一実施形態によれば、セグメント化は、第1のサンプルブロック上のみで実行され、このサンプルブロックからのセグメントは、第2のサンプルブロックにコピーされ、したがって第1のサンプルブロックおよび第2のサンプルブロック内に同じ位置を有するサンプルは、同じセグメントに属する。これを図4に示す。図4では、セグメント化は、ルミナンスブロックY’内のサンプル値を閾値処理することによって実行され、これによって、図の上段に見ることができるように、2つのセグメント、Y’セグメント1およびY’セグメント2が得られる。次いで、同じセグメント化パターンが第2のサンプルブロック内で繰り返される。このセグメント化パターンは、任意の形状をとることができ、すなわち方形である必要はなく、図4にセグメント2によって示されるように関連する必要もない。図4の中段は、第2のサンプルブロックがUクロミナンス成分である場合に対応し、対応するセグメント、Uセグメント1およびUセグメント2をやはり見ることができる。同様に、下段は、セグメント化されたVクロミナンスサンプルブロックの一例を示す。
第1のサンプルブロックおよび第2のサンプルブロックを少なくとも第1および第2のセグメントにセグメント化した後、第2のセグメントブロック内のサンプル値が、同じセグメントに属する第1のサンプルブロック内のサンプル値に基づいて予測される。予測は、CCPおよび線形モデルを使用する色差イントラ予測で行われるように、たとえば線形モデルを使用することによって行うことができる。
上記のセグメント化S1および予測S2ステップは、符号器側で実行される。復号器がビデオシーケンスを再構築するときに同じステップを実行するためには、セグメント化および/または予測に関係するパラメータのいくつかを復号器側へ伝送することが必要になることがある。これは、以下に示すように、これらのパラメータをビットストリーム内でシグナリングすることによって行うことができる。
一実施形態によれば、ルミナンスサンプルブロックのセグメント化は、このサンプルブロックに対する閾値を選択することに基づく。閾値を下回るルミナンスサンプルブロックのサンプル値は、第1のセグメントに割り当てられ、閾値以上のルミナンスサンプルブロックのサンプル値は、第2のセグメントに割り当てられる。図4は、これを示す。閾値は、符号器で行われるのと同じ方法(たとえば、サンプルブロックからのサンプル値の平均)で、復号側で導出することもできる。しかし、閾値はまた、以下に示すように、ビットストリーム内でシグナリングすることもできる。
セグメント化に続いて、クロミナンスサンプルブロックの第1のセグメント内のサンプル値は、ルミナンスサンプルブロックの第1のセグメント内のサンプル値に基づいて予測される。この予測は、CCPに基づいて行うことができ、その場合、第1のセグメントに対する係数α(ResScaleVal1)が取得される。同様に、クロミナンスサンプルブロックの第2のセグメント内のサンプル値が、ルミナンスサンプルブロックの第2のセグメント内のサンプル値に基づいて予測される。この予測により、第2のセグメントに対する係数α(ResScaleVal2)が得られる。
セグメント化および異なるセグメントに対する異なる予測によってCCPを拡張するときにシグナリングを行う方法の一例を表2に示す。表2では、HEVCにおけるCCPと比較した変化が灰色で示されている。
パラメータlog2_res_scale_abs_plus1およびres_scale_sign_flagは、クロミナンスサンプルブロック内の第1のセグメントの予測で取得された係数ResScaleVal1に関係する。これらのパラメータは、HEVCにおけるサンプルブロック全体で規定される。
do_segment_blockは、現在のサンプルブロックに対してCCPでセグメント化が実行されるべきかどうかを示す。実行されるべきである場合、segment_thresholdがシグナリングされる。加えて、第2のセグメントに対する予測係数ResScaleVal2に関係するパラメータlog2_res_scale_abs_seg2_plus1およびres_scale_sign_seg2_flagがシグナリングされる。
シグナリングされたsegment_thresholdは、絶対値とすることができ、サンプルブロック内のサンプル値から計算される。別法として、隣接サンプルブロック内のsegment_threshold値と比較した相対値としてシグナリングすることができ、その場合、平均または中央値など、隣接ブロックからのsegment_threshold値の関数として計算される。
別法として、segment_thresholdは、サンプルブロックごとにシグナリングするのではなく、サンプルブロックのグループごとに計算することができる。たとえば、m個のサンプルブロックからなるグループに対して計算し、それぞれ第mのサンプルブロックごとにシグナリングすることができ、ここでm≧2である。これは、隣接サンプルブロックが類似の構造を有するとき、効率的な解決策となることができる。
セグメント閾値が復号側で輝度残余またはサンプルブロックから導出される実施形態の代替変形形態では、パラメータsegment_thresholdをシグナリングする必要はない。これを表3に示す。
この実施形態の代替変形形態では、セグメント化は、予測に使用されたサンプルブロックではなく、予測されるべきサンプルブロックで実行することができる。すなわち、クロミナンスサンプルブロックでセグメント化を実行することができ、このブロック内のセグメントは、ルミナンスサンプルブロック内の対応するセグメントに基づいて予測することができる。
HEVCでは、CCPは、4:4:4のサンプリングフォーマットに対してのみ指定される。しかし、本発明の実施形態はまた、4:2:2または4:2:0サンプリングフォーマットなど、サブサンプリングが成分間で異なる他のフォーマットでも機能するはずである。4:2:2では、第2および第3の成分が、水平方向にのみ2倍にサブサンプリングされる。4:2:0では、第2および第3の成分は、水平方向と垂直方向の両方で2倍にサブサンプリングされる。第1のサンプルブロック内のサンプル値に基づいて第2のサンプルブロック内のサンプル値を予測するには、第1のサンプルブロック内のサンプルを、第2のサンプルブロック内の対応するサンプルブロックの寸法にサンプリングする必要があるはずである。たとえば、Y’CbCr4:2:0でルミナンスサンプルブロック内のサンプル値からクロミナンスサンプルブロック内のサンプル値を予測するとき、ルミナンスサンプルブロック内のサンプルを、クロミナンスサンプルブロック内のサンプルブロックの寸法にダウンサンプリングしなければならない。ダウンサンプリングは、復号器が符号器と同じダウンサンプリングされたルミナンスサンプルブロックを導出することができるように指定される必要がある。セグメント化は、クロミナンス成分内のダウンサンプリングされたサンプルブロックで実行することができることにも留意されたい。
本発明の別の実施形態では、セグメントは、第1のサンプルブロック上でエッジ検出を使用することによって決定される。エッジ検出フィルタは、たとえば、ソーベルフィルタ、キャニーフィルタ、プレヴィットフィルタ、ロバーツフィルタ、ラプラス−ガウスフィルタ、またはゼロ交差フィルタのうちの1つとすることができる。キャニーフィルタによってルミナンスサンプルブロック内で検出されたエッジの一例を図5に示す。エッジが検出された後、セグメントは、エッジの側面の1つを塗りつぶすことによって決定することができる。エッジが閉じている場合、同じエッジによって閉じられた区域内のサンプルは、同じセグメントに割り当てられる。エッジが閉じていない場合、ある種の形態学的な動作を適用してエッジを閉じることができ、その後、セグメントの割り当てが同じ方法で実行される。閉じた区域が第1のセグメントに属するか、それとも第2のセグメントに属するかは、2つの隣接する閉じた区域の各々のサンプルに対して平均値を計算し、最も低い平均を有する閉じた区域を第1のセグメントに割り当て、最も高い平均を有する閉じた区域を第2のセグメントに割り当てることによって決定することができる。閉じた区域が、より低い平均値を有する隣接する閉じた区域と、より高い平均値を有する別の隣接する閉じた区域とを有する場合、現在の閉じた区域のサンプルが、現在の閉じた区域の平均値に最も近い平均値を有する隣接する閉じた区域に割り当てられる。
セグメントを導出する他の方法には、大津の閾値処理方法、K平均クラスタリングなどの色に基づくセグメント化、ウォーターシェッドセグメント化などの変換方法、または画像テキスチャフィルタといったセグメント化方法が含まれる。
この実施形態によれば、復号器で同じステップを実行するために、上記のエッジ検出またはセグメント化方法のいずれかに関係するパラメータをビットストリーム内でシグナリングすることができる。
加えて、この実施形態によれば、上記の方法のいずれかによるセグメント化は、ルミナンスサンプルブロックならびにクロミナンスサンプルブロックの両方に適用することができる。さらに、クロミナンスサンプルブロックはルミナンスサンプルブロックに基づいて予測され、逆も同様であることが想定される。
本発明の別の実施形態では、セグメントは、符号器側で決定され、ビットストリーム内で2値マスクとしてシグナリングされる。表4は、segment_maskを使用することによるセグメントのシグナリングを行う方法を示す。
ここで、size_xおよびsize_yは、それぞれ水平方向および垂直方向におけるサンプルブロック内のサンプルの寸法を表す。たとえば、16×16のサンプルブロックの場合、size_x=size_y=16である。パラメータsegment_maskは、サンプルブロック内の各サンプルに対して値0および1をとることができ、サンプルがセグメントマスクに属する(値1)か否(値0)かを示す。第2のセグメントの予測係数ResScaleVal2に関係するパラメータlog2_res_scale_abs_seg2_plus1およびres_scale_sign_seg2_flagは、上記の実施形態と同じ方法で規定される。
segment_maskはまた、異なる形で符号化することができる。別法として、ランレングス符号化を使用して符号化することもできる。走査順序は、水平もしくは垂直ラスタ走査またはZ走査とすることができる。セグメントマスクはまた、HEVCにおけるCABACなどの算術符号化でエントロピー符号化することができる。
この実施形態の一変形形態では、2値マスクは、符号化される前に、より低い分解能にダウンサンプリングされる。復号側では、この2値マスクは、セグメント化が適用される前に、元の分解能にアップサンプリングされる。
実施形態のさらに別の変形形態では、2値マスクは、分割フラグが設定されるとブロックが4つのより小さいブロックに分割されるHEVCにおける符号化単位(CU)4分木構造に類似の4分木構造を使用して符号化される。これを行う方法の一例を図6に示す。
上記の4分木セグメントマスク例では、4分木がZ走査順序で横切られる場合、次のビットを符号化する必要があるはずである。
分割フラグ:1 0 1 0011 1 1100 0
セグメントID:1 1 1 1110 1000 1110 1010 0 0 0
2値マスクに対する4分木構造がない場合、次のビットを符号化する必要があるはずである。
セグメントID:11111111 11111111 11111110 11111000 11100000 10100000 00000000 00000000
4分木セグメントマスクは、HEVCにおけるCABACなどの算術符号化でエントロピー符号化することができる。異なるCABACコンテキストを、分割フラグおよびセグメントIDに割り当てることもできる。
上記の実施形態では、シグナリングされるべきパラメータについて、HEVCにおけるCCP構文を修正することによって例示した。しかし、これらのパラメータは、他のタイプの予測でも同様にシグナリングすることができることを理解されたい。たとえば、線形モデル(LM)による色差イントラ予測の場合、パラメータα、β、α、およびβをシグナリングする必要があるはずであり、これらのパラメータは各々、大きさのそれぞれの底を2とする対数およびパラメータの符号によって同様に表すことができる。
セグメント化パラメータおよび予測パラメータはまた、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、スライスヘッダ、またはブロックヘッダでシグナリングすることができる。
上記の例では、ブロックをセグメント化するとき、16×16のサンプルからなるブロック寸法を使用した。しかし、セグメント化は、現在の符号化単位(CU)の寸法、たとえば8×8、16×16、32×32、64×64などに応じて、異なるブロック寸法に対して適用することができる。
一態様によれば、図8に示すように、ビデオシーケンスの符号化ピクチャを含むビットストリームを復号するために復号器200によって実行される方法が提供される。符号化ピクチャ11は、図7に示すように、少なくとも第1の符号化色成分14および第2の符号化色成分15を含み、第1の符号化色成分14は、第1の符号化サンプルブロック16を含み、第2の符号化色成分15は、第2の符号化サンプルブロック17を含む。この方法は、第1の符号化サンプルブロック16および第2の符号化サンプルブロック17を少なくとも第1のセグメント18および第2のセグメント19にセグメント化するステップS5を含む。この方法は、同じセグメントに属する第1の符号化サンプルブロック16内のサンプル値から第2の符号化サンプルブロック17内のサンプル値を予測するステップS6をさらに含む。
この方法は、任意選択で、符号化サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するためにビットストリーム3を構文解析するステップS4を含む。このステップは、図8に示すように、ステップS5の前に実行される。
第1の符号化色成分14は、符号化ルミナンス色成分とすることができ、第2の符号化色成分15は、符号化クロミナンス色成分とすることができる。実際には一般的である上記の場合、符号化クロミナンス成分からの符号化サンプルブロックは、符号化ルミナンス成分からの対応する符号化サンプルブロックから予測される。しかし、本発明の実施形態は、符号化ルミナンス色成分からの符号化クロミナンス色成分の予測のみに限定されるものではなく、符号化ルミナンス色成分で予測のために符号化クロミナンス色成分を使用することができることも想定される。
第1の符号化サンプルブロック16は、符号化プロセスで異なるステップから発生することができる。たとえば、第1の符号化サンプルブロック16は、復号されたピクチャから発生することができる。第1の符号化サンプルブロック16は、符号化イントラ/インター予測から発生することができる。別法として、第1の符号化サンプルブロック16は、符号化残余サンプルブロックに対応することができる。さらに別の代替形態は、第1の符号化サンプルブロック16が符号化イントラ/インター予測と符号化残余サンプルブロックとの組合せであることである。
符号化サンプルブロック内のサンプルがどのセグメントに属するかに関する情報は、復号側で導出することができ、またはビットストリーム内でシグナリングすることができる。たとえば、上記の表2に示すように、復号器でセグメント化を実行するときに使用されるべき閾値をシグナリングすることが可能である。その場合、同じ閾値が符号器と復号器の両方で使用される。別の選択肢は、正確な閾値をシグナリングするのではなく、復号されたサンプル値に基づいて復号器でセグメント化を実行することである。閾値は、サンプルブロック内のサンプル値の平均もしくは中央値として、または任意の他の方法によって得ることができる。しかし、この場合、符号器および復号器が閾値を決定するときに同じ方法を使用することが重要であり、これは、復号器で閾値を導出する方法をシグナリングすることによって確実にすることができる。別法として、上記のように、たとえばセグメント化マスクを使用することによって、サンプルがどのセグメントに属するかに関する正確な情報をシグナリングすることができる。
別法として、セグメント化は、エッジ検出、大津の閾値処理方法、色に基づくセグメント化、K平均クラスタリング、画像テキスチャフィルタ、および空間変換に基づくセグメント化方法のうちの1つを使用することによって実行することができる。この場合、符号器で実行されたステップと同じステップを復号器が実行するために、エッジ検出または上記のセグメント化方法のいずれかに関係するパラメータがビットストリーム内でシグナリングされる。
一実施形態によれば、セグメント化は、第1の符号化サンプルブロック16上のみで実行され、このサンプルブロックからのセグメントは、第2の符号化サンプルブロック17にコピーされ、したがって第1のサンプルブロック16および第2のサンプルブロック17内に同じ位置を有するサンプルは、同じセグメントに属する。
セグメントの少なくとも1つの中の第2の符号化サンプルブロック17内のサンプル値は、第1の符号化サンプルブロック16内の対応するセグメント内のサンプル値に基づいて予測される。これは、たとえば、線形モデルを使用することによって行うことができる。CCPおよび線形モデル(LM)を使用する色差イントラ予測は、線形予測モデルの例の一部にすぎない。CCPの場合、予測係数は、復号器にシグナリングすることができ、したがって復号器は、符号器と同じ予測パラメータに基づいて予測を実行することができる。このシグナリングについては上述した。予測パラメータは、任意の他の予測方法に対して同様にシグナリングすることもできる。
図9は、ビデオシーケンスのピクチャをビデオビットストリームに符号化する符号器100の概略ブロック図である。ピクチャ1は、図2に示すように、少なくとも第1の色成分4および第2の色成分5を含み、第1の色成分4は、第1のサンプルブロック6を含み、第2の色成分5は、第2のサンプルブロック7を含む。符号器は、第1のブロック6および第2のブロック7内に同じピクチャ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロック6および第2のサンプルブロック7を少なくとも第1のセグメント8および第2のセグメント9にセグメント化するように設定されたセグメント化ユニット170を備える。符号器は、同じセグメントに属する第1のサンプルブロック6内のサンプル値に基づいて第2のサンプルブロック7内のサンプル値を予測するように設定された予測ユニット180をさらに備える。符号器は、任意選択で、セグメント化および/または予測に関係するパラメータをビットストリーム内でシグナリングするように設定されたシグナリングユニット190を備えることができる。セグメント化ユニット170、予測ユニット180、およびシグナリングユニット190は、ハードウェアベース、ソフトウェアベース(この場合、それぞれセグメント化モジュール、予測モジュール、およびシグナリングモジュールと呼ばれる)とすることができ、またはハードウェアとソフトウェアとの組合せとすることができる。
符号器100は、HEVCもしくはH.264/AVCに基づく符号器、または別の色成分に基づく1つの色成分の予測を利用する任意の他の現況技術の符号器とすることができる。
セグメント化ユニット170は、閾値より小さい値を有するサンプルが1つのセグメントに属し、閾値以上の値を有するサンプルが別のセグメントに属するように、閾値処理によってサンプルブロックをセグメント化することができる。セグメント化ユニット170はまた、エッジ検出、大津の閾値処理方法、色に基づくセグメント化、K平均クラスタリング、画像テキスチャフィルタ、および空間変換に基づくセグメント化方法のうちの1つを使用することによってサンプルブロックをセグメント化することができる。セグメント化ユニット170は、上記の技法の1つで第1のサンプルブロック6をセグメント化し、次いで、第1のサンプルブロック6および第2のサンプルブロック7内に同じピクチャ位置を有するサンプルが同じセグメントに属するように、第2のサンプルブロック7をセグメント化することができる。
予測ユニット180は、線形モデルを使用して、第1のサンプルブロック6内のサンプル値に基づいて第2のサンプルブロック7内のサンプル値を予測することができる。予測ユニットは、HEVCで規定された成分間予測(CCP)ツールを使用して、2つのセグメントに対する予測係数α(ResScaleVal1)およびα(ResScaleVal2)を取得することができる。本発明によれば、予測ユニットは、第1のサンプルブロック6内の第1のセグメント8内のサンプル値から第2のサンプルブロック7の第1のセグメント8内のサンプル値を予測する。加えて、予測ユニットは、第1のサンプルブロック6内の第2のセグメント9内のサンプル値に基づいて第2のサンプルブロック7内の第2のセグメント9内のサンプル値を予測する。したがって、予測ユニットは、2つの予測係数、ResScaleVal1およびResScaleVal2を決定する。予測ユニットは、線形モデル(LM)または任意の他のモデルを使用する色差イントラ予測など、任意の他の線形モデルを使用して、同じセグメントに属する第1のサンプルブロック6内のサンプル値に基づいて第2のサンプルブロック7内のサンプル値を予測することができる。
シグナリングユニット190は、セグメント閾値およびセグメント閾値処理方法など、セグメント化に関係するパラメータをシグナリングするように設定することができる。セグメント化がエッジ検出により実行される場合、シグナリングユニット190はまた、エッジ検出フィルタのタイプまたはそれに関連する任意の閾値など、エッジ検出に関係するパラメータをシグナリングするように設定することができる。シグナリングユニット190は同様に、2値セグメント化マスクをシグナリングするように設定することができる。セグメント化に関係するパラメータとは別に、シグナリングユニットは、線形予測モデルおよび対応する係数など、予測に関係するパラメータをシグナリングするように設定することができる。
符号器100は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組合せで実施することができる。符号器100は、移動電話、タブレット、デスクトップ、ネットブック、マルチメディアプレーヤ、ビデオストリーミングサーバ、セットトップボックス、またはコンピュータなどのユーザ機器内で実施することができる。符号器100はまた、通信ネットワークまたはシステムにおいて、無線基地局などのネットワークノードの形をとりまたはネットワークノードに接続されたネットワークデバイス内で実施することができる。
図9に関連して開示するそれぞれのユニットは、デバイス内で物理的に別個のユニットとして開示されており、すべてASIC(特定用途向け集積回路)などの特殊目的回路とすることができるが、ユニットの一部またはすべてが汎用プロセッサ上で実行されるコンピュータプログラムモジュールとして実施されるデバイスの代替実施形態も可能である。そのような実施形態を図10に開示する。
図10は、DSP(デジタル信号プロセッサ)またはCPU(中央演算処理装置)などの処理ユニット110を有するコンピュータ160の一実施形態を概略的に示す。処理ユニット110は、本明細書に記載する方法の異なるステップを実行する単一のユニットまたは複数のユニットとすることができる。コンピュータはまた、ビデオシーケンスを受け取る入出力(I/O)ユニット120を備える。I/Oユニット120は、図10には単一のユニットとして示されているが、同様に、別個の入力ユニットおよび別個の出力ユニットの形をとることもできる。
さらに、コンピュータ160は、不揮発性メモリ、たとえばEEPROM(電気的消去可能プログラマブル読み取り専用メモリ)、フラッシュメモリ、またはディスクドライブの形をとる少なくとも1つのコンピュータプログラム製品130を備える。コンピュータプログラム製品130は、コンピュータプログラム140を備え、コンピュータプログラム140は、処理ユニット110などによってコンピュータ160上で実行されると、コンピュータ160に対して、図3に関連して上述した方法のステップを実行させる符号化手段を備える。
さらなる態様によれば、図11に示す符号器100が提供される。処理手段は、CPU(中央演算処理装置)110によって例示される。処理手段は、図3に関連して上述した方法のステップを実行するように動作する。このことは、処理手段110が、第1のブロック6および第2のブロック7内に同じピクチャ位置を有するサンプルが同じセグメントに属するように、第1のサンプルブロック6および第2のサンプルブロック7を少なくとも第1のセグメント8および第2のセグメント9にセグメント化するように動作することを示唆する。そのことは、処理手段110が、同じセグメントに属する第1のサンプルブロック6内のサンプル値に基づいて第2のサンプルブロック7内のサンプル値を予測するように動作することをさらに示唆する。
図12は、ビデオシーケンス2の符号化ピクチャ11を含むビットストリーム3を復号する復号器200の概略ブロック図である。符号化ピクチャ11は、少なくとも第1の符号化色成分14および第2の符号化色成分15を含み、第1の符号化色成分14は、第1の符号化サンプルブロック16を含み、第2の符号化色成分15は、第2の符号化サンプルブロック17を含む。復号器200は、第1の符号化サンプルブロック16および第2の符号化サンプルブロック17を少なくとも第1のセグメント18および第2のセグメント19にセグメント化するように設定されたセグメント化ユニット280を備える。復号器200は、同じセグメントに属する第1の符号化サンプルブロック16内のサンプル値から第2の符号化サンプルブロック17内のサンプル値を予測するように設定された予測ユニット290を備える。復号器200は、任意選択で、サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するためにビットストリームを構文解析するように設定された構文解析ユニット270を備える。構文解析ユニット270、セグメント化ユニット280、および予測ユニット290は、ハードウェアベース、ソフトウェアベース(この場合、それぞれセグメント化モジュール、予測モジュール、およびシグナリングモジュールと呼ばれる)とすることができ、またはハードウェアとソフトウェアとの組合せとすることができる。
復号器200は、HEVCもしくはH.264/AVCに基づく復号器、または別の符号化色成分に基づく1つの符号化色成分の予測を利用する任意の他の現況技術の復号器とすることができる。
セグメント化ユニット280は、閾値より小さい値を有するサンプルが1つのセグメントに属し、閾値以上の値を有するサンプルが別のセグメントに属するように、閾値処理によって符号化サンプルブロックをセグメント化することができる。セグメント化ユニット280はまた、エッジ検出、大津の閾値処理方法、色に基づくセグメント化、K平均クラスタリング、画像テキスチャフィルタ、および空間変換に基づくセグメント化方法のうちの1つを使用することによって符号化サンプルブロックをセグメント化することができる。
予測ユニット290は、線形モデルを使用して、同じセグメントに属する第1の符号化サンプルブロック16内のサンプル値に基づいて第2の符号化サンプルブロック17内のサンプル値を予測することができる。予測ユニット290は、上記のCCPツール、またはたとえば線形モデルによる色差イントラ予測などの任意の他の線形予測モデルを使用することができる。
任意選択の構文解析ユニット270は、サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するためにビットストリームを構文解析するように設定することができる。たとえば、構文解析ユニット270は、ビットストリームからのセグメント化閾値を構文解析するように設定することができる。別法として、セグメント化がエッジ検出によって実行される場合、構文解析ユニット270は、使用されるエッジ検出フィルタに対するタイプおよび閾値を構文解析するように設定することができる。構文解析ユニット270は、CCPの場合はResScaleVal1およびResScaleVal2などの線形予測モデル係数、または任意の他の予測係数を構文解析するように設定することができる。
復号器200は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアとの組合せで実施することができる。復号器200は、移動電話、タブレット、デスクトップ、ネットブック、マルチメディアプレーヤ、ビデオストリーミングサーバ、セットトップボックス、またはコンピュータなどのユーザ機器内で実施することができる。復号器200はまた、通信ネットワークまたはシステムにおいて、無線基地局などのネットワークノードの形をとりまたはネットワークノードに接続されたネットワークデバイス内で実施することができる。
図12に関連して開示するそれぞれのユニットは、デバイス内で物理的に別個のユニットとして開示されており、すべてASIC(特定用途向け集積回路)などの特殊目的回路とすることができるが、ユニットの一部またはすべてが汎用プロセッサ上で実行されるコンピュータプログラムモジュールとして実施されるデバイスの代替実施形態も可能である。そのような実施形態を図13に開示する。
図13は、DSP(デジタル信号プロセッサ)またはCPU(中央演算処理装置)などの処理ユニット210を有するコンピュータ260の一実施形態を概略的に示す。処理ユニット210は、本明細書に記載する方法の異なるステップを実行する単一のユニットまたは複数のユニットとすることができる。コンピュータはまた、ビデオシーケンスを受け取る入出力(I/O)ユニット220を備える。I/Oユニット220は、図13には単一のユニットとして示されているが、同様に、別個の入力ユニットおよび別個の出力ユニットの形をとることもできる。
さらに、コンピュータ260は、不揮発性メモリ、たとえばEEPROM(電気的消去可能プログラマブル読み取り専用メモリ)、フラッシュメモリ、またはディスクドライブの形をとる少なくとも1つのコンピュータプログラム製品230を備える。コンピュータプログラム製品230は、コンピュータプログラム240を備え、コンピュータプログラム240は、処理ユニット210などによってコンピュータ260上で実行されると、コンピュータ260に対して、図8に関連して上述した方法のステップを実行させる符号化手段を備える。
さらなる態様によれば、図14に示す復号器200が提供される。処理手段は、CPU(中央演算処理装置)210によって例示される。処理手段は、図8に関連して上述した方法のステップを実行するように動作する。このことは、処理手段210が、第1の符号化サンプルブロック16および第2の符号化サンプルブロック17を少なくとも第1のセグメント18および第2のセグメント19にセグメント化するように動作することを示唆する。処理手段210は、同じセグメントに属する第1の符号化サンプルブロック16内のサンプル値から第2の符号化サンプルブロック17内のサンプル値を予測するようにさらに動作する。処理手段210は、任意選択で、サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するためにビットストリーム3を構文解析するようにさらに動作する。
上記の実施形態は、本発明のいくつかの説明的な例であると理解されたい。本発明の範囲から逸脱することなく、様々な修正、組合せ、および変更を実施形態に加えることができることが、当業者には理解されよう。特に、技術的に可能な場合、異なる実施形態における異なる部分的な解決策を、他の構成で組み合わせることができる。

Claims (27)

  1. ビデオシーケンス(2)のピクチャ(1)をビットストリーム(3)に符号化するために符号器(100)によって実行される方法であって、前記ピクチャ(1)が、少なくとも第1の色成分(4)および第2の色成分(5)を含み、前記第1の色成分(4)が、第1のサンプルブロック(6)を含み、前記第2の色成分(5)が、第2のサンプルブロック(7)を含み、前記方法が、
    前記第1のサンプルブロック(6)および前記第2のサンプルブロック(7)内に同じ位置を有するサンプルが同じセグメントに属するように、前記第1のサンプルブロック(6)および前記第2のサンプルブロック(7)を少なくとも第1のセグメント(8)および第2のセグメント(9)にセグメント化すること(S1)と、
    前記同じセグメントに属する前記第1のサンプルブロック(6)内のサンプル値に基づいて前記第2のサンプルブロック(7)内のサンプル値を予測すること(S2)とを含む、方法。
  2. 前記第1の色成分(4)が、ルミナンス色成分であり、前記第2の色成分(5)が、クロミナンス色成分である、請求項1に記載の方法。
  3. 前記第1のサンプルブロック(6)が、符号化されるべき前記ピクチャ、イントラ/インター予測、残余、またはイントラ/インター予測と残余との組合せのうちの1つから発生する、請求項1または2に記載の方法。
  4. セグメント化(S1)が、閾値より小さい値を有するサンプルが1つのセグメントに属し、前記閾値以上の値を有するサンプルが別のセグメントに属するように、閾値処理によって実行される、請求項1から3のいずれか一項に記載の方法。
  5. セグメント化(S1)が、エッジ検出、大津の閾値処理方法、色に基づくセグメント化、K平均クラスタリング、画像テキスチャフィルタ、および空間変換に基づくセグメント化方法のうちの1つを使用することによって実行される、請求項1から3のいずれか一項に記載の方法。
  6. 前記セグメントの少なくとも1つの中の前記第2のサンプルブロック(7)内の前記サンプル値が、線形モデルを使用することによって、前記第1のサンプルブロック(6)内の対応するセグメント内の前記サンプル値に基づいて予測される、請求項1から5のいずれか一項に記載の方法。
  7. セグメント化(S1)に関係するパラメータおよび/または予測(S2)に関係するパラメータを前記ビットストリーム(3)内でシグナリングすること(S3)
    をさらに含む、請求項1から6のいずれか一項に記載の方法。
  8. セグメント化(S1)および/または予測(S2)に関係する前記パラメータが、セグメント閾値、セグメント閾値処理方法、線形予測モデル係数、および2値セグメントマスクのうちの少なくとも1つを含む、請求項7に記載の方法。
  9. 前記2値マスクが、4分木構造により符号化される、請求項8に記載の方法。
  10. ビデオシーケンス(2)の符号化ピクチャ(11)を含むビットストリーム(3)を復号するために復号器(200)によって実行される方法であって、前記符号化ピクチャ(11)が、少なくとも第1の符号化色成分(14)および第2の符号化色成分(15)を含み、前記第1の符号化色成分(14)が、第1の符号化サンプルブロック(16)を含み、前記第2の符号化色成分(15)が、第2の符号化サンプルブロック(17)を含み、前記方法が、
    前記第1の符号化サンプルブロック(16)および前記第2の符号化サンプルブロック(17)を少なくとも第1のセグメント(18)および第2のセグメント(19)にセグメント化すること(S5)と、
    同じセグメントに属する前記第1の符号化サンプルブロック(16)内のサンプル値に基づいて前記第2の符号化サンプルブロック(17)内のサンプル値を予測すること(S6)とを含む、方法。
  11. 前記第1の符号化成分(14)が、符号化ルミナンス色成分であり、前記第2の符号化成分(15)が、符号化クロミナンス色成分である、請求項10に記載の方法。
  12. 前記第1の符号化サンプルブロック(16)が、符号化イントラ/インター予測、残余、および符号化イントラ/インター予測と残余との組合せのうちの1つから発生する、請求項10または11に記載の方法。
  13. セグメント化(S5)が、閾値より小さい値を有するサンプルが1つのセグメントに属し、前記閾値以上の値を有するサンプルが別のセグメントに属するように、閾値処理によって実行される、請求項10から12のいずれか一項に記載の方法。
  14. 前記セグメントの少なくとも1つの中の前記第2の符号化サンプルブロック(17)内の前記サンプル値が、線形モデルを使用することによって、前記第1の符号化サンプルブロック(16)内の前記対応するセグメント内の前記サンプル値に基づいて予測される、請求項10から13のいずれか一項に記載の方法。
  15. サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するために前記ビットストリーム(3)を構文解析すること(S4)
    をさらに含む、請求項10に記載の方法。
  16. ビデオシーケンス(2)のピクチャ(1)をビデオビットストリーム(3)に符号化する符号器(100)であって、前記ピクチャ(1)が、少なくとも第1の色成分(4)および第2の色成分(5)を含み、前記第1の色成分(4)が、第1のサンプルブロック(6)を含み、前記第2の色成分(5)が、第2のサンプルブロック(7)を含み、前記符号器(100)が、処理手段(110)を備え、前記処理手段(110)が、
    前記第1のサンプルブロック(6)および前記第2のサンプルブロック(7)内に同じ位置を有するサンプルが同じセグメントに属するように、前記第1のサンプルブロック(6)および前記第2のサンプルブロック(7)を少なくとも第1のセグメント(8)および第2のセグメント(9)にセグメント化し、
    前記同じセグメントに属する前記第1のサンプルブロック(6)内のサンプル値に基づいて前記第2のサンプルブロック(7)内のサンプル値を予測するように動作する、符号器(100)。
  17. 前記処理手段(110)が、プロセッサ(150)およびメモリ(130)を備え、前記メモリ(130)が、前記プロセッサ(150)によって実行可能な命令を含む、請求項16に記載の符号器(100)。
  18. 前記処理手段(110)が、
    セグメント化に関係するパラメータおよび/または予測に関係するパラメータを前記ビットストリーム(3)内でシグナリングするようにさらに動作する、請求項16または17に記載の符号器(100)。
  19. ビデオシーケンス(2)の符号化ピクチャ(11)を含むビットストリーム(3)を復号する復号器(200)であって、前記符号化ピクチャ(11)が、少なくとも第1の符号化色成分(14)および第2の符号化色成分(15)を含み、前記第1の符号化色成分(14)が、第1の符号化サンプルブロック(16)を含み、前記第2の符号化色成分(15)が、第2の符号化サンプルブロック(17)を含み、前記復号器(200)が、処理手段(210)を備え、前記処理手段(210)が、
    前記第1の符号化サンプルブロック(16)および前記第2の符号化サンプルブロック(17)を少なくとも第1のセグメント(18)および第2のセグメント(19)にセグメント化し、
    同じセグメントに属する前記第1の符号化サンプルブロック(16)内のサンプル値から前記第2の符号化サンプルブロック(17)内のサンプル値を予測するように動作する、復号器(200)。
  20. 前記処理手段(210)が、プロセッサ(250)およびメモリ(230)を備え、前記メモリ(230)が、前記プロセッサ(250)によって実行可能な命令を含む、請求項19に記載の復号器(200)。
  21. 前記処理手段(210)が、
    サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するために前記ビットストリーム(3)を構文解析するようにさらに動作する、請求項19または20に記載の復号器(200)。
  22. ビデオシーケンス(2)のピクチャ(1)をビデオビットストリーム(3)に符号化するコンピュータプログラム(140)であって、前記ピクチャ(1)が、少なくとも第1の色成分(4)および第2の色成分(5)を含み、前記第1の色成分(4)が、第1のサンプルブロック(6)を含み、前記第2の色成分(5)が、第2のサンプルブロック(7)を含み、前記コンピュータプログラム(140)が、符号化手段を備え、前記符号化手段が、コンピュータ(160)上で実行されると、前記コンピュータ(160)に対して、
    前記第1のブロック(6)および前記第2のブロック(7)内に同じ位置を有するサンプルが同じセグメントに属するように、前記第1のサンプルブロック(6)および前記第2のサンプルブロック(7)を少なくとも第1のセグメント(8)および第2のセグメント(9)にセグメント化させ、
    前記同じセグメントに属する前記第1のサンプルブロック(6)内のサンプル値に基づいて前記第2のサンプルブロック(7)内のサンプル値を予測させる、コンピュータプログラム(140)。
  23. 前記コンピュータ(160)に対してさらに、セグメント化に関係するパラメータおよび/または予測に関係するパラメータを前記ビットストリーム(3)内でシグナリングさせる、請求項22に記載のコンピュータプログラム(140)。
  24. ビデオシーケンスの符号化ピクチャ(11)を含むビットストリーム(3)を復号するコンピュータプログラム(240)であって、前記符号化ピクチャ(11)が、少なくとも第1の符号化色成分(14)および第2の符号化色成分(15)を含み、前記第1の符号化色成分(14)が、第1の符号化サンプルブロック(16)を含み、前記第2の符号化色成分(15)が、第2の符号化サンプルブロック(17)を含み、前記コンピュータプログラム(240)が、符号化手段を備え、前記符号化手段が、コンピュータ(260)上で実行されると、前記コンピュータ(260)に対して、
    前記第1の符号化サンプルブロック(16)および前記第2の符号化サンプルブロック(17)を少なくとも第1のセグメント(18)および第2のセグメント(19)にセグメント化させ、
    同じセグメントに属する前記第1の符号化サンプルブロック(16)内のサンプル値から前記第2の符号化サンプルブロック(17)内のサンプル値を予測させる、コンピュータプログラム(240)。
  25. 前記コンピュータ(260)に対してさらに、サンプルブロックのセグメント化および/または予測に関係する構文情報を取得するために前記ビットストリーム(3)を構文解析させる、請求項24に記載のコンピュータプログラム(240)。
  26. コンピュータ可読手段(310)と、前記コンピュータ可読手段(310)上に記憶された請求項22または23に記載のコンピュータプログラム(140)とを備えるコンピュータプログラム製品(300)。
  27. コンピュータ可読手段(410)と、前記コンピュータ可読手段(410)上に記憶された請求項24または25に記載のコンピュータプログラム(240)とを備えるコンピュータプログラム製品(400)。
JP2017543877A 2015-10-09 2015-10-09 ビデオ符号化における成分間予測 Pending JP2017538381A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2015/073394 WO2017059926A1 (en) 2015-10-09 2015-10-09 Cross component prediction in video coding

Publications (1)

Publication Number Publication Date
JP2017538381A true JP2017538381A (ja) 2017-12-21

Family

ID=54330744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017543877A Pending JP2017538381A (ja) 2015-10-09 2015-10-09 ビデオ符号化における成分間予測

Country Status (3)

Country Link
US (1) US10045023B2 (ja)
JP (1) JP2017538381A (ja)
WO (1) WO2017059926A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235026A1 (ja) * 2018-06-06 2019-12-12 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム、画像復号方法及びプログラム
CN113287311A (zh) * 2018-12-22 2021-08-20 北京字节跳动网络技术有限公司 两步交叉分量预测模式的指示

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2957079A1 (en) * 2016-02-03 2017-08-03 Evertz Microsystems Ltd. Systems and methods for improving video compression efficiency
CN106791883A (zh) * 2016-11-18 2017-05-31 上海兆芯集成电路有限公司 纹理砖压缩及解压缩方法以及使用该方法的装置
GB2567249A (en) * 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
WO2019221465A1 (ko) * 2018-05-14 2019-11-21 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
US10931948B2 (en) * 2018-05-21 2021-02-23 Google Llc Enhanced image compression with clustering and lookup procedures
WO2019229683A1 (en) 2018-05-31 2019-12-05 Beijing Bytedance Network Technology Co., Ltd. Concept of interweaved prediction
TWI814890B (zh) * 2018-08-17 2023-09-11 大陸商北京字節跳動網絡技術有限公司 簡化的跨分量預測
CN117478883A (zh) 2018-09-12 2024-01-30 北京字节跳动网络技术有限公司 交叉分量线性模型中的尺寸相关的下采样
KR20210087928A (ko) 2018-11-06 2021-07-13 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측을 위한 파라미터 유도의 복잡성 감소
US11197005B2 (en) * 2018-11-08 2021-12-07 Qualcomm Incorporated Cross-component prediction for video coding
CN113170122B (zh) 2018-12-01 2023-06-27 北京字节跳动网络技术有限公司 帧内预测的参数推导
KR20230170146A (ko) 2018-12-07 2023-12-18 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 컨텍스트 기반 인트라 예측
CN113597760A (zh) 2019-01-02 2021-11-02 北京字节跳动网络技术有限公司 视频处理的方法
EP3903482A4 (en) * 2019-02-22 2022-06-01 Beijing Bytedance Network Technology Co., Ltd. SELECTING ADJACENT SAMPLES FOR INTRA PREDICTION
CA3128769C (en) 2019-02-24 2023-01-24 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
KR20210135502A (ko) 2019-03-08 2021-11-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 처리에서 변형 정보의 시그널링
WO2020192642A1 (en) 2019-03-24 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Conditions in parameter derivation for intra prediction
KR20210139328A (ko) * 2019-03-25 2021-11-22 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 화상 예측 방법, 인코더, 디코더 및 저장 매체
AU2019437150A1 (en) * 2019-03-25 2021-11-11 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image prediction method, encoder, decoder and storage medium
CN113692741B (zh) 2019-04-18 2022-12-13 北京字节跳动网络技术有限公司 跨分量模式中的参数推导
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
CN113994697A (zh) 2019-06-22 2022-01-28 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
US11146801B1 (en) * 2020-06-30 2021-10-12 Tencent America LLC Cross component intra prediction mode
WO2024053963A1 (ko) * 2022-09-05 2024-03-14 현대자동차주식회사 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009534876A (ja) * 2006-03-23 2009-09-24 サムスン エレクトロニクス カンパニー リミテッド 画像の符号化方法及び装置、復号化方法及び装置
JP2013518453A (ja) * 2010-01-25 2013-05-20 トムソン ライセンシング 各色平面について別個のビデオ・エンコーダ、ビデオ・デコーダ、ビデオ・エンコード方法およびビデオ・デコード方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561620B2 (en) * 2004-08-03 2009-07-14 Microsoft Corporation System and process for compressing and decompressing multiple, layered, video streams employing spatial and temporal encoding
US7596265B2 (en) * 2004-09-23 2009-09-29 Hewlett-Packard Development Company, L.P. Segmenting pixels in an image based on orientation-dependent adaptive thresholds
KR101200865B1 (ko) 2006-03-23 2012-11-13 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101291196B1 (ko) * 2008-01-25 2013-07-31 삼성전자주식회사 영상의 부호화, 복호화 방법 및 장치
US20120008684A1 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus of encoding and decoding video signal
WO2012160797A1 (en) * 2011-05-20 2012-11-29 Panasonic Corporation Methods and apparatuses for encoding and decoding video using inter-color-plane prediction
WO2015139010A1 (en) * 2014-03-14 2015-09-17 Vid Scale, Inc. Systems and methods for rgb video coding enhancement

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009534876A (ja) * 2006-03-23 2009-09-24 サムスン エレクトロニクス カンパニー リミテッド 画像の符号化方法及び装置、復号化方法及び装置
JP2013518453A (ja) * 2010-01-25 2013-05-20 トムソン ライセンシング 各色平面について別個のビデオ・エンコーダ、ビデオ・デコーダ、ビデオ・エンコード方法およびビデオ・デコード方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235026A1 (ja) * 2018-06-06 2019-12-12 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム、画像復号方法及びプログラム
JP2019213096A (ja) * 2018-06-06 2019-12-12 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム、画像復号方法及びプログラム
US11463684B2 (en) 2018-06-06 2022-10-04 Kddi Corporation Image decoding device, image encoding device, image processing system, image decoding method, and program
CN113287311A (zh) * 2018-12-22 2021-08-20 北京字节跳动网络技术有限公司 两步交叉分量预测模式的指示
CN113287311B (zh) * 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式的指示

Also Published As

Publication number Publication date
WO2017059926A1 (en) 2017-04-13
US20170272749A1 (en) 2017-09-21
US10045023B2 (en) 2018-08-07

Similar Documents

Publication Publication Date Title
US10045023B2 (en) Cross component prediction in video coding
CN108028919B (zh) 一种视频或者图像编解码的方法及装置
RU2683165C1 (ru) Внутреннее предсказание блочного копирования с асимметричными разделами и схемами поиска на стороне кодера, диапазоны поиска и подходы к разделению
CN111819852B (zh) 用于变换域中残差符号预测的方法及装置
TWI663869B (zh) 區塊可適性顏色空間轉換寫碼
CA2940015C (en) Adjusting quantization/scaling and inverse quantization/scaling when switching color spaces
US9167269B2 (en) Determining boundary strength values for deblocking filtering for video coding
WO2017071480A1 (zh) 参考帧编解码的方法与装置
TW201735637A (zh) 合併用於視訊寫碼之用於多類別區塊之濾波器
TW202106012A (zh) 用於視訊寫碼之多重自適應迴路濾波器集合
US20220217420A1 (en) On boundary forced partition
US9503751B2 (en) Method and apparatus for simplified depth coding with extended prediction modes
KR102524915B1 (ko) 픽처 경계 처리를 위한 멀티형 트리 깊이 확장
JP7401542B2 (ja) ピクチャのブロックのイントラ予測の方法
KR101912769B1 (ko) 그래프 템플릿으로부터 유도된 변환을 이용하여 비디오 신호를 디코딩/인코딩하는 방법 및 장치
WO2021139572A1 (zh) 编码方法、解码方法、编码器、解码器以及存储介质
US20150365698A1 (en) Method and Apparatus for Prediction Value Derivation in Intra Coding
BR112021004124A2 (pt) método de decodificação de vídeo e decodificador de vídeo
JP7384974B2 (ja) 適応乗算係数を用いた画像フィルタリングのための方法および装置
CN114287133A (zh) 帧内模式中的预测样点滤波的加权因子
JP2023134585A (ja) Hdrコンテンツをデブロックするためのシステムおよび方法
EP4205400A1 (en) Residual and coefficients coding for video coding
JP2024506156A (ja) ビデオ符号化のための残差および係数の符号化
CN114223200A (zh) 位置相关帧内预测样点滤波
WO2017093188A1 (en) Encoding and decoding of pictures in a video

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180626