JP2022528333A - 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 - Google Patents

色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2022528333A
JP2022528333A JP2021556939A JP2021556939A JP2022528333A JP 2022528333 A JP2022528333 A JP 2022528333A JP 2021556939 A JP2021556939 A JP 2021556939A JP 2021556939 A JP2021556939 A JP 2021556939A JP 2022528333 A JP2022528333 A JP 2022528333A
Authority
JP
Japan
Prior art keywords
component
value
chromaticity
predicted value
chromaticity component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021556939A
Other languages
English (en)
Other versions
JPWO2020192180A5 (ja
Inventor
フオ、チュンイェン
ワン、シューアイ
マー、イェンチュオ
チャン、ウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2022528333A publication Critical patent/JP2022528333A/ja
Publication of JPWO2020192180A5 publication Critical patent/JPWO2020192180A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

本出願の実施例は、色成分予測方法、エンコーダー及びコンピュータ記憶媒体を開示する。当該方法は、色成分の符号化において、色度成分を符号化し、符号化された色度成分に基づいて、輝度成分の予測値を取得するステップを含む。

Description

本出願の実施例は、ビデオ符号化分野におけるフレーム内予測技術に関し、特に、色成分予測方法、デコーダー、デコーダー及びコンピュータ記憶媒体に関する。
次世代ビデオ符号化規格H.266又は多機能ビデオ符号化(VVC:VersatileVideo Coding)では、色成分間線形モデル予測方法(CCLM:Cross-component Linear Model Prediction)により成分間予測を実現することができ、成分間予測により、成分間の依存性に基づき、色度成分を輝度成分で予測することができる。
現在、予測のための輝度成分は、ダウンサンプリングする必要があり、予測しようとする色度成分と同じ解像度にダウンサンプリングし、次に、輝度と色度の間で同じ解像度で予測を実行し、これにより、輝度成分からその中の1つの色度成分の予測が実現される。
しかしながら、輝度成分が豊かなテクスチャーを有し、色度成分が比較的平坦であるため、輝度成分を用いて色度成分を予測すると、予測された色度成分と実際の色度値の間に大きな偏差があり、予測値の精度が低いため、符号化及び復号の効率に影響を与える。
本出願の実施例は、色度成分から輝度成分までの予測符号化を実現し、輝度成分の予測精度を向上し、輝度成分の予測値を実際の輝度成分のピクセル値により近づけることができる、色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体を提供する。
本出願の実施例における技術的解決策は、以下のように実現されてもよい。
第1態様では、本出願の実施例による色成分予測方法は、
色成分の符号化において、色度成分を符号化するステップと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む。
第2態様では、本出願の実施例による色成分予測方法は、
色成分の復号において、色度成分を復号するステップと、
復号された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む。
第3態様では、本出願の実施例によるエンコーダーは、
色成分の符号化において、色度成分を符号化するように構成される符号化モジュールと、
符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される第1取得モジュールと、を備える。
第4態様では、本出願の実施例によるデコーダーは、
色成分の復号において、色度成分を復号するように構成される復号モジュールと、
復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される第2取得モジュールと、を備える。
第5態様では、本出願の実施例によるエンコーダーは、
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
第6態様では、本出願の実施例によるデコーダーは、
プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
第7態様では、本出願の実施例によるコンピュータ可読記憶媒体は、実行可能な命令が記憶されており、前記実行可能な命令が1つ又は複数のプロセッサに実行される場合、前記プロセッサが上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
本出願の実施例は、色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体を提供する。当該方法は、色成分の符号化において、色度成分を符号化し、符号化された色度成分に基づいて、前記輝度成分の予測値を取得するステップを含み、つまり、本出願の実施例では、まず色度成分を符号化及び復号し、次に符号化及び復号された色度成分で輝度成分を予測し、このようにして、符号化及び復号された色度成分で輝度成分を予測し、即ち、まず平坦な色度成分を符号化及び復号し、次に符号化及び復号された色度成分に基づいて豊かなテクスチャーを有する輝度成分を予測することにより、輝度成分の予測精度を向上させ、輝度成分の予測値を実際の輝度成分のピクセル値により近づけることができる。
本出願の実施例による選択可能な色成分予測方法のフローチャートである。 ビデオ符号化システムの構造図である。 ビデオ復号システムの構造図である。 本出願の実施例による別の選択可能な色成分予測方法のフローチャートである。 本出願の実施例による1つの選択可能なエンコーダーの構造図である。 本出願の実施例による1つの選択可能なデコーダーの構造図である。 本出願の実施例による別の選択可能なエンコーダーの構造図である。 本出願の実施例による別の選択可能なデコーダーの構造図である。
以下に本出願の実施例における図面と組み合わせて本出願の実施例における技術的解決策を明確且つ全面的に説明する。ここで説明される具体的な実施例は、関連出願を解釈するためのものだけであるが、当該出願を限定するためのものではないことが理解できる。また、説明を容易にするために、図面において関連出願に関する部分だけが示される。
実施例1
ビデオ画像では、一般的に第1色成分、第2色成分及び第3色成分を用いてブロックを表し、ここで、第1色成分、第2色成分及び第3色成分には、1つの輝度成分と2つの色度成分が含まれてもよい。具体的には、輝度成分は、通常、記号Yで表され、色度成分は、通常、記号Cb、Crで表され、ここで、Cbは青色色度成分を表し、Crは赤色色度成分を表する。
なお、本出願の実施例では、第1色成分、第2色成分及び第3色成分は、それぞれ輝度成分Y、青色色度成分Cb及び赤色色度成分Crであってもよく、例えば、第1色成分は、輝度成分Yであり、第2色成分は、赤色色度成分Crであってもよく、第3色成分は、青色色度成分Cbであってもよく、本出願の実施例はこれに具体的に限定されない。
さらに、本出願の実施例では、一般的に使用される輝度成分と色度成分でそれぞれ表されるサンプリングフォーマットは、YCbCrフォーマットとも呼ばれ、YCbCrフォーマットには4:4:4フォーマット、4:2:2フォーマット及び4:2:0フォーマットが含まれてもよい。
ビデオ画像についてYCbCr4:2:0フォーマットが用いられる場合、ビデオ画像の輝度成分が2N×2Nサイズの現在のブロックであると、対応する色度成分は、N×Nサイズの現在のブロックであり、Nが現在のブロックの辺の長さである。本出願の実施例では、4:2:0フォーマットを例として説明するが、本出願の実施例の技術的解決策は、他のサンプリングフォーマットにも適用可能である。
H.266では、符号化性能と符号化効率をさらに向上させるために、成分間予測(CCP:Cross-component Prediction)に対して拡張及び改善を行い、成分間計算モデル予測(CCLM:Cross-component Linear Model Prediction)を提案する。H.266では、CCLMにより、第1色成分から第2色成分、第1色成分から第3色成分への予測及び第2色成分と第3色成分の間の予測を実現する。
しかしながら、CCLMの場合、まず現在のブロックの輝度成分を予測してから、輝度成分で色度成分を予測しており、輝度成分が豊かなテクスチャーを有し、色度成分が比較的平坦であるため、輝度成分を用いて色度成分を予測すると、予測された色度成分と実際の色度値の間に大きな偏差があり、予測値の精度が低いため、符号化及び復号の効率に影響を与える。
本出願の実施例では色成分予測方法が提供される。図1は本出願の実施例による選択可能な色成分予測方法のフローチャートである。図1に示すように、当該方法は、
色成分の符号化において、色度成分を符号化するステップS101と、
符号化された色度成分に基づいて、輝度成分の予測値を取得するステップS102と、を含むことができる。
ここで、本出願の実施例による色成分予測方法は、エンコーダー又はデコーダーに適用されてもよく、図2はビデオ符号化システムの構造図である。図2に示すように、当該ビデオ符号化システム200は、変換及び量子化ユニット201、フレーム内推定ユニット202、フレーム内予測ユニット203、動き補償ユニット204、動き推定ユニット205、逆変換及び逆量子化ユニット206、フィルター制御分析ユニット207、フィルタリングユニット208、符号化ユニット209及び復号画像キャッシュユニット210などを備え、フィルタリングユニット208は、デブロッキングフィルタリング及びサンプル適応オフセット(SAO:Sample Adaptive 0ffset、)フィルタリングを実現することができ、符号化ユニット209は、ヘッダ情報符号化及びコンテキスト適応型バイナリ算術符号化(CABAC:Context-based Adaptive Binary Arithmatic Coding)を実現することができる。入力された元のビデオ信号について、符号化ツリーブロック(CTU:Coding Tree Unit)の分割により1つのビデオ符号化ブロックを取得することができ、次にフレーム内又はフレーム間予測後に取得された残差ピクセル情報について、変換及び量子化ユニット201により、ピクセル領域から変換領域への残差情報の変換を含む変換を行い、取得された変換係数を量子化して、ビットレートをさらに低減させ、フレーム内推定ユニット202及びフレーム内予測ユニット203は、当該ビデオ符号化ブロックに対してフレーム内予測を行うために用いられ、具体的には、フレーム内推定ユニット202及びフレーム内予測ユニット203は、当該ビデオ符号化ブロックを符号化するためのフレーム内予測モードを決定するために用いられ、動き補償ユニット204及び動き推定ユニット205は、1つ又は複数の基準フレーム内の1つ又は複数のブロックに対する受信されたビデオ符号化ブロックのフレーム間予測符号化を実行して時間予測情報を提供するために用いられ、動き推定ユニット205によって実行される動き推定が動きベクトルを生成するプロセスであり、前記動きベクトルによって当該ビデオ符号化ブロックの動きを推定することができ、次に、動き補償ユニット204は、動き推定ユニット205によって決定された動きベクトルに基づいて動き補償を実行し、フレーム内予測モードが決定された後、フレーム内予測ユニット203はさらに選択されたフレーム内予測データを符号化ユニット209に提供するために用いられ、動き推定ユニット205は、計算及び決定された動きベクトルデータを符号化ユニット209に送信し、また、逆変換及び逆量子化ユニット206は、当該ビデオ符号化ブロックを再構成し、ピクセル領域内で残差ブロックを再構成するために用いられ、当該再構成された残差ブロックがフィルター制御分析ユニット207とフィルタリングユニット208によりブロック効果アーティファクトを除去し、次に、当該再構成された残差ブロックを復号画像キャッシュユニット210のフレーム内の1つの予測性ブロックに追加して、再構成されたビデオ符号ブロックを生成し、符号化ユニット209は、様々な符号化パラメータ及び量子化された変換係数を符号化するために用いられ、CABACに基づく符号化アルゴリズムでは、コンテキストコンテンツは、隣接する符号化ブロックに基づいて、決定されたフレーム内予測モードを示す情報を符号化し、当該ビデオ信号のビットストリームを出力するために用いられてもよく、復号画像キャッシュユニット210は、予測基準のために再構成されたビデオ符号化ブロックを記憶するために用いられる。ビデオ画像符号化の実行に伴い、新しい再構成されたビデオ符号化ブロックが継続的に生成され、これらの再構成されたビデオ符号化ブロックは、すべて復号画像キャッシュユニット210に記憶される。
図3はビデオ復号システムの構造図である。図3に示すように、当該ビデオ復号システム300は、復号ユニット301、逆変換及び逆量子化ユニット302、フレーム内予測ユニット303、動き補償ユニット304、フィルタリングユニット305及び復号画像キャッシュユニット306などを備え、復号ユニット301は、ヘッダ情報復号及びCABAC復号を実現することができ、フィルタリングユニット305は、デブロッキングフィルタリング及びSAOフィルタリングを実現することができる。入力されたビデオ信号が図2の符号化処理が行われた後、当該ビデオ信号のビットストリームが出力され、当該ビットストリームは、ビデオ復号システム300に入力され、まず復号ユニット301によって復号後の変換係数を得、当該変換係数に対して、逆変換及び逆量子化ユニット302によって処理され、ピクセル領域に残差ブロックが生成され、フレーム内予測ユニット303は、決定されたフレーム内予測モード及び現在のフレーム又はピクチャーの前に復号されたブロックからのデータに基づいて、現在のビデオ復号ブロックの予測データを生成するために用いられてもよく、動き補償ユニット304は、動きベクトル及び他の関連する構文要素を分析することによりビデオ復号ブロックのための予測情報を決定し、当該予測情報を用い、復号されているビデオ復号ブロックの予測性ブロックを生成し、逆変換及び逆量子化ユニット302からの残差ブロックと、フレーム内予測ユニット303又は動き補償ユニット304によって生成された対応する予測性ブロックとを合計することにより、復号されたビデオブロックを形成し、当該復号されたビデオ信号がフィルタリングユニット305を通過して、ブロック効果アーティファクトを除去し、これにより、ビデオ品質を向上することができ、次に、復号されたビデオブロックを復号画像キャッシュニット306に記憶し、復号画像キャッシュユニット306は、その後のフレーム内予測又は動き補償のための基準画像を記憶し、同時にビデオ信号の出力に用いられて、復元された元のビデオ信号を取得する。
なお、本出願の実施例におけるS101及びS102は、主に図2に示すフレーム内予測ユニット203の部分及び図3に示すフレーム内予測ユニット303の部分に適用され、つまり、本出願の実施例は、エンコーダーとデコーダーに対して同時に機能することができ、本出願の実施例はこれに具体的に限定されない。
また、S101とS102では、色成分の符号化において、1つの色度成分を符号化し、次に当該色度成分で輝度成分を予測してもよく、1つの色度成分を符号化し、次に当該色度成分で別の色度成分を予測してもよく、まず2つの色度成分を符号化し、次に1つの色度成分で輝度成分を予測し、又は2つの色度成分で輝度成分を予測してよく、ここでは、本出願の実施例は、これに具体的に限定されない。
輝度成分の予測値を取得するために、1つの選択可能な実施例では、S102は、
符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するステップを含むことができ、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
ここで、符号化された色度成分内の第1色度成分と符号化された第2色度成分の第2色度成分を用いて輝度成分の予測値を予測し、例えば、第1色度成分がCbであり、第2色度成分がCrであり、輝度成分がYであると、Cb及びCrによってYを予測することができ、又は、第1色度成分がCrであり、第2色度成分がCbであり、輝度成分がYであると、Cb及びCrによってYを予測することができる。
さらに、輝度成分の予測値を予測するために、1つの選択可能な実施例では、符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するステップは、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含み、
ここで、現在のブロックは、現在の符号化しようとするブロックであり、ここでは、現在のブロックに対して、現在のブロックの第1色度成分の再構成値、現在のブロックの第2色度成分の再構成値を取得する必要があり、現在のブロックの隣接ブロックの第1色度成分は、上記の第1色度成分の隣接参考値であり、現在のブロックの隣接ブロックの第2色度成分は、上記の第2色度成分の隣接参考値であり、現在のブロックの隣接ブロックの輝度成分は、輝度成分の隣接参考値であり、なお、上記の現在のブロックの隣接ブロックは、現在のブロックの前の行のブロックと左の列のブロックである。
そこで、上記の値が取得された後、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて第1予測値を予測し、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて第2予測値を予測し、次に、第1予測値と第2予測値に基づいて現在のブロックの輝度成分の予測値を取得することができ、このようにして、それぞれ1つの色度成分で1つの予想値を予測し、最後に予測された2つの予測値を融合して現在のブロックの輝度成分の予測値を取得する。
第1予測値を取得するために、1つの選択可能な実施例では、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第1色度成分の再構成値及び第1色度成分の隣接参考値を取得した後、上記の用いられた色成分の予測モデルが線形モデルであってもよいし、非線形モデルであってもよく、輝度成分に対して予測を行い、第1予測値を取得し、ここでは、本出願の実施例は具体的に限定されない。
具体的には、線形モデルの場合、次世代ビデオ符号化規格のエンコーダー、例えば、H.266/VVC初期テストモデル(JEM:Joint Exploration Model)又はVVCテストモデル(VTM:VVC Test model)では成分間線形モデル予測モードが用いられる。式(1)に基づいて、同一の符号化ブロックの再構成値を用いて輝度成分の予測値を構成する。
Figure 2022528333000002
Figure 2022528333000003
Figure 2022528333000004
Figure 2022528333000005
Figure 2022528333000006
実際の応用において、第1色度成分の隣接参考値と輝度成分の隣接参考値を式(2)に代入してαとβを取得し、次に、第1色度成分の再構成値を式(1)に代入して第1予測値を取得し、このようにして、線形モデルを用いると第1予測値を取得することができる。
予測モデルについて、上記の線形モデルに加えて、非線形モデルを用いることができ、上記の線形モデルに基づいて、色成分の予測モデルは、非線形モデル計算方法も提案する。
具体的には、線形モデルのパラメータを計算する時に、色度成分の隣接参考値、輝度成分の隣接参考値だけでなく、現在のブロックの色度成分の再構成値と色度成分の隣接参考値の間の相関性及び類似度も考慮して、既存の線形モデルにおけるαとβを取得し、これにより、取得された線形モデルは、現在の色度成分の再構成値により適合し、さらに現在のブロックの輝度成分の予測値を取得する。
例えば、非線形モデルでは、現在のブロックの色度成分の隣接参考値と輝度成分の隣接参考値は2組に分けられ、それぞれの組は、単独で、線形モデルパラメータを導出するためのトレーニングセットとして利用することができ、即ち、それぞれの組は、いずれも、1組のパラメータを導出することができる。それによって、同様に、色度成分の隣接参考値と現在のブロックに対応するパラメータに大きな偏差がある場合、又は、別の色度成分の隣接参考値と現在のブロックに対応するパラメータに大きな偏差がある場合の線形モデルと期待モデルの間の偏差の欠陥を克服することができ、さらに当該線形モデルによって現在のブロックの輝度成分を予測する場合、輝度成分の予測値の予測精度を大幅に向上させることができる。
非線形モデルの場合、1つの閾値を設定することにより、隣接参考値と中間値を2組に分け、2組の隣接参考値と再構成値に基づいて非線形モデルを確立することができる。
ここで、閾値は、現在のブロックの色度成分の隣接参考値と輝度成分の隣接参考値の分類依拠であり、同時に現在のブロックの色度成分の再構成値の分類依拠でもある。ここで、閾値は、複数の計算モデルを確立するために依拠される設定値を示すために用いられ、閾値の大きさは、現在のブロックのすべてのサンプリングポイントの色度成分の再構成値に関係している。具体的には、現在のブロックのすべてのサンプリングポイントの色度成分の再構成値の平均値を計算することで得ることができ、現在のブロックのすべてのサンプリングポイントの色度成分の再構成値の中間値を計算することで得ることもでき、本出願の実施例は、これに具体的に限定されない。
本出願の実施例では、まず、現在の画像のフロックのすべてのサンプルポイントの色度成分の再構成値及び式(3)に基づいて、平均値を計算することができる。
Figure 2022528333000007
Figure 2022528333000008
Figure 2022528333000009
Figure 2022528333000010
Figure 2022528333000011
Figure 2022528333000012
Figure 2022528333000013
Figure 2022528333000014
Figure 2022528333000015
Figure 2022528333000016
Figure 2022528333000017
Figure 2022528333000018
Figure 2022528333000019
実際の応用において、まず第1色度成分の再構成値に基づいて閾値を計算し、閾値に基づいて第1色度成分の隣接参考値及び輝度成分の隣接参考値を分類し、2つの計算モデルを例として、式(4)に基づいてα1とβ1を取得し、式(5)に基づいてα2とβ2を取得し、次に第1色度成分の再構成値を上記の式(6)に代入すると、第1予測値を取得する。
第2予測値を取得するために、1つの選択可能な実施例では、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
同様に、第1予測値を計算する方式と同じように、線形モデルについていえば、実際の応用において、第2色度成分の隣接参考値と輝度成分の隣接参考値を式(2)に代入してαとβを取得し、次に第2色度成分の再構成値を式(1)に代入して第2予測値を取得し、このようにして、線形モデルを用いると第2予測値を取得することができる。
非線形モデルについていえば、実際の応用において、まず第2色度成分の再構成値に基づいて閾値を計算し、閾値に基づいて第2色度成分の隣接参考値及び輝度成分の隣接参考値を分類し、2つの計算モデルを例として、式(4)に基づいてα1とβ1を取得し、式(5)に基づいてα2とβ2を取得し、次に第2色度成分の再構成値を上記の式(6)に代入すると、第2予測値を取得する。
このようにして、第1予測値及び第2予測値を取得することができる。
輝度成分の予測値を決定するために、1つの選択可能な実施例では、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
第1予測値と第2予測値が決定された後、第1予測値と第2予測値に対して融合処理を行い、融合処理後の値を輝度成分の予測値として決定することができる。
具体的には、まず第1予測値の重み値と第2予測値の重み値を取得し、次に重み付け加算することにより第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得することができる。
ここで、第1予測値の重み値及び第2予測値の重み値を取得する方式は、複数であり、1つの選択可能な実施例では、第1予測値の重み値と第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、重み値組内の別の値を第2予測値の重み値として決定するステップを含むことができる。
つまり、エンコーダーには、(0.5、0.5)、(0.2、0.8)、(0.3、0.7)及び(0.1、0.9)などの複数の重み値組が予め設定され、予め設定された重み値組から1組を選択することができ、(0.5、0.5)を選択すると、第1予測値の重み値は0.5であり、第2予測値の重み値は0.5であり、このようにして、第1予測値の重み値と第2予測値の重み値を決定することができる。
そこで、デコーダー側では、ビットストリームから、選択された結果を対応する構文要素で識別して、デコーダー側による輝度成分の予測値の予測を容易にすることができる。
1つの選択可能な実施例では、第1予測値の重み値と第2予測値の重み値を取得するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定するステップと、を含むことができる。
ここで、ユーザが輸入することにより、第1予測値の重み値と第2予測値の重み値を予め決定することができ、このようにして、エンコーダー側に第1重み値と第2重み値を受信させると、第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定することができ、同時に、ビットストリームから、選択された結果を対応する構文要素で識別して、デコーダーが重み値を受信して輝度成分の予測値を予測することに便利を与える。
実際の応用において、現在のブロックの色度成分の解像度は、輝度色度の解像度よりも低く、第1色度成分の再構成値と第2色度成分の再構成値をアップサンプリングするように選択してもよく、第1予測値と第2予測値をアップサンプリングするように選択することもでき、輝度成分の予測値を取得した後、輝度成分の予測値をアップサンプリングすることもでき、ここで、本出願の実施例は、これに具体的に限定されない。
第1輝度成分の再構成値と第2色度成分の再構成値のアップサンプリングでは、1つの選択可能な実施例において、現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
具体的には、現在のブロックの色度成分の解像度が輝度成分の解像度よりも小さいので、予測精度を向上させるために、ここで、第1色度成分の再構成値及び第2色度成分の再構成値を取得した後、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングする必要があり、第1色度成分の処理後の再構成値の解像度と第2色度成分の処理後の再構成値の解像度がそれぞれ輝度成分の解像度と同じになり、予測精度が向上する。
そこで、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得した後、第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、色度成分の第1予測値を取得し、第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測し、輝度成分の第2予測値を取得し、取得された第1予測値と第2予測値に基づいて現在のブロックの輝度成分の予測値を決定することができる。
ここで、第1予測値と第2予測値のアップサンプリングでは、1つの選択可能な実施例において、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
ここで、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の解像度に適応するために、第1予測値及び第2予測値を取得した後、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得し、最後に処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定する。
輝度成分の予測値のアップサンプリングでは、1つの選択可能な実施例において、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含む。
つまり、処理後の輝度成分の予測値の解像度と輝度成分の解像度が同じとなるように、輝度成分の予測値を取得した後、輝度成分の予測値をアップサンプリングするように選択する。
本出願の実施例では色成分予測方法が提供される。図4は本出願の実施例による1つの選択可能な色成分予測方法のフローチャートである。図4に示すように、当該方法は、
色成分の復号において、色度成分を復号するステップS401と、
復号された色度成分に基づいて、輝度成分の予測値を取得するステップS402と、を含むことができる。
なお、本出願の実施例におけるS401及びS402は、主に図2に示すフレーム内予測ユニット203の部分及び図3に示すフレーム内予測ユニット303の部分に適用され、つまり、本出願の実施例はエンコーダーとデコーダーに対して同時に機能することができ、本出願の実施例はこれに具体的に限定されない。
また、S401とS402では、色成分の復号において、1つの色度成分を復号し、次に当該色度成分で輝度成分を予測することができ、1つの色度成分を復号し、次に当該色度成分で別の色度成分を予測することもでき、まず2つの色度成分を復号し、次に1つの色度成分で輝度成分を予測し、又は2つの色度成分で輝度成分を予測することもでき、ここでは、本出願の実施例は、これに具体的に限定されない。
輝度成分の予測値を取得するために、1つの選択可能な実施例では、S102は、
復号された色度成分内の第1色度成分と復号された色度成分内の第2色度成分に基づいて予測し、輝度成分の予測値を取得するステップを含むことができ、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
ここで、復号された色度成分内の第1色度成分と復号された第2色度成分を用いて輝度成分の予測値を予測し、例えば、第1色度成分がCbであり、第2色度成分がCrであり、輝度成分がYであると、Cb及びCrによってYを予測することができ、又は、第1色度成分がCrであり、第2色度成分がCbであり、輝度成分がYであると、Cb及びCrによってYを予測することができる。
さらに、輝度成分の予測値を予測するために、1つの選択可能な実施例では、復号された色度成分内の第1色度成分と復号された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するステップは、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値、及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
ここで、現在のブロックは、現在の復号しようとするブロックであり、ここでは、現在のブロックに対して、現在のブロックの第1色度成分の再構成値、現在のブロックの第2色度成分の再構成値を取得する必要があり、現在のブロックの隣接ブロックの第1色度成分は、上記の第1色度成分の隣接参考値であり、現在のブロックの隣接ブロックの第2色度成分は、上記の第2色度成分の隣接参考値であり、現在のブロックの隣接ブロックの輝度成分は、輝度成分の隣接参考値であり、なお、上記の現在のブロックの隣接ブロックは、現在のブロックの前の行のブロックと左の列のブロックである。
そこで、上記の値が取得された後、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて第1予測値を予測し、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて第2予測値を予測し、次に、第1予測値と第2予測値に基づいて現在のブロックの輝度成分の予測値を取得することができ、このようにして、それぞれ1つの色度成分によって1つの予想値を予測し、最後に予測された2つの予測値を融合して現在のブロックの輝度成分の予測値を取得する。
第1予測値を取得するために、1つの選択可能な実施例では、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
第1色度成分の再構成値及び第1色度成分の隣接参考値が取得された後、上記の用いられた色成分の予測モデルが線形モデルであってもよいし、非線形モデルであってもよく、輝度成分を予測を行い、第1予測値を取得し、ここでは、本出願の実施例は具体的に限定されない。
実際の応用において、第1色度成分の隣接参考値と輝度成分の隣接参考値を式(2)に代入してαとβを取得し、次に第1色度成分の再構成値を式(1)に代入して第1予測値を取得し、このようにして、線形モデルを用いると第1予測値を取得することができる。
予測モデルについては、上記の線形モデルに加えて、非線形モデルを用いることができ、上記の線形モデルに基づいて、色成分の予測モデルは、非線形モデル計算方法も提案する。
実際の応用において、まず第1色度成分の再構成値に基づいて閾値を計算し、閾値に基づいて第1色度成分の隣接参考値及び輝度成分の隣接参考値を分類し、2つの計算モデルを例として、式(4)に基づいてα1とβ1を取得し、式(5)に基づいてα2とβ2を取得し、次に第1色度成分の再構成値を上記の式(6)に代入すると、第1予測値を取得することができる。
第2予測値を取得するために、1つの選択可能な実施例では、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
同様に、第1予測値を計算する方式と同じように、線形モデルについて、実際の応用において、第2色度成分の隣接参考値と輝度成分の隣接参考値を式(2)に代入してαとβを取得し、次に第2色度成分の再構成値を式(1)に代入して第2予測値を取得し、このようにして、線形モデルを用いると第2予測値を取得することができる。
非線形モデルについて、実際の応用において、まず第2色度成分の再構成値に基づいて閾値を計算し、閾値に基づいて第2色度成分の隣接参考値及び輝度成分の隣接参考値を分類し、2つの計算モデルを例として、式(4)に基づいてα1とβ1を取得し、式(5)に基づいてα2とβ2を取得し、次に第2色度成分の再構成値を上記の式(6)に代入すると、第2予測値を取得することができる。
このようにして、第1予測値及び第2予測値を取得することができる。
輝度成分の予測値を決定するために、1つの選択可能な実施例では、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
第1予測値と第2予測値が決定された後、第1予測値と第2予測値に対して融合処理を行い、融合処理後の値を輝度成分の予測値として決定することができる。
具体的には、まず第1予測値の重み値と第2予測値の重み値を取得し、次に重み付け加算することにより第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得することができる。
ここで、第1予測値の重み値及び第2予測値の重み値を取得する方式は、複数であり、1つの選択可能な実施例では、第1予測値の重み値と第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含むことができる。
つまり、デコーダーには、(0.5、0.5)、(0.2、0.8)、(0.3、0.7)及び(0.1、0.9)などの複数の重み値組が予め設定され、予め設定された重み値組から1組を選択することができ、(0.5、0.5)を選択すると、第1予測値の重み値は0.5であり、第2予測値の重み値は0.5であり、このようにして、第1予測値の重み値と第2予測値の重み値を決定することができる。
そこで、デコーダー側では、ビットストリームから、選択された結果を対応する構文要素で識別して、デコーダー側による輝度成分の予測値の予測を容易にすることができる。
1つの選択可能な実施例では、第1予測値の重み値と第2予測値の重み値を取得するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定するステップと、を含むことができる。
ここで、ユーザが輸入することにより、第1予測値の重み値と第2予測値の重み値を予め決定することができ、このようにして、エンコーダー側に第1重み値と第2重み値を受信させると、第1重み値を第1予測値の重み値として決定し、第2重み値を第2予測値の重み値として決定することができ、同時に、ビットストリームから、選択された結果を対応する構文要素で識別して、デコーダーが重み値を受信して輝度成分の予測値を予測することに便利を与える。
また、実際の応用において、現在のブロックの色度成分の解像度は、輝度色度の解像度よりも低く、第1色度成分の再構成値と第2色度成分の再構成値をアップサンプリングするように選択してもよいし、第1予測値と第2予測値をアップサンプリングするように選択してもよいし、輝度成分の予測値を取得した後、輝度成分の予測値をアップサンプリングすることもでき、ここで、本出願の実施例は、これに具体的に限定されない。
第1輝度成分の再構成値と第2色度成分の再構成値のアップサンプリングでは、1つの選択可能な実施例において、現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するステップをさらに含み、
それに応じて、第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
具体的には、現在のブロックの色度成分の解像度が輝度成分の解像度よりも小さいので、予測精度を向上させるために、第1色度成分の再構成値及び第2色度成分の再構成値を取得した後、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングする必要があり、第1色度成分の処理後の再構成値の解像度と第2色度成分の処理後の再構成値の解像度がそれぞれ輝度成分の解像度と同じとなり、予測精度が向上する。
そこで、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値が取得された後、第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測し、色度成分の第1予測値を取得し、第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測し、輝度成分の第2予測値を取得し、取得された第1予測値と第2予測値に基づいて現在のブロックの輝度成分の予測値を決定することができる。
ここで、第1予測値と第2予測値のアップサンプリングでは、1つの選択可能な実施例において、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
ここで、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の解像度に適応するために、第1予測値及び第2予測値を取得した後、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得し、最後に処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定する。
輝度成分の予測値のアップサンプリングでは、1つの選択可能な実施例において、第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、当該方法は、
色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含む。
つまり、処理後の輝度成分の予測値の解像度と輝度成分の解像度が同じになるように、輝度成分の予測値を取得した後、輝度成分の予測値をアップサンプリングするように選択する。
本出願の実施例では色成分予測方法が提供される。当該方法は、色成分の符号化において、色度成分を符号化し、符号化された色度成分に基づいて、輝度成分の予測値を取得するステップを含み、つまり、本出願の実施例では、まず色度成分を符号化及び復号し、次に符号化及び復号された色度成分で輝度成分を予測し、このようにして、符号化及び復号された色度成分で輝度成分を予測し、即ちまず平坦な色度成分を符号化及び復号し、次に符号化及び復号された色度成分に基づいて豊かなテクスチャーを有する輝度成分を予測することにより、輝度成分の予測精度を向上させ、輝度成分の予測値を実際の輝度成分のピクセル値により近づけることができる。
実施例2
同じ発明概念に基づいて、図5は、本出願の実施例による1つの選択可能なエンコーダーの概略構造図である。図5に示すように、本出願の実施例によるエンコーダーは、符号化モジュール51及び第1取得モジュール52を備えることができ、ここで、
符号化モジュール51は、色成分の符号化において、色度成分を符号化するように構成され、
第1取得モジュール52は、符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される。
さらに、第1取得モジュール52は、具体的には、
符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するように構成され、
ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分である。
さらに、第1取得モジュール52が符号化された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するステップは、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
さらに、第1取得モジュール52が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
さらに、第1取得モジュール52が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
さらに、第1取得モジュール52が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
さらに、第1取得モジュール52が第1予測値の重み値と第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含む。
さらに、第1取得モジュール52は、具体的には、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値及び第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するように構成され、
それに応じて、第1取得モジュール52が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第1取得モジュール52が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
1つの選択可能な実施例では、第1取得モジュール52は、具体的には、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するように構成され、
それに応じて、第1取得モジュール52が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
1つの選択可能な実施例では、第1取得モジュール52は、具体的には、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するように構成される。
同じ発明概念に基づいて、図6は、本出願の実施例による1つの選択可能なデコーダーの構造図である。図6に示すように、本出願の実施例によるデコーダーは、復号モジュール61及び第2取得モジュール62を備えることができ、ここで、
復号モジュール61は、色成分の復号において、色度成分を復号するように構成され、
第2取得モジュール62は、復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される。
さらに、第2取得モジュール62は、具体的には、
復号された色度成分内の第1色度成分と復号された色度成分内の第2色度成分に基づいて予測を行い、輝度成分の予測値を取得するように構成され、
ここで、第1色度成分が青色色度成分である場合、第2色度成分は、赤色色度成分であり、第1色度成分が赤色色度成分である場合、第2色度成分は、青色色度成分である。
さらに、第2取得モジュール62が復号された色度成分内の第1色度成分と符号化された色度成分内の第2色度成分に基づいて予測し、輝度成分の予測値を取得するステップは、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得するステップと、
第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップと、
第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップと、
第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップと、を含む。
さらに、第2取得モジュール62が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第1色度成分の再構成値に基づいて、予測モデルを利用して、第1予測値を取得するステップと、を含む。
さらに、第2取得モジュール62が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
第2色度成分の再構成値に基づいて、予測モデルを利用して、第2予測値を取得するステップと、を含む。
さらに、第2取得モジュール62が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
第1予測値の重み値と第2予測値の重み値を取得するステップと、
第1予測値の重み値と第2予測値の重み値に基づいて、第1予測値と第2予測値を重み付け加算し、輝度成分の予測値を取得するステップと、を含む。
さらに、第2取得モジュール62が第1予測値の重み値と第2予測値の重み値を取得するステップは、
予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を第1予測値の重み値として決定し、前記1つの重み値組内の別の値を第2予測値の重み値として決定するステップを含む。
さらに、第2取得モジュール62は、具体的には、
現在のブロックに対して、第1色度成分の再構成値、第2色度成分の再構成値、第1色度成分の隣接参考値、第2色度成分の隣接参考値及び輝度成分の隣接参考値を取得した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1色度成分の再構成値と第2色度成分の再構成値をそれぞれアップサンプリングし、第1色度成分の処理後の再構成値と第2色度成分の処理後の再構成値を取得するように構成され、
それに応じて、第2取得モジュール62が第1色度成分の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップは、
第1色度成分の処理後の再構成値、第1色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第1予測値を取得するステップを含み、
それに応じて、第2取得モジュール62が第2色度成分の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップは、
第2色度成分の処理後の再構成値、第2色度成分の隣接参考値及び輝度成分の隣接参考値に基づいて予測を行い、輝度成分の第2予測値を取得するステップを含む。
1つの選択可能な実施例では、第2取得モジュール62は、具体的には、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定する前に、色度成分の解像度が輝度成分の解像度よりも小さい場合、第1予測値と第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するように構成され、
それに応じて、第2取得モジュール62が第1予測値と第2予測値に基づいて、輝度成分の予測値を決定するステップは、
処理後の第1予測値と処理後の第2予測値に基づいて、輝度成分の予測値を決定するステップを含む。
1つの選択可能な実施例では、第2取得モジュール62は、具体的には、
第1予測値と第2予測値に基づいて、輝度成分の予測値を決定した後、色度成分の解像度が輝度成分の解像度よりも小さい場合、輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するように構成される。
図7は本出願の実施例による別の選択可能なエンコーダーの構造図である。図7に示すように、本出願の実施例によるエンコーダーは、プロセッサ71、及びプロセッサ71で実行可能な命令を記憶する記憶媒体72をさらに備えることができ、記憶媒体72は、通信バス73を介してプロセッサ73に依存して操作を実行し、命令がプロセッサ71に実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
なお、実際に応用するときに、端末内の各構成要素は、通信バス73を介して結合される。通信バス73は、これらの構成要素間の接続通信を実現するように構成されることが理解できる。通信バス73は、データバスに加えて、電源バス、制御バスと状態信号バスを含む。しかし、説明を明確にするために、図7では様々なバスは、通信バス73としてマーキングされる。
図8は本出願の実施例による別の選択可能なデコーダーの構造図である。図8に示すように、本出願の実施例によるデコーダーは、プロセッサ81、及びプロセッサ81で実行可能な命令を記憶する記憶媒体82をさらに備えることができ、記憶媒体82は、通信バス83を介してプロセッサ83に依存して操作を実行し、命令がプロセッサ81に実行される場合、上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
なお、実際に応用するときに、端末内の各構成要素は、通信バス83を介して結合される。通信バス83は、これらの構成要素間の接続通信を実現するように構成されることが理解できる。通信バス83は、データバスに加えて、電源バス、制御バスと状態信号バスを含む。しかし、説明を明確にするために、図8では様々なバスは、通信バス83としてマーキングされる。
本出願の実施例によるコンピュータ記憶媒体は、実行可能な命令が記憶されており、前記実行可能な命令が1つ又は複数のプロセッサに実行される場合、前記プロセッサが上記の1つ又は複数の実施例に記載される色成分予測方法を実行する。
本出願の実施例におけるメモリは、揮発性メモリ又は不揮発性メモリであってもよく、又は揮発性メモリ及び不揮発性メモリの両方を含むことができることが理解できる。ここで、不揮発性メモリは、読み取り専用メモリ(ROM:Read-Only Memory)、プログラマブル読み取り専用メモリ(PROM:Programmable ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM:Erasable PROM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM:Electrically EPROM)又はフラッシュメモリであってもよい。揮発性メモリは、外部キャッシュメモリとして機能するランダムアクセスメモリ(RAM:Random Access Memory)であってもよい。制限的でなく例示的な説明により、多くの形態のRAMは、利用可能であり、例えばスタティックランダムアクセスメモリ(SRAM:Static RAM)、動的ランダムアクセスメモリ(DRAM:Dynamic RAM)、同期動的ランダムアクセスメモリ(SDRAM:Synchronous DRAM)、ダブルデータレート同期動的ランダムアクセスメモリ(DDRSDRAM:Double Data Rate SDRAM)、強化型同期動的ランダムアクセスメモリ(ESDRAM:Enhanced SDRAM)、同期リンク動的ランダムアクセスメモリ(SLDRAM:Synchlink DRAM)とダイレクトラムバスランダムアクセスメモリ(DRRAM:Direct Rambus RAM)である。本明細書に記載されるシステムと方法のメモリは、これらといずれかの他の適切なタイプのメモリを含むことを図るがこれらに限定されない。
プロセッサは、信号処理機能を有する集積回路チップであってもよい。実現プロセスでは、上記方法の各ステップは、プロセッサ内のハードウェアの集積論理回路又はソフトウェアの形の命令によって完成されてもよい。上記プロセッサは、汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)又は他のプログラマブル論理デバイス、ディスクリートゲート又はトランジスタ論理デバイス、ディスクリートハードウェアコンポーネントであってもよい。本出願の実施形態において開示される各方法、ステップ及び論理ブロック図を実現又は実行することができる。汎用プロセッサは、マイクロプロセッサであってもよく、又は当該該プロセッサはいずれかの従来のプロセッサなどであってもよい。本出願の実施例と組み合わせて開示される方法のステップは、ハードウェア復号プロセッサによって実行されて完了され、又は復号プロセッサにおけるハードウェア及びソフトウェアモジュールの組み合わせによって実行されて完了されるように直接具現化されてもよい。ソフトウェアモジュールは、ランダムアクセスメモリ、フラッシュメモリ、読み取り専用メモリ、プログラマブル読み取り専用メモリ又は電気的消去可能プログラマブルメモリ、レジスタなどの本分野の成熟した記憶媒体に位置してもよい。当該記憶媒体はメモリに位置し、プロセッサはメモリにおける情報を読み取り、そのハードウェアと組み合わせて上記方法のステップを完了する。
本明細書に記載されるこれらの実施例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はそれらの組み合わせで実現されてもよいことが理解できる。ハードウェアで実現される場合、処理ユニットは、1つの又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、デジタル信号処理デバイス(DSPD:Digital Signal Processing Device)、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本出願に記載される機能を実行するための他の電子ユニット又はそれらの組み合わせで実現されてもよい。
ソフトウェアで実現される場合、本明細書で記載される機能を実行するためのモジュール(例えばプロセス、関数など)によって本明細書に記載される技術を実現することができる。ソフトウェアコードはメモリに記憶されてプロセッサによって実行されてもよい。メモリはプロセッサ内部又はプロセッサ外部で実現されてもよい。
なお、本出願では、用語「包括」、「包含」又はそれらのいかなる変形は非排他的な包含をカバーすることを図るため、一連の要素を含むプロセス、方法、物品又は装置はそれらの要素だけでなく、明確に示されていない他の要素を含み、又はこのようなプロセス、方法、物品又は装置の固有な要素を含む。更なる制限がない場合、語句「1つの......を含む」によって限定された要素は、当該要素を含むプロセス、方法、物品又は装置に別の同じ要素がさらに存在することを排除するものではない。
上記本出願の実施例番号は説明のためだけであり、実施例の優劣を表すものではない。
以上の実施形態の説明により、当業者は、上記の実施例の方法がソフトウェアと必要な汎用ハードウェアプラットフォームを組み合わせることで実現されてもよく、当然、ハードウェアで実現されてもよく、多くの場合で前者の方が優れた実施形態である。このような理解に基づき、本出願の技術的解決策は、本質的にソフトウェア製品の形で具体化でき、又は従来技術に貢献する部分は、ソフトウェア製品の形で具体化でき、当該コンピュータソフトウェア製品は、記憶媒体(ROM/RAM、磁気ディスク、光ディスクなど)に記憶され、端末(携帯電話、コンピュータ、サーバー、又はネットワークデバイス等であってもよい)に本出願の各実施例に記載の方法を実行させるためのいくつかの命令を含む。
以上に本出願の実施例は、添付の図面と組み合わせて説明されたが、本出願は、上記の具体的な実施形態に限定されず、上記の具体的な実施形態は、例示的なものに過ぎず、限定的なものではない。当業者は、本発明の啓示の下で、本出願の要旨及び特許請求の範囲の保護範囲から逸脱することなく、多くの形態で実施することが可能であり、これらはいずれも本出願の保護の範囲に属する。
本出願の実施例は、色成分の符号化において、色度成分を符号化し、符号化された色度成分に基づいて、輝度成分の予測値を取得するステップを含み、輝度成分の予測精度を向上させ、輝度成分の予測値を実際の輝度成分のピクセル値により近づけることができる、色成分予測方法、エンコーダー及びコンピュータ記憶媒体を提供する。

Claims (25)

  1. 色成分予測方法であって、
    色成分の符号化において、色度成分を符号化するステップと、
    符号化された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む、色成分予測方法。
  2. 符号化された色度成分に基づいて、輝度成分の予測値を取得するステップは、
    前記符号化された色度成分内の第1色度成分と前記符号化された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップを含み、
    ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分であることを特徴とする
    請求項1に記載の方法。
  3. 前記符号化された色度成分内の第1色度成分と前記符号化された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップは、
    現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得するステップと、
    前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップと、
    前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップと、
    前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
    前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
    前記第1色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第1予測値を取得するステップと、を含むことを特徴とする
    請求項3に記載の方法。
  5. 前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
    前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
    前記第2色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第2予測値を取得するステップと、を含むことを特徴とする
    請求項3に記載の方法。
  6. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
    前記第1予測値の重み値と前記第2予測値の重み値を取得するステップと、
    前記第1予測値の重み値と前記第2予測値の重み値に基づいて、前記第1予測値と前記第2予測値を重み付け加算し、前記輝度成分の予測値を取得するステップと、を含むことを特徴とする
    請求項3に記載の方法。
  7. 前記第1予測値の重み値と前記第2予測値の重み値を取得するステップは、
    予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を前記第1予測値の重み値として決定し、前記1つの重み値組内の別の値を前記第2予測値の重み値として決定するステップを含むことを特徴とする
    請求項6に記載の方法。
  8. 現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得した後、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1色度成分の再構成値及び前記第2色度成分の再構成値をそれぞれアップサンプリングし、前記第1色度成分の処理後の再構成値と前記第2色度成分の処理後の再構成値を取得するステップをさらに含み、
    それに応じて、前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
    前記第1色度成分の処理後の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップを含み、
    それに応じて、前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
    前記第2色度成分の処理後の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップを含むことを特徴とする
    請求項3に記載の方法。
  9. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップの前、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1予測値と前記第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
    それに応じて、前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
    処理後の第1予測値と処理後の第2予測値に基づいて、前記輝度成分の予測値を決定するステップを含むことを特徴とする
    請求項3に記載の方法。
  10. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定する後に、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含むことを特徴とする
    請求項3に記載の方法。
  11. 色成分予測方法であって、
    色成分の復号において、色度成分を復号するステップと、
    復号された色度成分に基づいて、輝度成分の予測値を取得するステップと、を含む、色成分予測方法。
  12. 復号された色度成分に基づいて、輝度成分の予測値を取得するステップは、
    前記復号された色度成分内の第1色度成分と前記復号された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップを含み、
    ここで、前記第1色度成分が青色色度成分である場合、前記第2色度成分は、赤色色度成分であり、前記第1色度成分が赤色色度成分である場合、前記第2色度成分は、青色色度成分であることを特徴とする
    請求項11に記載の方法。
  13. 前記復号された色度成分内の第1色度成分と前記復号された色度成分内の第2色度成分に基づいて予測を行い、前記輝度成分の予測値を取得するステップは、
    現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得するステップと、
    前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップと、
    前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップと、
    前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップと、を含むことを特徴とする
    請求項12に記載の方法。
  14. 前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
    前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
    前記第1色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第1予測値を取得するステップと、を含むことを特徴とする
    請求項13に記載の方法。
  15. 前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
    前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて、予測モデルのパラメータを決定するステップと、
    前記第2色度成分の再構成値に基づいて、前記予測モデルを利用して、前記第2予測値を取得するステップと、を含むことを特徴とする
    請求項13に記載の方法。
  16. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップは、
    前記第1予測値の重み値と前記第2予測値の重み値を取得するステップと、
    前記第1予測値の重み値と前記第2予測値の重み値に基づいて、前記第1予測値と前記第2予測値を重み付け加算し、前記輝度成分の予測値を取得するステップと、を含むことを特徴とする
    請求項13に記載の方法。
  17. 前記第1予測値の重み値と前記第2予測値の重み値を取得するステップは、
    予め設定された重み値組から1つの重み値組を選択し、前記1つの重み値組内の1つの値を前記第1予測値の重み値として決定し、前記1つの重み値組内の別の値を前記第2予測値の重み値として決定するステップを含むことを特徴とする
    請求項16に記載の方法。
  18. 現在のブロックに対して、前記第1色度成分の再構成値、前記第2色度成分の再構成値、前記第1色度成分の隣接参考値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値を取得した後、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1色度成分の再構成値と前記第2色度成分の再構成値をそれぞれアップサンプリングし、前記第1色度成分の処理後の再構成値と前記第2色度成分の処理後の再構成値を取得するステップをさらに含み、
    それに応じて、前記第1色度成分の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップは、
    前記第1色度成分の処理後の再構成値、前記第1色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第1予測値を取得するステップを含み、
    それに応じて、前記第2色度成分の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップは、
    前記第2色度成分の処理後の再構成値、前記第2色度成分の隣接参考値及び前記輝度成分の隣接参考値に基づいて予測を行い、前記輝度成分の第2予測値を取得するステップを含むことを特徴とする
    請求項13に記載の方法。
  19. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定するステップの前、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記第1予測値と前記第2予測値をそれぞれアップサンプリングし、処理後の第1予測値及び処理後の第2予測値を取得するステップをさらに含み、
    それに応じて、前記第1予測値と前記第2予測値に基づいて、輝度成分の予測値を決定するステップは、
    処理後の第1予測値と処理後の第2予測値に基づいて、前記輝度成分の予測値を決定するステップを含むことを特徴とする
    請求項13に記載の方法。
  20. 前記第1予測値と前記第2予測値に基づいて、前記輝度成分の予測値を決定する後に、前記方法は、
    前記色度成分の解像度が前記輝度成分の解像度よりも小さい場合、前記輝度成分の予測値をアップサンプリングし、処理後の輝度成分の予測値を取得するステップをさらに含むことを特徴とする
    請求項13に記載の方法。
  21. エンコーダーであって、
    色成分の符号化において、色度成分を符号化するように構成される符号化モジュールと、
    符号化された色度成分に基づいて、輝度成分の予測値を取得するように構成される第1取得モジュールと、を備える、エンコーダー。
  22. デコーダーであって、
    色成分の復号において、色度成分を復号するように構成される復号モジュールと、
    復号された色度成分に基づいて、輝度成分の予測値を取得するように構成される第2取得モジュールと、を備える、デコーダー。
  23. エンコーダーであって、
    プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の請求項1-10のいずれか一項に記載される色成分予測方法を実行する、エンコーダー。
  24. デコーダーであって、
    プロセッサ、及び前記プロセッサで実行可能な命令を記憶する記憶媒体を備え、前記記憶媒体は、通信バスを介して前記プロセッサに依存する操作を実行し、前記命令が前記プロセッサに実行される場合、上記の請求項11-20のいずれか一項に記載の色成分予測方法を実行する、デコーダー。
  25. コンピュータ可読記憶媒体であって、実行可能な命令が記憶されており、前記実行可能な命令が1つ又は複数のプロセッサに実行される場合、前記プロセッサが前記請求項1-10のいずれか一項に記載される色成分予測方法又は前記請求項11-20のいずれか一項に記載される色成分予測方法を実行する、コンピュータ可読記憶媒体。
JP2021556939A 2019-03-25 2019-12-09 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体 Pending JP2022528333A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962823621P 2019-03-25 2019-03-25
US62/823,621 2019-03-25
PCT/CN2019/124114 WO2020192180A1 (zh) 2019-03-25 2019-12-09 图像分量的预测方法、编码器、解码器及计算机存储介质

Publications (2)

Publication Number Publication Date
JP2022528333A true JP2022528333A (ja) 2022-06-10
JPWO2020192180A5 JPWO2020192180A5 (ja) 2022-11-24

Family

ID=72608524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021556939A Pending JP2022528333A (ja) 2019-03-25 2019-12-09 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体

Country Status (6)

Country Link
US (1) US20220007042A1 (ja)
EP (1) EP3930329A4 (ja)
JP (1) JP2022528333A (ja)
KR (1) KR20210141683A (ja)
CN (2) CN113412621A (ja)
WO (1) WO2020192180A1 (ja)

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619590A (en) * 1994-10-06 1997-04-08 Eastman Kodak Company System for electronic image signal processing to provide a tonescale corrected full resolution luminance and two half resolution chrominance signals
JP3791922B2 (ja) * 2002-09-06 2006-06-28 富士通株式会社 動画像復号化装置及び方法
CN1859576A (zh) * 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其系统
CN101335902B (zh) * 2007-06-25 2010-06-02 华为技术有限公司 视频编解码中的加权预测方法和装置
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
CN103096055B (zh) * 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
EP2805496B1 (en) * 2012-01-19 2016-12-21 Huawei Technologies Co., Ltd. Reference pixel reduction for intra lm prediction
CA2861043C (en) * 2012-01-19 2019-05-21 Magnum Semiconductor, Inc. Methods and apparatuses for providing an adaptive reduced resolution update mode
WO2015009068A1 (ko) * 2013-07-16 2015-01-22 삼성전자 주식회사 비트 뎁스 및 컬러 포맷의 변환을 동반하는 업샘플링 필터를 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
WO2015054307A2 (en) * 2013-10-07 2015-04-16 Vid Scale, Inc. Combined scalability processing for multi-layer video coding
WO2015053112A1 (ja) * 2013-10-11 2015-04-16 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
WO2015133712A1 (ko) * 2014-03-06 2015-09-11 삼성전자 주식회사 영상 복호화 방법 및 그 장치, 영상 부호화 방법 및 그 장치
GB201500719D0 (en) * 2015-01-15 2015-03-04 Barco Nv Method for chromo reconstruction
US9854201B2 (en) * 2015-01-16 2017-12-26 Microsoft Technology Licensing, Llc Dynamically updating quality to higher chroma sampling rate
US10321140B2 (en) * 2015-01-22 2019-06-11 Mediatek Singapore Pte. Ltd. Method of video coding for chroma components
US10455249B2 (en) * 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
US20170150156A1 (en) * 2015-11-25 2017-05-25 Qualcomm Incorporated Illumination compensation with non-square predictive blocks in video coding
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
US10326986B2 (en) * 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
CN109274969B (zh) * 2017-07-17 2020-12-22 华为技术有限公司 色度预测的方法和设备
EP3737093A4 (en) * 2017-11-28 2022-02-09 Electronics and Telecommunications Research Institute METHOD AND DEVICE FOR CODING/DECODING IMAGES AND RECORDING MEDIA STORED WITH A BITSTREAM
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
WO2020009357A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 Cclm에 기반한 인트라 예측 방법 및 그 장치
PL3815377T3 (pl) * 2018-07-16 2023-05-08 Huawei Technologies Co., Ltd. Koder wideo, dekoder wideo oraz odpowiednie sposoby kodowania i dekodowania
BR112021002310A2 (pt) * 2018-08-09 2021-05-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. método para prever um componente de coloração de vídeo, aparelho de previsão, e mídia de armazenamento legível por computador
KR20200028856A (ko) * 2018-09-07 2020-03-17 김기백 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
JP7391958B2 (ja) * 2018-11-08 2023-12-05 オッポ広東移動通信有限公司 ビデオ信号符号化/復号方法及び前記方法に用いられる機器
WO2020140215A1 (zh) * 2019-01-02 2020-07-09 Oppo广东移动通信有限公司 色度帧内预测方法和装置、及计算机存储介质
CN115941944A (zh) * 2019-01-10 2023-04-07 Oppo广东移动通信有限公司 图像解码方法、解码器及计算机存储介质
JP2022522860A (ja) * 2019-03-07 2022-04-20 オッポ広東移動通信有限公司 インループフィルタリングの実現方法、装置及びコンピュータ記憶媒体
WO2022106013A1 (en) * 2020-11-19 2022-05-27 Huawei Technologies Co., Ltd. Method for chroma subsampled formats handling in machine-learning-based picture coding

Also Published As

Publication number Publication date
US20220007042A1 (en) 2022-01-06
EP3930329A4 (en) 2022-07-20
CN113840144A (zh) 2021-12-24
EP3930329A1 (en) 2021-12-29
KR20210141683A (ko) 2021-11-23
WO2020192180A1 (zh) 2020-10-01
CN113412621A (zh) 2021-09-17
CN113840144B (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
US20220014772A1 (en) Method for picture prediction, encoder, and decoder
JP2022500890A (ja) ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体
JP2023510666A (ja) 画像コンポーネント予測方法、エンコーダ、デコーダ及び記憶媒体
US20220239901A1 (en) Video picture component prediction method and apparatus, and computer storage medium
US20220014765A1 (en) Method for picture prediction, encoder, decoder, and storage medium
JP2022522487A (ja) 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体
JP2022528333A (ja) 色成分予測方法、エンコーダー、デコーダー及びコンピュータ記憶媒体
CN111901595A (zh) 一种基于深度神经网络的视频编码方法及装置、介质
CN114830659A (zh) 变换方法、编码器、解码器以及存储介质
CN112313950A (zh) 视频图像分量的预测方法、装置及计算机存储介质
RU2805048C2 (ru) Способ предсказания изображения, кодер и декодер
JP7305769B2 (ja) 予測方向の決定方法、デコーダ及びコンピュータ記憶媒体
WO2024113311A1 (zh) 编解码方法、编解码器、码流以及存储介质
JP2024095842A (ja) 画像予測方法、エンコーダー、デコーダー及び記憶媒体
WO2021056224A1 (zh) 预测值的确定方法、编码器、解码器以及存储介质
CN114830658A (zh) 变换方法、编码器、解码器以及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625