JP2024006522A - 予測画像生成装置、動画像復号装置、および動画像符号化装置 - Google Patents

予測画像生成装置、動画像復号装置、および動画像符号化装置 Download PDF

Info

Publication number
JP2024006522A
JP2024006522A JP2022107511A JP2022107511A JP2024006522A JP 2024006522 A JP2024006522 A JP 2024006522A JP 2022107511 A JP2022107511 A JP 2022107511A JP 2022107511 A JP2022107511 A JP 2022107511A JP 2024006522 A JP2024006522 A JP 2024006522A
Authority
JP
Japan
Prior art keywords
prediction
cclm
unit
cclm prediction
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022107511A
Other languages
English (en)
Inventor
知宏 猪飼
Tomohiro Igai
哲銘 范
Zheming Fan
友子 青野
Tomoko Aono
将伸 八杉
Masanobu Yasugi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2022107511A priority Critical patent/JP2024006522A/ja
Priority to PCT/JP2023/024662 priority patent/WO2024009962A1/ja
Publication of JP2024006522A publication Critical patent/JP2024006522A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

【課題】CCLM予測に必要なメモリ量を削減する動画像復号装置及び動画像符号化装置を提供する。【解決手段】動画像符号化装置、ネットワーク、動画像復号装置及び動画像表示装置を含む画像伝送システムにおいて、動画像復号装置は、輝度画像を用いて色差画像の予測画像を生成するCCLM予測部を備える。CCLM予測部は、対象ブロックに隣接する参照領域の参照画素と参照画素の隣接画素を用いて、第1の重み、第2の重み及び第1のオフセット値からなるCCLM予測パラメータを導出するCCLM予測パラメータ導出部と、対象ブロックの対象画素と対象画素の隣接画素の2つの輝度画素とCCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部と、を備える。CCLM予測予測フィルタ部は、対象画素と第1の重みの積と、対象画素の隣接画素と第2の重みの積と、第1のオフセット値の和から、予測画素の画素値を導出する。【選択図】図8

Description

本発明の実施形態は、予測画像生成装置、動画像復号装置、および動画像符号化装置に関する。
動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置が用いられている。
具体的な動画像符号化方式としては、例えば、H.264/AVCやHEVC(High-Efficiency Video Coding)、Versatile Video Coding (VVC)方式などが挙げられる。
このような動画像符号化方式においては、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られる符号化ツリーユニット(CTU:Coding Tree Unit)、符号化ツリーユニットを分割することで得
られる符号化単位(符号化ユニット(Coding Unit:CU)と呼ばれることもある)、及び
、符号化単位を分割することより得られる変換ユニット(TU:Transform Unit)からなる階層構造により管理され、CU毎に符号化/復号される。
また、このような動画像符号化方式においては、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測誤差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。近年の動画像符号化及び復号の技術として非特許文献1が挙げられる。
また、近年の動画像符号化及び復号技術においては、輝度画素から色差画素の予測画像を生成するCCLM(CCLM、 Cross-component linear model)の一つとして、対象画像と隣
接画像を用いるCCCM(CCCM、Convolutional cross-component model)予測が開示されて
いる。CCCM予測では、対象ブロックに隣接する復号済み画像を複数用いて線形予測パラメータを導出し、当該線形予測モデル(CCLMモデル)から対象ブロックの色差を予測する。
"AHG12: Convolutional cross-component model (CCCM) for intra prediction", Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11, JVET-Z0064
CCCM処理では、複数の多項式線形モデルを用いるため、パラメータ導出の計算量が非常に大きいという課題がある。また、1個の対象画素と4個の隣接画素と1個の対象画素の非線形要素と1個のバイアスという7つパラメータの線形モデルを導出するため、計算量が必定に大きいという課題がある。
輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、対象ブロックに
隣接する参照領域の参照画素と上記参照画素の隣接画素を用いて、第1の重み、第2の重み、第1のオフセット値からなるCCLM予測パラメータを導出するCCLM予測パラメータ導出部と、対象ブロックの対象画素と対象画素の隣接画素の2つの輝度画素と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、上記CCLM予測予測フィルタ部は、対象画素と上記第1の重みの積と、上記対象画素の隣接画素と上記第2の重みの積と、上記第1のオフセット値の和から、予測画素の画素値を導出することを特徴とする。
上記参照画像および対象画像における隣接画素の位置は対象画素(x, y)の右の画素(x+1, y)であることを特徴とする。
上記請求項1に記載のCCLM予測部と隣接画素の位置を示すインデックスを符号化データから復号するパラメータ復号部と、を備える動画像復号装置であって、上記CCLM予測パラメータ導出部は、上記インデックスに関わらずCCLM予測パラメータの数を固定とし、上記インデックスに応じて上記参照画素の隣接画素の位置を切り替えて上記CCLM予測パラメータを導出し、上記CCLMフィルタ部は、上記インデックスに応じて上記隣接画素を切り替えて予測画像を導出することを特徴とする。
上記請求項1に記載のCCLM予測部と隣接画素の位置を示すインデックスを符号化データから復号するパラメータ符号化部と、を備える動画像符号化装置であって、上記CCLM予測パラメータ導出部は、上記インデックスに関わらずCCLM予測パラメータの数を固定とし、上記インデックスに応じて上記参照画素の隣接画素の位置を切り替えて上記CCLM予測パラメータを導出し、上記CCLMフィルタ部は、上記インデックスに応じて上記隣接画素を切り替えて予測画像を導出することを特徴とする。
上記エントロピー復号部は、上記インデックスをシーケンスヘッダ、スライスヘッダ、CTUヘッダの何れかの符号化データから復号し、上記パラメータ復号部は、対象ブロック
において、上記CCLM予測を行うかを示すフラグを符号化データから導出し、上記CCLMフィルタ部は、上記対象ブロックの予測画像を導出することを特徴とする。
輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、3つ以上のパラメータをCCLM予測パラメータとして導出可能なCCLM予測パラメータ導出部と、輝度参照画像と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、上記CCLM予測パラメータ導出部は、上記導出するパラメータ数を変更することを特徴とする。
輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、輝度画素値に応じてグループに分類し、上記グループごとに複数のCCLM予測パラメータを導出可能なCCLM予測パラメータ導出部と、輝度参照画像と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、上記CCLM予測パラメータ導出部は、輝度画像の画素値を2つ以上のグループに分類するか否かに応じて、上記CCLM予測のパラメータ数を変更することを特徴とする。
上記CCLM予測パラメータ導出部は、輝度画像の画素値に応じて2つ以上のグループに分類する場合に2パラメータのCCLM予測のパラメータ数を用いてCCLM予測パラメータを導出し、それ以外、1つのグループを用いる場合に、3パラメータのCCLM予測のパラメータ数を用いてパラメータ数を導出することを特徴とする。
3パラメータのCCLM予測を行うかを示すCCLMフラグと2パラメータのCCLM予測を行うかを示すCCLMフラグを符号化データから復号するエントロピー復号部と、上記CCLM予測部を
備える動画像復号装置であって、上記CCLMフラグが1の場合には、1つのCCLM予測パラメータを導出し、それ以外の場合に2つ以上のCCLM予測パラメータを導出することを特徴とする。
上記CCLMフラグが0の場合に、上記CCLMフラグを復号し、CCLMフラグが1の場合に、マルチパラメータ予測を行うかを示すMMLMフラグを符号化データから復号し、MMLMフラグが1の場合に2つのCCLM予測パラメータを導出し、MMLMフラグが0の場合に、1つのCCLM予測パラメータを導出する。
本発明の一態様によれば、CCCM予測において、線形予測パラメータの導出が簡略化される効果がある。
本実施形態に係る画像伝送システムの構成を示す概略図である。 符号化ストリームのデータの階層構造を示す図である。 イントラ予測モードの種類(モード番号)を示す概略図である。 動画像復号装置の構成を示す概略図である。 イントラ予測パラメータ導出部の構成を示す概略図である。 イントラ予測に使用される参照領域を示す図である。 イントラ予測画像生成部の構成を示す図である。 (a)は、本発明の一実施形態に係るCCLM予測部の構成の一例を示したブロック図であり、(b)は、IntraPredModeCの導出方法を示す図である。 (a)~(e)は、本発明の一実施形態に係るCCLM予測パラメータの導出の際に参照する画素を説明する図である。 (a)本実施形態に係る1モデルにおけるCCLM予測で用いる(輝度,色差)の組み合わせの例を示す図である。(b)本実施形態に係る2モデルにおけるCCLM予測(MMLM予測)の例を示す図である。 動画像符号化装置の構成を示すブロック図である。 イントラ予測パラメータ導出部の構成を示す概略図である。 本発明の一実施形態に係る参照画素の位置を示す図である。 本発明の一実施形態に係るシンタックス構成を示す図である。 本発明の一実施形態に係るシンタックス構成を示す図である。 本発明の一実施形態に係るシンタックス構成を示す図である。 本発明の一実施形態に係るシンタックス構成を示す図である。 本発明の一実施形態に係るCCLM予測部の動作を示すフローチャートである。 本発明の一実施形態に係るCCLM予測部の動作を示すフローチャートである。
(第1の実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る画像伝送システム1の構成を示す概略図である。
画像伝送システム1は、符号化対象画像を符号化した符号化ストリームを伝送し、伝送された符号化ストリームを復号し画像を表示するシステムである。画像伝送システム1は、動画像符号化装置(画像符号化装置)11、ネットワーク21、動画像復号装置(画像復号装置)31、及び動画像表示装置(画像表示装置)41を含んで構成される。
動画像符号化装置11には画像Tが入力される。
ネットワーク21は、動画像符号化装置11が生成した符号化ストリームTeを動画像復号装置31に伝送する。ネットワーク21は、インターネット(Internet)、広域ネットワーク(WAN:Wide Area Network)、小規模ネットワーク(LAN:Local Area Network)またはこれらの組み合わせである。ネットワーク21は、必ずしも双方向の通信網に限らず、地上デジタル放送、衛星放送等の放送波を伝送する一方向の通信網であっても良い。また、ネットワーク21は、DVD(Digital Versatile Disc:登録商標)、BD(Blue-ray Disc:登録商標)等の符号化ストリームTeを記録した記憶媒体で代替されても良い。
動画像復号装置31は、ネットワーク21が伝送した符号化ストリームTeのそれぞれを復号し、復号した1または複数の復号画像Tdを生成する。
動画像表示装置41は、動画像復号装置31が生成した1または複数の復号画像Tdの全部または一部を表示する。動画像表示装置41は、例えば、液晶ディスプレイ、有機EL(Electro-luminescence)ディスプレイ等の表示デバイスを備える。ディスプレイの形態としては、据え置き、モバイル、HMD等が挙げられる。また、動画像復号装置31が高い処理能力を有する場合には、画質の高い画像を表示し、より低い処理能力しか有しない場合には、高い処理能力、表示能力を必要としない画像を表示する。
<演算子>
本明細書で用いる演算子を以下に記載する。
>>は右ビットシフト、<<は左ビットシフト、&はビットワイズAND、|はビットワイズOR
、|=はOR代入演算子であり、||は論理和を示す。
x?y:zは、xが真(0以外)の場合にy、xが偽(0)の場合にzをとる3項演算子である。
Clip3(a,b,c)は、cをa以上b以下の値にクリップする関数であり、c<aの場合にはaを返
し、c>bの場合にはbを返し、その他の場合にはcを返す関数である(ただし、a<=b)。
abs(a)はaの絶対値を返す関数である。
Int(a)はaの整数値を返す関数である。
floor(a)はa以下の最大の整数を返す関数である。
ceil(a)はa以上の最小の整数を返す関数である。
a/dはdによるaの除算(小数点以下切り捨て)を表す。
a^bは、aのb乗を表す。
<符号化ストリームTeの構造>
本実施形態に係る動画像符号化装置11および動画像復号装置31の詳細な説明に先立って、動画像符号化装置11によって生成され、動画像復号装置31によって復号される符号化ストリームTeのデータ構造について説明する。
図2は、符号化ストリームTeにおけるデータの階層構造を示す図である。符号化ストリ
ームTeは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。図2の(a)~(f)は、それぞれ、シーケンスSEQを既定する符号化ビデオシーケンス、ピクチャPICTを規定する符号化ピクチャ、スライスSを規定する符号化スライス、スライスデータを規定する符号化スライスデータ、符号化スライスデータに含まれる符号化ツリーユニット、符号化ツリーユニットに含まれる符号化ユニットを示す図である。
(符号化ビデオシーケンス)
符号化ビデオシーケンスでは、処理対象のシーケンスSEQを復号するために動画像復号
装置31が参照するデータの集合が規定されている。シーケンスSEQは、図2(a)に示すよう
に、ビデオパラメータセット(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。
ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複
数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために動画像復号装
置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの幅や高さが規定される。なお、SPSは複数存在してもよい。その場合、PPSから複数のSPSの何れか
を選択する。
ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために
動画像復号装置31が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値(pic_init_qp_minus26)等が含まれる。なお、PPSは複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。
(符号化ピクチャ)
符号化ピクチャでは、処理対象のピクチャPICTを復号するために動画像復号装置31が参照するデータの集合が規定されている。ピクチャPICTは、図2(b)に示すように、スライス0~スライスNS-1を含む(NSはピクチャPICTに含まれるスライスの総数)。
なお、以下、スライス0~スライスNS-1のそれぞれを区別する必要が無い場合、符号の
添え字を省略して記述することがある。また、以下に説明する符号化ストリームTeに含まれるデータであって、添え字を付している他のデータについても同様である。
(符号化スライス)
符号化スライスでは、処理対象のスライスSを復号するために動画像復号装置31が参照
するデータの集合が規定されている。スライスは、図2(c)に示すように、スライスヘッダ、および、スライスデータを含んでいる。
スライスヘッダには、対象スライスの復号方法を決定するために動画像復号装置31が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダに含まれる符号化パラメータの一例である。
スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イ
ントラ予測を用いるBスライスなどが挙げられる。なお、インター予測は、単予測、双予測に限定されず、より多くの参照ピクチャを用いて予測画像を生成してもよい。以下、P
、Bスライスと呼ぶ場合には、インター予測を用いることができるブロックを含むスライ
スを指す。
なお、スライスヘッダは、ピクチャパラメータセットPPSへの参照(pic_parameter_set_id)を含んでいても良い。
(符号化スライスデータ)
符号化スライスデータでは、処理対象のスライスデータを復号するために動画像復号装置31が参照するデータの集合が規定されている。スライスデータは、図2(d)に示すように、CTUを含んでいる。CTUは、スライスを構成する固定サイズ(例えば64x64)のブロックであり、最大符号化単位(LCU:Largest Coding Unit)と呼ぶこともある。
(符号化ツリーユニット)
図2(e)には、処理対象のCTUを復号するために動画像復号装置31が参照するデータの集
合が規定されている。CTUは、再帰的な4分木分割(QT(Quad Tree)分割)、2分木分割(BT(Binary Tree)分割)あるいは3分木分割(TT(Ternary Tree)分割)により符号
化処理の基本的な単位である符号化ユニットCUに分割される。BT分割とTT分割を合わせてマルチツリー分割(MT(Multi Tree)分割)と呼ぶ。再帰的な4分木分割により得られる木構造のノードのことを符号化ノード(Coding Node)と称する。4分木、2分木、及び
3分木の中間ノードは、符号化ノードであり、CTU自身も最上位の符号化ノードとして規
定される。
CTは、CT情報として、分割を行うか否かを示す分割フラグを含む。
また、CTUのサイズが64x64画素の場合には、CUのサイズは、64x64画素、64x32画素、32x64画素、32x32画素、64x16画素、16x64画素、32x16画素、16x32画素、16x16画素、64x8画素、8x64画素、32x8画素、8x32画素、16x8画素、8x16画素、8x8画素、64x4画素、4x64画素、32x4画素、4x32画素、16x4画素、4x16画素、8x4画素、4x8画素、及び、4x4画素の何れかをとり得る。
(符号化ユニット)
図2(f)に示すように、処理対象の符号化ユニットを復号するために動画像復号装置31が参照するデータの集合が規定されている。具体的には、CUは、CUヘッダCUH、予測パラメ
ータ、変換パラメータ、量子化変換係数等から構成される。CUヘッダでは予測モード等が規定される。
予測処理は、CU単位で行われる場合と、CUをさらに分割したサブCU単位で行われる場合がある。CUとサブCUのサイズが等しい場合には、CU中のサブCUは1つである。CUがサブCUのサイズよりも大きい場合、CUは、サブCUに分割される。たとえばCUが8x8、サブCUが4x4の場合、CUは水平2分割、垂直2分割からなる、4つのサブCUに分割される。
予測の種類(予測モード)は、イントラ予測と、インター予測の2つがある。イントラ予測は、同一ピクチャ内の予測であり、インター予測は、互いに異なるピクチャ間(例えば、表示時刻間)で行われる予測処理を指す。
変換・量子化処理はCU単位で行われるが、量子化変換係数は4x4等のサブブロック単位
でエントロピー符号化してもよい。
(予測パラメータ)
予測画像は、ブロックに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測とインター予測の予測パラメータがある。
以下、イントラ予測の予測パラメータについて説明する。イントラ予測パラメータは、輝度予測モードIntraPredModeY、色差予測モードIntraPredModeCから構成される。図3は
、イントラ予測モードの種類(モード番号)を示す概略図である。図に示すように、イントラ予測モードは、例えば67種類(0~66)存在する。例えば、プレーナ予測(0)、DC予測(1)、Angular予測(2~66)である。さらに、色差ではCCLMモード(81~83)を追加
してもよい。
イントラ予測パラメータを導出するためのシンタックス要素には、例えば、intra_luma_mpm_flag、mpm_idx、mpm_remainder等がある。
(MPM)
intra_luma_mpm_flagは、対象ブロックの輝度予測モードIntraPredModeYとMPM(Most Probable Mode)とが一致するか否かを示すフラグである。MPMは、MPM候補リストmpmCandList[]に含まれる予測モードである。MPM候補リストは、隣接ブロックのイントラ予測モードおよび所定のイントラ予測モードから、対象ブロックに適用される確率が高いと推定される候補を格納したリストである。intra_luma_mpm_flagが1の場合、MPM候補リストとインデックスmpm_idxを用いて、対象ブロックの輝度予測モードIntraPredModeYを導出する。
IntraPredModeY = mpmCandList[mpm_idx]
(REM)
intra_luma_mpm_flagが0の場合、mpm_remainderを用いて輝度予測モードIntraPredModeYを導出する。具体的には、イントラ予測モード全体からMPM候補リストに含まれるイントラ予測モードを除いた残りのモードRemIntraPredModeからイントラ予測モードを選択する。
(動画像復号装置の構成)
本実施形態に係る動画像復号装置31(図4)の構成について説明する。
動画像復号装置31は、エントロピー復号部301、パラメータ復号部(予測画像復号装置
)302、ループフィルタ305、参照ピクチャメモリ306、予測パラメータメモリ307、予測画像生成部308、逆量子化・逆変換部311、及び加算部312、予測パラメータ導出部320を含んで構成される。なお、後述の動画像符号化装置11に合わせ、動画像復号装置31にループフィルタ305が含まれない構成もある。
パラメータ復号部302は、さらに、ヘッダ復号部3020、CT情報復号部3021、及びCU復号
部3022(予測モード復号部)を備えており、CU復号部3022はさらにTU復号部3024を備えている。これらを総称して復号モジュールと呼んでもよい。ヘッダ復号部3020は、符号化データからVPS、SPS、PPSなどのパラメータセット情報、スライスヘッダ(スライス情報)を復号する。CT情報復号部3021は、符号化データからCTを復号する。CU復号部3022は符号化データからCUを復号する。TU復号部3024は、TUに予測誤差が含まれている場合に、符号化データからQP更新情報(量子化補正値)と量子化予測誤差(residual_coding)を復号する。
予測パラメータ導出部320は、インター予測パラメータ導出部303及びイントラ予測パラメータ導出部304を含んで構成される。
予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を
含んで構成される。
また、以降では処理の単位としてCTU、CUを使用した例を記載するが、この例に限らず
、サブCU単位で処理をしてもよい。あるいはCTU、CU、をブロック、サブCUをサブブロッ
クと読み替え、ブロックあるいはサブブロック単位の処理としてもよい。
エントロピー復号部301は、外部から入力された符号化ストリームTeに対してエントロ
ピー復号を行って、個々の符号(シンタックス要素)を分離し復号する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための予測誤差などがある。エントロピー復号部301は、分離した符号をパラメータ復号部302に出力する。
(イントラ予測パラメータ導出部304の構成)
イントラ予測パラメータ導出部304は、エントロピー復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してイントラ予測
パラメータ、例えば、イントラ予測モードIntraPredModeを導出する。イントラ予測パラ
メータ導出部304は、導出したイントラ予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。イントラ予測パラメータ導出部304は、輝度と色差で異なるイントラ予測モードを導出しても良い。
図5は、予測パラメータ導出部320のイントラ予測パラメータ導出部304の構成を示す概
略図である。図に示すように、イントラ予測パラメータ導出部304は、パラメータ復号制
御部3041と、輝度イントラ予測パラメータ導出部3042と、色差イントラ予測パラメータ導出部3043とを含んで構成される。
パラメータ復号制御部3041は、エントロピー復号部301にシンタックス要素の復号を指
示し、エントロピー復号部301からシンタックス要素を受け取る。その中のintra_luma_mpm_flagが1の場合、パラメータ復号制御部3041は、輝度イントラ予測パラメータ導出部3042内のMPMパラメータ導出部30422にmpm_idxを出力する。また、intra_luma_mpm_flagが0の場合、パラメータ復号制御部3041は、輝度イントラ予測パラメータ導出部3042の非MPMパラメータ導出部30423にmpm_remainderを出力する。また、パラメータ復号制御部3041は、色差イントラ予測パラメータ導出部3043に色差のイントラ予測パラメータintra_chroma_pred_modeを出力する。
輝度イントラ予測パラメータ導出部3042は、MPM候補リスト導出部30421と、MPMパラメ
ータ導出部30422と、非MPMパラメータ導出部30423(導出部)とを含んで構成される。
MPMパラメータ導出部30422は、MPM候補リスト導出部30421によって導出されたMPM候補
リストmpmCandList[]とmpm_idxを参照して、輝度予測モードIntraPredModeYを導出し、イントラ予測画像生成部310に出力する。
非MPMパラメータ導出部30423は、MPM候補リストmpmCandList[]とmpm_remainderからIntraPredModeYを導出し、イントラ予測画像生成部310に出力する。
色差イントラ予測パラメータ導出部3043は、intra_chroma_pred_modeから色差予測モードIntraPredModeCを導出し、イントラ予測画像生成部310に出力する。
ループフィルタ305は、符号化ループ内に設けたフィルタで、ブロック歪やリンギング
歪を除去し、画質を改善するフィルタである。ループフィルタ305は、加算部312が生成し
たCUの復号画像に対し、デブロッキングフィルタ、サンプル適応オフセット(SAO)、適
応ループフィルタ(ALF)等のフィルタを施す。
参照ピクチャメモリ306は、加算部312が生成したCUの復号画像を、対象ピクチャ及び対象CU毎に予め定めた位置に記憶する。
予測パラメータメモリ307は、復号対象のCTUあるいはCU毎に予め定めた位置に予測パラメータを記憶する。具体的には、予測パラメータメモリ307は、パラメータ復号部302が復号したパラメータ及び予測パラメータ導出部320が導出したパラメータ等を記憶する。
予測画像生成部308には、予測パラメータ導出部320が導出したパラメータ等が入力される。また、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードpredModeが示す予測モードで、予測パラメータと読み
出した参照ピクチャ(参照ピクチャブロック)を用いてブロックもしくはサブブロックの予測画像を生成する。ここで、参照ピクチャブロックとは、参照ピクチャ上の画素の集合(通常矩形であるのでブロックと呼ぶ)であり、予測画像を生成するために参照する領域である。
(イントラ予測画像生成部310)
予測モードpredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は
、イントラ予測パラメータ導出部304から入力されたイントラ予測パラメータと参照ピク
チャメモリ306から読み出した参照画素を用いてイントラ予測を行う。
具体的には、イントラ予測画像生成部310は、対象ピクチャ上の、対象ブロックから予
め定めた範囲にある隣接ブロックを参照ピクチャメモリ306から読み出す。予め定めた範
囲とは、対象ブロックの左、左上、上、右上の隣接ブロックであり、イントラ予測モードによって参照する領域は異なる。
イントラ予測画像生成部310は、読み出した復号画素値とIntraPredModeが示す予測モードを参照して、対象ブロックの予測画像を生成する。イントラ予測画像生成部310は生成
したブロックの予測画像を加算部312に出力する。
イントラ予測モードに基づく予測画像の生成について以下で説明する。Planar予測、DC予測、Angular予測では、予測対象ブロックに隣接(近接)する復号済みの周辺領域を参
照領域Rとして設定する。そして、参照領域R上の画素を特定の方向に外挿することで予測画像を生成する。例えば、参照領域Rは、予測対象ブロックの左と上(あるいは、さらに、左上、右上、左下)を含むL字型の領域(例えば図6(a)の斜線の丸印の画素で示される領域)として設定してもよい。
(予測画像生成部の詳細)
次に、図7を用いてイントラ予測画像生成部310の構成の詳細を説明する。イントラ予測画像生成部310は、予測対象ブロック設定部3101、未フィルタ参照画像設定部3102(第1
の参照画像設定部)、フィルタ済参照画像設定部3103(第2の参照画像設定部)、予測部3104(イントラ予測部3104)、および、予測画像補正部3105(予測画像補正部、フィルタ切替部、重み係数変更部)を備える。
参照領域R上の各参照画素(未フィルタ参照画像)、参照画素フィルタ(第1のフィルタ)を適用して生成したフィルタ済参照画像、イントラ予測モードに基づいて、予測部3104は予測対象ブロックの仮予測画像(補正前予測画像)を生成し、予測画像補正部3105に出力する。予測画像補正部3105は、イントラ予測モードに応じて仮予測画像を修正し、予測画像(補正済予測画像)を生成し、出力する。
以下、イントラ予測画像生成部310が備える各部について説明する。
(予測対象ブロック設定部3101)
予測対象ブロック設定部3101は、対象CUを予測対象ブロックに設定し、予測対象ブロックに関する情報(予測対象ブロック情報)を出力する。予測対象ブロック情報には、予測対象ブロックのサイズ、位置、輝度か色差かを示すインデックスが少なくとも含まれる。
(未フィルタ参照画像設定部3102)
未フィルタ参照画像設定部3102は、予測対象ブロックのサイズと位置に基づいて、予測対象ブロックの隣接周辺領域を参照領域Rとして設定する。続いて、参照領域R内の各画素値(未フィルタ参照画像、境界画素)に、参照ピクチャメモリ306上で対応する位置の
各復号画素値をセットする。図6(a)に示す予測対象ブロック上辺に隣接する復号画素のラインr[x][-1]、および、予測対象ブロック左辺に隣接する復号画素の列r[-1][y]が未フィルタ参照画像である。
(フィルタ済参照画像設定部3103)
フィルタ済参照画像設定部3103は、イントラ予測モードに応じて、未フィルタ参照画像に参照画素フィルタ(第1のフィルタ)を適用して、参照領域R上の各位置(x,y)のフィ
ルタ済参照画像s[x][y]を導出する。具体的には、位置(x,y)とその周辺の未フィルタ参照画像にローパスフィルタを適用し、フィルタ済参照画像(図6(b))を導出する。なお、必ずしも全イントラ予測モードにローパスフィルタを適用する必要はなく、一部のイントラ予測モードに対してローパスフィルタを適用してもよい。なお、フィルタ済参照画素設定部3103において参照領域R上の未フィルタ参照画像に適用するフィルタを「参照画素フィルタ(第1のフィルタ)」と呼称するのに対し、後述の予測画像補正部3105において仮予測画像を補正するフィルタを「バウンダリフィルタ(第2のフィルタ)」と呼称する。
(イントラ予測部3104の構成)
イントラ予測部3104は、イントラ予測モードと、未フィルタ参照画像、フィルタ済参照画素値に基づいて予測対象ブロックの仮予測画像(仮予測画素値、補正前予測画像)を生成し、予測画像補正部3105に出力する。予測部3104は、内部にPlanar予測部31041、DC予
測部31042、Angular予測部31043、およびCCLM予測部(予測画像生成装置)31044を備えている。予測部3104は、イントラ予測モードに応じて特定の予測部を選択して、未フィルタ参照画像、フィルタ済参照画像を入力する。イントラ予測モードと対応する予測部との関係は次の通りである。
・Planar予測 ・・・Planar予測部31041
・DC予測 ・・・DC予測部31042
・Angular予測 ・・・Angular予測部31043
・CCLM予測 ・・・CCLM予測部31044
(Planar予測)
Planar予測部31041は、予測対象画素位置と参照画素位置との距離に応じて、複数のフ
ィルタ済参照画像s[x][y]を線形加算して仮予測画像q[x][y]を生成し、予測画像補正部3105に出力する。
(DC予測)
DC予測部31042は、フィルタ済参照画像s[x][y]の平均値に相当するDC予測値を導出し、DC予測値を画素値とする仮予測画像q[x][y]を出力する。
(Angular予測)
Angular予測部31043は、イントラ予測モードの示す予測方向(参照方向)のフィルタ済参照画像s[x][y]を用いて仮予測画像q[x][y]を生成し、予測画像補正部3105に出力する。
(CCLM(Cross-Component Linear Model)予測)
CCLM予測部31044は、輝度の画素値に基づいて色差の画素値を予測する。具体的には、
復号した輝度画像をもとに、線形モデルを用いて、色差画像(Cb、Cr)の予測画像を生成する方式である。CCLM予測は後述する。
(予測画像補正部3105の構成)
予測画像補正部3105は、イントラ予測モードに応じて、予測部3104から出力された仮予測画像を修正する。具体的には、予測画像補正部3105は、仮予測画像の各画素に対し、参照領域Rと対象予測画素との距離に応じて、未フィルタ参照画像と仮予測画像を重み付け加算(加重平均)することで、仮予測画像を修正した予測画像(補正済予測画像)Predを導出する。なお、一部のイントラ予測モード(例えば、Planar予測、DC予測等)は、予測画像補正部3105で仮予測画像を補正せず、予測部3104の出力を予測画像としてもよい。
逆量子化・逆変換部311は、エントロピー復号部301から入力された量子化変換係数を逆量子化して変換係数を求める。この量子化変換係数は、符号化処理において、予測誤差に対してDCT(Discrete Cosine Transform、離散コサイン変換)、DST(Discrete Sine Transform、離散サイン変換)等の周波数変換を行い量子化して得られる係数である。逆量子化・逆変換部311は、求めた変換係数について逆DCT、逆DST等の逆周波数変換を行い、予
測誤差を算出する。逆量子化・逆変換部311は予測誤差を加算部312に出力する。
加算部312は、予測画像生成部308から入力されたブロックの予測画像と逆量子化・逆変換部311から入力された予測誤差を画素毎に加算して、ブロックの復号画像を生成する。
加算部312はブロックの復号画像を参照ピクチャメモリ306に記憶し、また、ループフィルタ305に出力する。
(動画像符号化装置の構成)
次に、本実施形態に係る動画像符号化装置11の構成について説明する。図11は、本実施形態に係る動画像符号化装置11の構成を示すブロック図である。動画像符号化装置11は、予測画像生成部101、減算部102、変換・量子化部103、逆量子化・逆変換部105、加算部106、ループフィルタ107、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120、エントロピー符号化部104を含んで構成される。
予測画像生成部101は画像Tの各ピクチャを分割した領域であるCU毎に予測画像を生成
する。予測画像生成部101は既に説明した予測画像生成部308と同じ動作であり、説明を省略する。
減算部102は、予測画像生成部101から入力されたブロックの予測画像の画素値を、画像Tの画素値から減算して予測誤差を生成する。減算部102は予測誤差を変換・量子化部103に出力する。
変換・量子化部103は、減算部102から入力された予測誤差に対し、周波数変換によって変換係数を算出し、量子化によって量子化変換係数を導出する。変換・量子化部103は、
量子化変換係数をエントロピー符号化部104及び逆量子化・逆変換部105に出力する。
逆量子化・逆変換部105は、動画像復号装置31における逆量子化・逆変換部311(図4)
と同じであり、説明を省略する。算出した予測誤差は加算部106に出力される。
エントロピー符号化部104には、変換・量子化部103から量子化変換係数が入力され、パラメータ符号化部111から符号化パラメータが入力される。符号化パラメータには、例え
ば、イントラ予測モードのパラメータ(intra_luma_mpm_flag、mpm_idx、mpm_remainder
)、予測モードpredMode等の符号がある。
エントロピー符号化部104は、分割情報、符号化パラメータ、量子化変換係数等をエン
トロピー符号化して符号化ストリームTeを生成し、出力する。
パラメータ符号化部111は、図示しないヘッダ符号化部1110、CT情報符号化部1111、CU
符号化部1112(予測モード符号化部)を備えている。CU符号化部1112はさらにTU符号化部1114を備えている。
予測パラメータ導出部120は、インター予測パラメータ導出部112、イントラ予測パラメータ導出部113からインター予測パラメータ及びイントラ予測パラメータを導出する。導出されたインター予測パラメータ及びイントラ予測パラメータは、パラメータ符号化部111に出力される。
(イントラ予測パラメータ導出部113の構成)
イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力されたイントラ予測モードIntraPredModeから、符号化するための形式(例えばmpm_idx、mpm_remainder等)を導出する。イントラ予測パラメータ導出部113は、イントラ予測パラメータ導出部304がイントラ予測パラメータを導出する構成と、一部同一の構成を含む。
図12は、予測パラメータ導出部120のイントラ予測パラメータ導出部113の構成を示す概略図である。イントラ予測パラメータ導出部113は、パラメータ符号化制御部1131、輝度
イントラ予測パラメータ導出部1132、色差イントラ予測パラメータ導出部1133とを含んで構成される。
パラメータ符号化制御部1131には、符号化パラメータ決定部110から輝度予測モードIntraPredModeYおよび色差予測モードIntraPredModeCが入力される。パラメータ符号化制御部1131は参照候補リスト導出部30421のMPM候補リストmpmCandList[]を参照して、intra_luma_mpm_flagを決定する。そして、intra_luma_mpm_flagとIntraPredModeYを、輝度イントラ予測パラメータ導出部1132に出力する。また、IntraPredModeCを色差イントラ予測パラメータ導出部1133に出力する。
輝度イントラ予測パラメータ導出部1132は、MPM候補リスト導出部30421(候補リスト導出部)と、MPMパラメータ導出部11322と、非MPMパラメータ導出部11323(符号化部、導出部)とを含んで構成される。
MPM候補リスト導出部30421は、予測パラメータメモリ108に格納された隣接ブロックの
イントラ予測モードを参照して、MPM候補リストmpmCandList[]を導出する。MPMパラメー
タ導出部11322は、intra_luma_mpm_flagが1の場合に、IntraPredModeYとmpmCandList[]
からmpm_idxを導出し、エントロピー符号化部104に出力する。非MPMパラメータ導出部11323は、intra_luma_mpm_flagが0の場合に、IntraPredModeYとmpmCandList[]からmpm_remainderを導出し、エントロピー符号化部104に出力する。
色差イントラ予測パラメータ導出部1133は、IntraPredModeYとIntraPredModeCからintra_chroma_pred_modeを導出し、出力する。
加算部106は、予測画像生成部101から入力されたブロックの予測画像の画素値と逆量子化・逆変換部105から入力された予測誤差を画素毎に加算して復号画像を生成する。加算
部106は生成した復号画像を参照ピクチャメモリ109に記憶する。
ループフィルタ107は加算部106が生成した復号画像に対し、デブロッキングフィルタ、SAO、ALFを施す。なお、ループフィルタ107は、必ずしも上記3種類のフィルタを含まな
くてもよく、例えばデブロッキングフィルタのみの構成であってもよい。
予測パラメータメモリ108は、符号化パラメータ導出部120が生成した予測パラメータを、対象ピクチャ及びCU毎に予め定めた位置に記憶する。変換・量子化部103が生成した変換係数等を記憶してもよい。
参照ピクチャメモリ109は、ループフィルタ107が生成した復号画像を対象ピクチャ及びCU毎に予め定めた位置に記憶する。
符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセッ
トを選択する。符号化パラメータとは、上述したQT、BTあるいはTT分割情報、予測パラメータ、あるいはこれらに関連して生成される符号化の対象となるパラメータである。予測画像生成部101は、これらの符号化パラメータを用いて予測画像を生成する。
符号化パラメータ決定部110は、複数のセットの各々について情報量の大きさと符号化
誤差を示すRDコスト値を算出する。RDコスト値は、例えば、符号量と二乗誤差に係数λを乗じた値との和である。符号化パラメータ決定部110は、算出したコスト値が最小となる
符号化パラメータのセットを選択する。これにより、エントロピー符号化部104は、選択
した符号化パラメータのセットを符号化ストリームTeとして出力する。符号化パラメータ決定部110は決定した符号化パラメータをパラメータ符号化部111、予測パラメータ導出部120、予測画像生成部101に出力する。
なお、上述した実施形態における動画像符号化装置11、動画像復号装置31の一部、例えば、エントロピー復号部301、パラメータ復号部302、ループフィルタ305、予測画像生成
部308、逆量子化・逆変換部311、加算部312、予測パラメータ導出部320、予測画像生成部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆量子化・逆変換部105、ループフィルタ107、符号化パラメータ決定部110、パラメータ符号化部111、予測パラメータ導出部120をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、動画像符号化装置11、動画像復号装置31のいずれかに内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における動画像符号化装置11、動画像復号装置31の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。動画像符号化装置11、動画像復号装置31の各機能ブロックは個別にプロセッサ化しても良いし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
〔応用例〕
上述した動画像符号化装置11及び動画像復号装置31は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
(色差イントラ予測モード)
次に、図8~図23を参照してCCLM予測について説明する。
図10は、輝度色差予測の概要を示す図である。輝度色差予測では、輝度から色差を線形予測する。(a)は対象ブロックに1つの予測モデルを利用する場合を示し、対象ブロック
に対して1つのCCLM予測パラメータを導出する。(b)は、対象ブロックに複数の予測モデ
ルを利用する場合を示し、対象ブロックに対して2つ以上(ここでは2つ)のCCLM予測パラメータを導出する。複数予測モデルをもつ輝度色差予測をMMLM(Multi Mode Linear Model)と呼ぶ。また、1つの重み係数aと1つのオフセット係数b(バイアス)からなる2パラメータを用いた線形予測を狭義のCCLM、2つ以上の重み係数akと1つのオフセット係数b(バイアス)からなるNパラメータ(N>2)を用いた線形予測をCCCM(Convolutional cross-component model)と呼ぶ。aとb、akとbをCCLM予測パラメータと呼び、対象ブロックの隣接画像を用いて導出する。なお、後述するshiftAのように、CCLM予測パラメータにおいて重みとバイアス値に加えてシフト値を導出してもよい。
ただし、本明細書のCCLM予測パラメータの数にはシフト値を含めない。つまり、以下のように定義する。
a, b, shiftAをパラメータとする線形予測を2パラメータの線形予測
a0, a1, b, shiftAをパラメータとする線形予測を3パラメータの線形予測
これはCCLM予測パラメータの導出に係る計算量、CCLM予測における線形予測に係る計算量において、shiftAの導出処理、shiftAによるシフト処理は無視できる程度であるため、shiftAをパラメータ数に含めない。
また、輝度色差予測としての以下の予測を用いてもよい。
INTRA_LT_CCLM(81) 左と上参照、1モデル、2パラメータ
INTRA_L_CCLM(82) 左参照、1モデル、2パラメータ
INTRA_T_CCLM(83) 上参照、1モデル、2パラメータ
INTRA_LT_MMLM(84) 左と上参照、2モデル、2パラメータ
INTRA_L_MMLM(85) 左参照、2モデル、2パラメータ
INTRA_T_MMLM(86) 上参照、2モデル、2パラメータ
INTRA_LT_CCCM_SINGLE(87) 左と上参照、2モデル、3パラメータ
INTRA_L_CCCM_SINGLE(88) 左参照、2モデル、3パラメータ
INTRA_T_CCCM_SINGLE(89) 上参照、2モデル、3パラメータ
INTRA_LT_MMLM_CCCM(90) 左と上参照、2モデル、3パラメータ
INTRA_L_MMLM_CCCM(91) 左参照、2モデル、3パラメータ
INTRA_T_MMLM_CCCM(92) 上参照、2モデル、3パラメータ
括弧内は対応するIntraPredModeCの値である。がこの値に限定されない。また上記予測の全てを利用するのではなく一部を利用する構成でもよい。特に、後述する排他構成では、INTRA_{LT,L,T}_MMLM_CCCMで示される複数モデル複数隣接パラメータ(上記の2モデル、3パラメータ)を用いない。
イントラ予測パラメータ導出部304は、上述の色差予測モードIntraPredModeCの導出に
あたり、輝度予測モードIntraPredModeY、intra_chroma_pred_mode、および、図8(b)の表を参照する。図はIntraPredModeCの導出方法を示す。intra_chroma_pred_modeが0~3、および4の場合、イントラ予測パラメータ導出部304はIntraPredModeYの値に依存してIntraPredModeCを導出する。例えば、intra_chroma_pred_modeが0、IntraPredModeYが0の場合、IntraPredModeCは66である。また、intra_chroma_pred_modeが3、IntraPredModeYが50の場合、IntraPredModeCは1である。なお、IntraPredModeY、IntraPredModeCの値は図3のイントラ予測モードを表す。
CCLM予測部31044は、図8(a)に示すように、ダウンサンプリング部310441、CCLM予測パ
ラメータ導出部(パラメータ導出部)310442と、CCLM予測フィルタ部310443を含む。
<3パラメータ構成の例1>
図13は、本実施形態に係る対象画素と隣接画素の位置関係を示す図である。本構成のCCLM予測フィルタ部310443は、予測すべき色差画素位置(x,y)に対応する輝度の対象画素refSamples[x*SubWidthC][y*SubHeightC]とその隣接画素refSamples[x*SubWidthC+dX][y*SubHeightC+dY]を用いてCCLM予測を行う。そして、色差画素位置(x,y)の予測画像predSamples[x][y]を生成する。図では以下の4つの例を示す。SubWidthC、SubHeightCは、色差画素に対する輝度画素のサンプリング比である。
(a)対象画素(x,y)と右隣接画素(x+1, y)
predSamples[x][y] =(a0*refSamples[x*SubWidthC][y*SubHeightC]+a1*refSamples[x*SubWidthC+1][y*SubHeightC])>>shiftA)+b
(b)対象画素(x,y)と下隣接画素(x, y+1)
predSamples[x][y] =(a0*refSamples[x*SubWidthC][y*SubHeightC]+a1*refSamples[x*SubWidthC][y*SubHeightC+1])>>shiftA)+b
(c)対象画素(x,y)と左隣接画素(x-1, y)
predSamples[x][y] =(a0*refSamples[x*SubWidthC][y*SubHeightC]+a1*refSamples[x*SubWidthC-1][y*SubHeightC])>>shiftA)+b
(d)対象画素(x,y)と上隣接画素(x, y-1)
predSamples[x][y] =(a0*refSamples[x*SubWidthC][y*SubHeightC]+a1*refSamples[x*SubWidthC][y*SubHeightC-1])>>shiftA)+b
シミュレーションでは(a)の構成が最も高い精度の予測画像を生成する頻度が高かった
。従って、本構成のCCLM予測フィルタ部310443は、少なくとも隣接画素位置(dX,dY)=(1,0)をもつ(a)の構成でCCLM予測パラメータを導出し、CCLMフィルタ処理を行う。
また、CCLM予測パラメータ導出部310442は、隣接ブロック(例えば対象ブロックの左、上、右上)の参照領域に含まれる参照画素pRefY(x,y)とその隣接画素pRefY(x+dX,y+dY)を用いて以下の一時参照配列refX[][]、refY[]を導出する。ここではバイアス項を最後の項としているが最初の項としてもよい。
for ((x,y) in 参照領域) {
refX[0][cnt]=pRefY[x][y]
refX[1][cnt]=pRefY[x+dX][y+dY]
refX[2][cnt]=1
refY[cnt] = pRefC[x/SubWidthC][y/SubHeightC]
cnt=cnt+1
}
ここで(x,y)、(dX,dY)は輝度の座標であり、x=-3..-1、y=0..cbHeight-1及びx=-0..cbWidth-1、y=-1..-3、(dX,dY)=(1,0)、(0,1)、(-1,0)、(0,-1)の何れか。
参照領域の(x,y)に関して繰り返しrefX,refYを設定し、繰り返すたびにcntを1だけインクリメントする。
CCLM予測パラメータ導出部310442は、参照画像pRefY、pRefCから以下の行列sumXXとベ
クトルsumXYを導出する。
for (i=0; i<3; i++) {
for (j=0; j<3;j++) {
sumXX[i][j] = ΣrefX[i][cnt]*refX[j][cnt]
sumXY[i] = ΣrefX[i][cnt]*refY[cnt]
}
}
ここでΣはcntに関する和を表わす。なお、refX[][]、refY[]を用いず、pRefY、pRefCか
ら直接sumXX、sumXYを導出してもよい。
sumXX[i][j] = sumXY[j] = 0、i=0..2,j=0..2
for ((x,y) in 参照領域) {
sumXX[0][0] = sumXY[0][0] + pRefY[x][y]*pRefY[x][y]
sumXX[0][1] = sumXX[0][1] + pRefY[x][y]*pRefY[x+dX][y+dY]
sumXX[1][1] = sumXY[1][1] + pRefY[x+dX][y+dY]* pRefY[x+dX][y+dY]
sumXX[0][2] = sumXY[0][2] + pRefY[x][y]
sumXX[1][2] = sumXX[1][2] + pRefY[x+dX][y+dY]
sumXX[2][2] = sumXY[2][2] + 1
sumXY[0] = sumXY[0] + pRefY[x][y]*pRefC[x/SubWidthC][y/SubHeightC]
sumXY[1] = sumXY[1] + pRefY[x+dX][y+dY]*pRefC[x/SubWidthC][y/SubHeightC]
sumXY[2] = sumXY[2] + pRefC[x/SubWidthC][y/SubHeightC]
}
sumXX[1][0] = sumXX[0][1]
sumXX[2][1] = sumXX[1][2]
さらに正則化項を対角成分に加算する
sumXX[i][i] = sumXX[i][i] + (1<<(bitDepth-1))
CCLM予測パラメータ導出部310442は、cparam=sumXY*inverse(sumXX)に相当する線形演
算によりcparam[k]、k=0..2を導出する。ここでinverse(X)はXの逆行列。
a0 = cparam[0]
a1 = cparam[1]
b = cparam[2]
対象ブロックの色差画素に対応する輝度の対象画素とその隣接画素とCCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、イントラパラメータ導出部304は、輝度から色差を予測するCCLM予測を行うかを示すcclm_mode_flagを復号する
。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、2つの輝度画素を用いて輝度色差予測を行うかを示すフラグcccm_mode_flagを復号する。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、CCLM予測部は、輝度画像を用いて色差画像の予測画像を生成する。このとき、CCLM予測パラメータ導出部310442は、対象ブロックに隣接する輝度の参照領域の参照画素pRef[x][y]と上記参照画素の隣接画素pRef[x+dX][y+dY]を用いて、第1の重みa0、第2の重みa1、第1のオフセット値bからなるCCLM予測パラメータを導出する。さらに、CCLM予測予測フィルタ部310443は、輝度の参照画素refSamples[x][y]と第1の重みa0の積と、上記輝度の隣接画素prefSamples[x+dX][y+dY]と第2の重みa1の積と、第1のオフセット値bの和から、色差の予測画素predSamplesの画素値を導出する。
ここで、参照画像および対象画像における隣接画素の位置は対象画素(x,y)の右の画素
(x+1, y)であることを特徴とする。
上記によれば、参照画素と隣接画素とバイアスのみを利用することで、計算量を低減しながら高品質な予測画像を得ることができる。
<3パラメータ構成の例2>
イントラ予測パラメータ導出部304は、cclm_mode_flagがCCLM予測を行うことを示す値
(ここでは1)の場合、さらに対象画素に対して隣接画素の位置を示すインデックスcclm_nei_idxを復号する。cclm_nei_idxにより隣接画素を選択する。
cclm_nei_idxが0の場合、(dX,dY) = (1,0)
cclm_nei_idxが1の場合、(dX,dY) = (0,1)
つまり、参照画素に対する相対位置(dX,dY)の隣接画素を用いて、CCLM予測パラメータを
導出する。CCLM予測予測フィルタ部310443は、輝度参照画素と相対位置(dX,dY)の隣接輝
度画素を用いて色差画素を予測する。(dX,dY)の位置として必ず、参照画素の右(dX,dY)=(1,0)を含む。
上記によれば、参照画素と隣接画素とバイアスのみを利用し計算量を低減しながら高品質な予測画像を生成可能とする効果を奏する。
選択肢は2個に限定されず、参照画素の上下左右の4つでもよい。cclm_nei_idxにより隣接画素を選択する。
cclm_nei_idxが0の場合、(dX,dY) = (1,0)
cclm_nei_idxが1の場合、(dX,dY) = (0,1)
cclm_nei_idxが2の場合、(dX,dY) = (-1,0)
cclm_nei_idxが3の場合、(dX,dY) = (0,-1)
上記によれば、参照画素と隣接画素とバイアスのみを利用し計算量を低減しながら好適な予測画像を生成可能とする効果を奏する。
上記CCLM予測パラメータ導出部は、上記インデックスに関わらずCCLM予測パラメータの数を固定とし、上記インデックスに応じて上記参照画素の隣接画素の位置を切り替えて上記CCLM予測パラメータを導出し、CCLMフィルタ部は、復号したインデックスに応じて上記隣接画素を切り替えて予測画像を導出する。
マルチモデル(MMLM)の輝度色差予測と、マルチパラメータ(CCCM)の輝度色差予測を併用すると、上記行列に関連するマルチパラメータの導出処理を、マルチモデルのモデルの個数だけ必要になり計算量が増加する。以下、両者を同時に用いない排他構成の例を幾つか説明する。
<排他構成の例1>
図14は、本発明の一実施形態に係るシンタックス構成を示す図である。図(a)に示すよ
うに、イントラ予測パラメータ導出部304は、輝度から色差を予測するCCLM予測を行うか
を示すcclm_mode_flagを復号する。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、複数のモデル(CCCM予測パラメータ)を導出して、CCLM予測を行うかを示すフラグmmlm_mode_flagを復号する。mmlm_mode_flagが複数モデルを用いないことを示す値(ここでは0)の場合(mmlm_mode_flag==0)、複数の輝度画素を用いて輝度色差予測
(CCCMモード)を行うかを示すフラグcccm_mode_flagを復号する。cccm_mode_flagが現れない場合(MMLMモードの場合)、cccm_mode_flagを、複数対象画像を用いないことを示す値(ここでは0)として導出する。CCCMモードでは予測画素を生成するフィルタに必要なパラメータ数が大きくなる。
さらに、イントラ予測パラメータ導出部304は、参照画素の位置を示すインデックスcclm_ref_idxを復号してもよい。図(b)に、IntraPredModeCと、各フラグ、インデックスの関係を示す。cclm_ref_idxが0の場合、参照画素は対象ブロックの上および左の領域に位置する。cclm_ref_idxが1の場合、参照画素は対象ブロックの左の領域に位置する。cclm_ref_idxが2の場合、参照画素は対象ブロックの上の領域に位置する。
ここで"-"は、当該シンタックス要素cccm_mode_flagを復号しないことを示し、"-"の場合には、cccm_mode_flag=0と推定(infer)する。
本構成によれば、複数のモデル(マルチモデル)を用いる場合に、複数輝度画素を用いて色差画素を予測するか否かを示すフラグ(cccm_mode_flag)を復号せずに0と推定する。つまり、MMLMモードとCCCMモードを排他とすることができる。従って、複数のモデル各々においてCCLM予測パラメータを複数導出するような複雑な処理を避けることができ性能を維持しながら複雑度低減効果を奏する。
<排他構成の例2>
図15は、本発明の一実施形態に係るシンタックス構成を示す図である。本発明の一実施形態に係るシンタックス構成を示す図である。図(a)に示すように、イントラ予測パラメ
ータ導出部304は輝度から色差を予測するCCLM予測を行うかを示すcclm_mode_flagを復号
する。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、複数の輝度画素を用いて輝度色差予測のフィルタリングを行うかを示すフラグcccm_mode_flagを復号する。複数参照画素を用いない場合(cccm_mode_flag==0)、複数のモデル(CCCM予測パ
ラメータ)を導出して、CCLM予測を行うかを示すフラグmmlm_mode_flagを復号する。mmlm_mode_flagが現れない場合には、mmlm_mode_flagを、マルチモデルを用いないことを示す0として導出する。
さらに、イントラ予測パラメータ導出部304は、参照画素の位置を示すインデックスcclm_ref_idxを復号してもよい。図(b)に、IntraPredModeCと、各フラグ、インデックスの関係を示す。cclm_ref_idxが0の場合、参照画素は対象ブロックの上および左の領域に位置する。cclm_ref_idxが1の場合、参照画素は対象ブロックの左の領域に位置する。cclm_ref_idxが2の場合、参照画素は対象ブロックの上の領域に位置する。ここで"-"は、当該シンタックス要素mmlm_mode_flagを復号しないことを示し、"-"の場合には、mmlm_mode_flag=0と推定(infer)する。
本構成によれば、色差を予測するためのフィルタで複数参照画素を参照する場合(CCCMモード)、マルチモデル(MMLMモード)を示すフラグを復号せずに0と推定する。つまり、MMLMモードとCCCMモードを排他とすることができる。従って、パラメータ数が大きいCCCMモードのCCLM予測パラメータを複数のモデルの各々に置いて導出するような複雑な処理を避けることができ性能を維持しながら複雑度低減効果を奏する。
<排他構成の例3>
図16は、本発明の一実施形態に係るシンタックス構成を示す図である。図(a)に示すよ
うに、イントラ予測パラメータ導出部304は、輝度から色差を予測するCCLM予測を行うか
を示すcclm_mode_flagを復号する。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、MMLM予測を行うか否か、および、CCLM予測の参照画素を示すインデックスcclm_mode_idxを復号する。MMLM予測は複数のモデル(CCCM予測パラメータ)を用いたCCLM予測である。CCCM予測では色差画素を予測するために複数の輝度の参照画素を用いて
フィルタリングする。cclm_mode_idxが0、2、3の場合、CCLM予測はMMLMモードではなく、参照画素は各々、対象ブロックの上および左の領域、左の領域、上の領域に位置する。cclm_mode_idxが1、4、5の場合、CCLM予測はMMLMモードであって、参照画素は各々、対象ブロックの上および左の領域、左の領域、上の領域に位置する。
cclm_mode_idxが、マルチモデルを用いないことを示す値(特定の値、図16では0,2,3)の何れかである場合(IsMMLM(cclm_mode_idx)==0)、cccm_mode_flagを復号する。cccm_mode_flagは複数の輝度画素を用いて輝度色差予測画素をフィルタリングするかを示すフラグである。cccm_mode_flagが現れない場合には、cccm_mode_flagを、複数対象画像を用いないことを示す値(0)として導出する。ここで、IsMMLMは、cclm_mode_idxがINTRA_LT_MMLM(例えば1)、INTRA_L_MMLM(例えば4)、INTRA_T_MMLM(例えば5)の何れかであれば1(TRUE)、そうでなければ0(FALSE)である。IsMMLM(cclm_mode_idx)= (cclm_mode_idx==1)+( cclm_mode_idx==4)+(cclm_mode_idx==5)であってもよい。ここで"+"は論理和"|"でもよい。図(b)に、IntraPredModeCと、各フラグ、インデックスの関係を示す。ここで"-"は、当該シンタックス要素cccm_mode_flagを復号しないことを示し、"-"の場合には、cccm_mode_flag=0と推定(infer)する。
本構成によれば、複数のモデル(マルチモデル)を用いる場合に、色差を予測するためのフィルタで複数参照画素を使うか否かを示すフラグを復号せずに0と推定する。つまり、MMLMモードとCCCMモードを排他とする。従って、複数のモデル各々において、CCCMモードのCCLM予測パラメータを複数導出するような複雑な処理を避けることができ性能を維持しながら複雑度低減効果を奏する。
<排他構成の例4>
図17は、本発明の一実施形態に係るシンタックス構成を示す図である。(a)に示すよう
に、イントラ予測パラメータ導出部304は、輝度から色差を予測するCCLM予測を行うかを
示すcclm_mode_flagを復号する。cclm_mode_flagがCCLM予測を行うことを示す値(ここでは1)の場合、複数の輝度画素を用いて色差画素の輝度色差予測のフィルタリングを行うかを示すcccm_mode_flagを復号する。さらにMMLMモードか否か、および、CCLM予測の参照画素位置を示すインデックスcclm_mode_idxを復号する。MMLMモードは複数のモデル(CCCM予測パラメータ)を用いてCCLM予測を行うモードである。cclm_mode_idxの値は<排他構成の例3>で説明した通りである。
ここではcccm_mode_flagの値に応じて、cclm_mode_idxの最大値cMaxを変更する。cMax
は入力値が所定の範囲内である時の最大値である。cccm_mode_flag==0の場合には、MMLM
モードが利用可能なようにcMax=5を設定し、最大値cMaxのトランケーティドバイナリ( TB、Truncated Binary)を用いて、cclm_mode_idxを復号する。cccm_mode_flag==1の場合
には、MMMLMモードが利用できないようにcMax=2(cccm_mode_flag==0の場合より小さい値)を設定し、cMaxのTBを用いて、cclm_mode_idxを復号する。TBではなく同じcMaxのトランケーティドライスバイナリ(TR)を用いてもよい。
図(b)に、IntraPredModeCと、各フラグ、インデックスの関係を示す。上述の通り、ccc
m_mode_flag=1の場合に、cccm_mode_idxの値域を制限し小さなcMaxを設定することで、CCLMモードにおいてマルチモードを選択しないようにする。
本構成によれば、複数のモデル(マルチモデル)を用いる場合に、CCCMモードを使うか否かを示すフラグを復号せずに0と推定する。つまり、MMLMモードとCCCMモードを排他とすることができる。従って、複数のモデル各々において、CCCMモードのCCLM予測パラメータを複数導出するような複雑な処理を避けることができ性能を維持しながら複雑度低減効果を奏する。
さらに、<排他構成の例1>から<排他構成の例4>において、<3パラメータ構成の例1>に記載したcclm_nei_idxをさらにシグナルする構成としてもよい。cclm_nei_idxは対象画素に対して隣接画素の位置を示すインデックスである。図14(a)から図17(a)において、cccm_mode_flagがCCCM予測を示す(本願では1)場合、cclm_nei_idxがシグナルされ
る。そうでない場合、cclm_nei_idxはシグナルされず、cclm_nei_idx=0と推定する。
if (cccm_mode_flag) {
cclm_nei_idx
}
<排他構成の動作例>
図18は、本発明の一実施形態に係るCCLM予測部の動作を示すフローチャートである。
(S3501) イントラ予測パラメータ導出部304は、符号化データからcclm_mode_flagを復号する。
(S3502) CCLM予測を用いる場合にはS3503に遷移する。それ以外の場合にはイントラ予測部3104はCCLM予測以外の予測を行う。
(S3503) イントラ予測パラメータ導出部304は、符号化データのCU情報から、CCLM予測の種別に関する情報を導出する。例えば図14~図17のmmlm_mode_flag、cclm_mode_idxを復
号し、対象ブロックがMMLMモードか、CCCMモードか、それ以外のモードか、あるいは参照位置、隣接画素の位置等を導出する。
(S3504) CCLM予測の種別に関する情報がマルチモデルを利用しないことを示す場合には
、S3507に遷移し3パラメータ以上のCCCM予測を利用する。、逆にマルチモードを利用する場合には2パラメータのCCCM予測を利用する。
(S3506) イントラ予測部3104はCCCM予測を行わない。つまり3以上のパラメータ数から
なるCCLM予測パラメータを利用した輝度色差予測を行わず、輝度画素への重み係数とバイアスの2パラメータを導出し、2パラメータを利用した輝度色差予測を行う。例えば、(MMLM-1)の式で予測を行う。
(S3507) イントラ予測部3104はCCCM予測を行う。3以上のパラメータ数からなるCCLM予
測パラメータを導出し、3パラメータ以上のCCLM予測パラメータを利用した輝度色差予測
を行う。例えば、(CCCM-1), (CCCM-2)の式で予測を行う。
上記構成によれば、輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、輝度画素値に応じてグループに分類し、上記グループごとに複数のCCLM予測パラメータを導出可能なCCLM予測パラメータ導出部と、輝度参照画像と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部310443とを備え、上記CCLM予測パラメータ導出部は、輝度画像の画素値に応じて2つ以上のグループに分割するか否かに応じて、CCLM予測のパラメータ数を変更する。さらにCCLM予測パラメータ導出部310442は、輝度画像の画素値に応じて2つ以上のグループに分類する場合に2パラメータのCCLM予測のパラメータ数を用いてCCLM予測パラメータを導出し、それ以外、1つのグループを用いる場合に、3パラメータのCCLM予測のパラメータ数を用いてパラメータ数を導出する。さらに、3パラメータのCCLM予測を行うかを示すCCLMフラグと2パラメータのCCLM予測を行うかを示すCCLMフラグを符号化データから復号するパラメータ復号部302と、CCLM予測部を備える動画像復号装置であって、上記CCLMフラグが1の場合には、1つのCCLM予測パラメータを導出し、それ以外の場合に2つ以上のCCLM予測パラメータを導出する。
図19は、本発明の一実施形態に係るCCLM予測部の動作を示すフローチャートである。
(S3501)~(S3503) 図18を利用してすでに説明済みなので説明を省略する。
(S3504) CCLM予測の種別に関する情報がマルチモデルを利用することを示す場合には、S3506に遷移しCCCM予測を利用しない。逆にマルチモデルを利用しない場合にはS3505に遷
移する。
(S3505) 対象ブロックのサイズが所定のサイズよりも小さい場合、例えばcbWidth*cbHeight<THの場合、S3506に遷移しCCCM予測を利用せず2パラメータのマルチモデルの予測を
利用する。対象ブロックのサイズが所定のサイズ以上の場合、S3507に遷移しCCCM予測を
利用し3パラメータ以上のCCLM予測を行う。上記は、cccm_mode_flagを利用して以下のように導出してもよい。
cccm_mode_flag = ((cbWidth * cbHeight) >= TH ? 1 : 0) && cclm_mode_flag
(S3506)~(S3507) 図18を利用してすでに説明済みなので説明を省略する。
上記の構成によれば、ブロックサイズに応じて、符号化データからシンタックスを復号せずに、CCCMモードを利用するか否かを選択するため、性能を維持しながら複雑度低減効果を奏する。
以下では、CCLM予測について説明する。図では、輝度画像の対象ブロックおよび隣接ブロックを、pY[][]とpRefY[][]で表す。対象ブロックは幅bW、高さbHである。
CCLM予測部31044(未フィルタ参照画像設定部3102)は、図9(a)~(c)の輝度隣接画像pRefY[][]および図9(e)の色差隣接画像pRefC[][]を参照領域として用いてCCLM予測パラメータを導出する。CCLM予測部31044は、輝度対象画像pRef[]を用いて、色差の予測画像を導出する。
CCLM予測部31044は、IntraPredModeCがINTRA_LT_CCLM、INTRA_LT_MMLM、INTRA_LT_CCCM_SINGLEの場合、(a)に示すように対象ブロックの上および左隣接ブロックの画素値を用いてCCLM予測パラメータを導出する。IntraPredModeCが82(INTRA_L_CCLM、INTRA_L_MMLM、INTRA_L_CCCM_SINGLEの場合、(b)に示すように左隣接ブロックの画素値を用いてCCLM予測パラメータを導出する。IntraPredModeCが83(INTRA_T_CCLM、INTRA_T_MMLM、INTRA_T_CCCM_SINGLEの場合、(c)に示すように上隣接ブロックの画素値を用いてCCLM予測パラメータを導出する。各領域のサイズは以下でもよい。(a)では、対象ブロックの上側は幅bW、高さrefH(refH>1)であり、対象ブロックの左側は高さbH、幅refW(refW>1)である。(b)では高さは2*bH、幅はrefWである。(c)では幅は2*bWであり、高さrefHである。ダウンサンプリング処理を実施するため、refW、refHはダウンサンプリングフィルタのタップ数に合わせて1より大きい値に設定してもよい。また、(e)では色差画像(Cb、Cr)の対象ブロックおよび隣接ブロックを、pC[][]とpRefC[][]で表す。対象ブロックは幅bWC、高さbHCである。
(CCLM予測部)
CCLM予測部31044について図8に基づいて説明する。図8は、CCLM予測部31044の構成の一例を示したブロック図である。CCLM予測部31044には、ダウンサンプリング部310441とCCLM予測パラメータ導出部(パラメータ導出部)310442と、CCLM予測フィルタ部310443とが含まれている。
ダウンサンプリング部310441は、色差画像のサイズに合わせるためにpRefY[][]およびp
Y[][]をダウンサンプリングする。色差フォーマットが4:2:0の場合、pRefY[][]とpY[][]
の水平、垂直方向の画素数を2:1にサンプリングし、結果を図9(d)のpRefDsY[][]、pDsY[][]に格納する。なお、bW/2、bH/2は各々bWC、bHCと等しい。色差フォーマットが4:2:2の
場合、pRefY[][]とpY[][]の水平方向の画素数を2:1にサンプリングし、結果をpRefDsY[][]、pDsY[][]に格納する。色差フォーマットが4:4:4の場合、サンプリングを実施せず、pRefY[][]とpY[][]をpRefDsY[][]、pDsY[][]に格納する。サンプリングの一例を下式で示す。
pDsY[x][y] = (pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3
pRefDsY[x][y] = (pRefY[2*x-1][2*y]+pRefY[2*x-1][2*y+1]+2*pRefY[2*x][2*y]+2*pRefY[2*x][2*y+1]+pRefY[2*x+1][2*y]+pRefY[2*x+1][2*y+1]+4)>>3
CCLM予測フィルタ部310443は、cccm_mode_flag==0の場合、1点の参照画素refSamples[x][y]を入力信号とし、CCLM予測パラメータ(a,b)を用いて予測画像predSamples[x][y]
を出力する。
predSamples[x][y] = ((a*refSamples[x][y])>>shiftA)+b (CCLM-1)
ここで、refSamplesは図9(d)のpDsYであり、(a,b)はCCLM予測パラメータ導出部310442で
導出されたCCLM予測パラメータであり、predSamples[][]は色差予測画像(図9(e)のpC)
である。なお、(a,b)はCb、Cr用に各々導出される。また、shiftAはa値の精度を示す正規化シフト数であり、小数精度の傾きをafとおくとa = af << shiftAである。例えばshiftA=16。
(マルチ隣接)
CCLM予測フィルタ部310443は、cccm_mode_flag==1の場合、参照画像refSamples[x][y]
とその隣接画素refSamples[x+dX][y+dY]を入力信号とし、CCLM予測パラメータ(a,b)を
用いて予測画像predSamples[x][y]を出力する。(dX,dY)は例えば(-1,0),(1,0),(0,-1),(0,1)など
predSamples[x][y] =((a0*refSamples[x][y]+Σak*refSamples[x+dXk][y+dYk])>>shiftA)+b (CCCM-1)
ここで、Σはkに関する和、で、k=1、(dX1,dY1)= (-1,0),(1,0),(0,-1),(0,1)の何れか、であってもよい。
さらに、隣接画素の重み係数akは複数のパラメータでもよい。
例えば、k=1..2、(dX1,dY1)= (1,0), (dX2,dY2)= (0,1)であってもよい。書き下すと、下式で表せる。
predSamples[x][y] =((a0*refSamples[x][y]+a1*refSamples[x+1][y]+a2*refSamples[x][y+1])>>shiftA)+b (CCCM-1)
また、色差の予測画像predSamplesの生成に置いて、cclm_mode_flag==0の場合にはダウンサンプル後の輝度画像を使い、cccm_mode_flag==1の場合には、ダウンサンプル前の輝
度画像を用いてもよい。例えば、cccm_mode_flag==1の場合、predSamplesを下式のように導出してもよい。
predSamples[x][y] =(a0*refSamples[x*SubWidthC][y*SubHeightC]+Σak*refSamples[x*SubWidthC+dXk][y*SubHeightC+dYk])>>shiftA)+b (CCCM-2)
符号化データ中のシンタックス要素sps_chroma_format_idcに応じて次のように導出して
もよい。
sps_chroma_format_idc=0(Monocrome)のとき、SubWidthC=1、SubHeightC=1
sps_chroma_format_idc=1(4:2:0)のとき、SubWidthC=2、SubHeightC=2
sps_chroma_format_idc=2(4:2:2)のとき、SubWidthC=2、SubHeightC=1
sps_chroma_format_idc=3(4:4:4)のとき、SubWidthC=1、SubHeightC=1
さらに、マルチモデルを用いてフィルタ処理を行ってもよい。
(マルチモデル)
IntraPredModeC==INTRA_LT_MMLM、INTRA_L_MMLM、INTRA_T_MMLM(マルチモード)の場
合、輝度信号の大きさで輝度信号を分類し、分類に応じて複数のCCLM予測パラメータを導出し、この予測パラメータに応じて予測画像の導出を行ってもよい。例えばある閾値thValを用い、以下のようにrefSamplesの大きさに応じて画素をmodeIdに分類する。そして、modeIdに応じて、定まるCCLM予測パラメータa[modelId]、b[modelId]を用いてフィルタ処理を行う。
if (refSamples[x][y] > thVal)
modelId=0
else
modelId=1
predSamples[x][y] =((a0[modeId]*refSamples[x][y])>>shiftA)+b (MMLM-1)
(マルチモデルかつマルチ隣接)
IntraPredModeC==INTRA_LT_MMLM_CM _CCCM、INTRA_L_MMLM、INTRA_T_MMLM_CCCMの場合
、つまり。、MMLMとCCCMを併用する場合には以下の処理を行う。
predSamples[x][y] =((a0[modelId]*refSamples[x][y]+ Σak[modelId]*refSamples[x+1][y])>>shiftA)+b (CCCM-1)
なお、上述の排他構成ではこの構成は用いない。
図8(b)に示すようにCCLM予測フィルタ部310443は、線形予測部310444を備えている。線形予測部310444は、refSamples[][]を入力信号とし、CCLM予測パラメータ(a,b)を用い
てpredSamples[][]を出力する。
より詳細には、線形予測部310444は、CCLM予測パラメータ(a,b)を用いた下記の式によ
り輝度Yから色差CbまたはCrを導出し、これを用いてpredSamples[][]を出力する。
Cb(またはCr)=aY+b
CCLM予測パラメータ導出部310442は、輝度のダウンサンプリングされた隣接ブロックpRefY(図9(d)のpRefDsY[][])と色差の隣接ブロックpRefC[][](図9(e)のpRefC[][])を入力信号としてCCLM予測パラメータを導出する。CCLM予測パラメータ導出部310442は、導出したCCLM予測パラメータ(a, b)をCCLM予測フィルタ部310443に出力する。
(CCLM予測パラメータ導出部)
CCLM予測パラメータ導出部310442は、2パラメータ(cccm_mode_flag==0の場合、IntraPredModeC = INTRA_LT_CCLM, INTRA_L_CCLM, INTRA_T_CCLM, INTRA_LT_MMLM, INTRA_L_MMLM, INTRA_T_MMLMの何れか)の場合、対象ブロックの予測ブロックpredSamples[][]を参照ブロックrefSamples[][]から線形予測する場合のCCLM予測パラメータ(a,b)を導出する。
CCLM予測パラメータ(a,b)の導出において、CCLM予測パラメータ導出部310442は、隣接
ブロック(輝度値Y,色差値C)の組から輝度値Yが最大(Y_MAX)となる点(x1,y1)と最小(Y_MIN)となる点(x2,y2)を導出する。次にpRefDsY上の(x1,y1)、(x2,y2)に対応するpRefC上の(x1,y1)、(x2,y2)の画素値を各々C_MAX(あるいはC_Y_MAX)、C_MIN(あるいはC_Y_MIN)とする。そして、図10(a)に示すように、YとCをそれぞれx,y軸にとったグラフ上で(Y_MAX,C_MAX)と(Y_MIN,C_MIN)を結ぶ直線を求める。この直線のCCLM予測パラメータ(a,b)は以下の式で導出できる。
a=(C_MAX-C_MIN)/(Y_MAX-Y_MIN)
b= C_MIN-(a*Y_MIN)
この(a,b)を使用する場合、式(CCLM-1)のshiftA=0である。
ここで、色差がCbの場合は(C_MAX,C_MIN)はCbの隣接ブロックpRefCb[][]の(x1,y1)、(x2,y2)の画素値であり、色差がCrの場合は(C_MAX,C_MIN)はCrの隣接ブロックpRefCr[][]の(x1,y1)、(x2,y2)の画素値である。
CCLM予測パラメータ導出部310442は、輝度の差分値diffと色差の差分値diffCから、逆
数テーブルdivSigTableを利用して、CCLM予測パラメータのaとbおよびshiftAを導出する
diff = maxY - minY
diff !=0の場合、
diffC = maxC ? minC
x = Floor(Log2(diff))
normDiff = ((diff << 4) >> x) & 15
x += (normDiff!=0) ? 1 : 0
y = Abs(diffC)>0 ? Floor(Log2(Abs(diffC))) + 1 : 0
a = (diffC * (divSigTable[normDiff] | 8) + 2 * y ? 1) >> y
shiftA = ((3 + x ? y) < 1) ? 1 : 3 + x ? y
a = ((3 + x ? y ) < 1) ? Sign(a) * 15 : a
b = minC ? ((a * minY) >> k)
divSigTable[ ] = { 0, 7, 6, 5, 5, 4, 4, 3, 3, 2, 2, 1, 1, 1, 1, 0 }
diff ==0の場合、
shiftA = 0
a = 0
b = minC
CCLM予測パラメータ導出部310442は、3パラメータ以上(cccm_mode_flag==1の場合、IntraPredModeC = INTRA_LT_CCCM_SINGLE, INTRA_L_CCCM_SINGLE, INTRA_T_CCCM_SINGLEの何れか)の場合、N個の要素からなるCCLM予測パラメータ(a0, a1, …aN-2, b)を導出しても
よい。
CCLM予測パラメータ導出部310442は、参照画像pRefY、pRefCから以下の一時参照配列refX[][]、refY[]を導出する。
refX[0][cnt]=pRefY[x][y]
refX[1][cnt]=pRefY[x+dX1][y+dY1]
refX[2][cnt]=pRefY[x+dX2][y+dY2]

refX[N-2][cnt]=pRefY[x+dXN-2][y+dYN-2]
refX[N-1][cnt]=1
refY[cnt] = pRefC[x/SubWidthC][y/SubHeightC]
cnt=cnt+1
上記は対象ブロックの参照領域の(x,y)に関して繰り返し処理を行い、繰り返すたびにcntを1だけインクリメントする。
CCLM予測パラメータ導出部310442は、参照画像pRefY、pRefCから以下の行列sumXXとベ
クトルsumXYを導出する。
sumXX[i][j] = ΣrefX[i][cnt]*refX[j][cnt]
sumXY[i] = ΣrefX[i][cnt]*refY[cnt]
ここでΣはcntに関する和。なお、refX[][]、refY[]を用いず、pRefY、pRefCから直接sumXX、sumXYに加算することにより導出してもよい。
さらに正則化項を対角成分に加算する
sumXX[i][i] = sumXX[i][i] + (1<<(bitDepth-1))
CCLM予測パラメータ導出部310442は、cparam=sumXY*inverse(sumXX)に相当する線形演
算によりcparam[k]、k=0..N-1を導出する。ここでinverse(X)はXの逆行列。Nはパラメー
タ数、ここではN>=3。隣接画素の数+1。
a0 = cparam[0]
a1 = cparam[2]

b = cparam[N-1]
(MMLMの場合のCCLM予測パラメータ導出)
MMLMの場合には、対象ブロックに対して複数のCCLM予測パラメータを導出する。そして、図10(b)に示すように、YとCをそれぞれx,y軸にとったグラフ上で(Y_MAX,C_MAX)と(Y_MIN,C_MIN)を結ぶ直線を求める。ただし、図10(a)と異なり、輝度色差モデルは複数あり、モデル毎に(Y_MAX,C_MAX)と(Y_MIN,C_MIN)を結ぶ直線を求める。ここでは参照領域の輝度値に応じて分類し、modelIdを導出する。
if (pRefY[x][y] > thVal)
modelId=0
else
modelId=1
ここでthValは、分類を行うための閾値であり、対象ブロックの輝度値の平均値(もしく
はダウンサンプリングした輝度値の平均値、参照領域からサンプリングした輝度値の平均値)を利用してもよい。
modelIdの値ごとに、上述の方法でrefX[modelId][N][cnt]、refY[modelId][N][cnt]を
導出、sumXX[modelId][i][i]、sumXX[modelId][i][i]を導出し、CCLM予測パラメータを導出してもよい。
a0[modelId] = cparam[0]
a1[modelId] = cparam[1]

b[modelId] = cparam[N-1]
(ハードウェア的実現およびソフトウェア的実現)
また、上述した動画像復号装置31および動画像符号化装置11の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU
(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記
プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random
Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の実施形態の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログ
ラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM(Compact Disc Read-Only Memory)/MOディスク(Magneto-Optical disc)/MD(Mini Disc)/DVD(Digital Versatile Disc:登録商標)/CD-R(CD Recordable)/ブルーレイディスク(Blu-ray Disc:登録商標)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-Only Memory)/EEPROM(Electrically Erasable and Programmable Read-Only Memory:登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna television/Cable Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、BlueTooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance:登録商標)、携帯電話網、衛星回線、地上デジタル放送網等の無線でも利用可能である。なお、本発明の実施形態は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明の実施形態は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
31 画像復号装置
301 エントロピー復号部
302 パラメータ復号部
303 インター予測パラメータ導出部
304 イントラ予測パラメータ導出部
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
3104 予測部(イントラ予測部)
31044 CCLM予測部(予測画像生成装置)
310441 ダウンサンプリング部
310442 CCLM予測パラメータ導出部(パラメータ導出部)
310443 CCLM予測フィルタ部
311 逆量子化・逆変換部
312 加算部
320 予測パラメータ導出部
11 画像符号化装置
101 予測画像生成部
102 減算部
103 変換・量子化部
104 エントロピー符号化部
105 逆量子化・逆変換部
107 ループフィルタ
110 符号化パラメータ決定部
111 パラメータ符号化部
112 インター予測パラメータ導出部
113 イントラ予測パラメータ導出部
120 予測パラメータ導出部

Claims (9)

  1. 輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、対象ブロックに隣接する参照領域の参照画素と上記参照画素の隣接画素を用いて、第1の重み、第2の重み、第1のオフセット値からなるCCLM予測パラメータを導出するCCLM予測パラメータ導出部と、
    対象ブロックの対象画素と対象画素の隣接画素の2つの輝度画素と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、
    上記CCLM予測予測フィルタ部は、対象画素と上記第1の重みの積と、上記対象画素の隣接画素と上記第2の重みの積と、上記第1のオフセット値の和から、予測画素の画素値を導出することを特徴とするCCLM予測部。
  2. 上記参照画像および対象画像における隣接画素の位置は対象画素(x, y)の右の画素(x+1, y)であることを特徴とする上記請求項1に記載のCCLM予測部。
  3. 上記請求項1に記載のCCLM予測部と隣接画素の位置を示すインデックスを符号化データから復号するパラメータ復号部と、を備える動画像復号装置であって、上記CCLM予測パラメータ導出部は、上記インデックスに関わらずCCLM予測パラメータの数を固定とし、上記インデックスに応じて上記参照画素の隣接画素の位置を切り替えて上記CCLM予測パラメータを導出し、上記CCLMフィルタ部は、上記インデックスに応じて上記隣接画素を切り替えて予測画像を導出することを特徴とする動画像復号装置。
  4. 上記請求項1に記載のCCLM予測部と隣接画素の位置を示すインデックスを符号化データから復号するパラメータ符号化部と、を備える動画像符号化装置であって、上記CCLM予測パラメータ導出部は、上記インデックスに関わらずCCLM予測パラメータの数を固定とし、上記インデックスに応じて上記参照画素の隣接画素の位置を切り替えて上記CCLM予測パラメータを導出し、上記CCLMフィルタ部は、上記インデックスに応じて上記隣接画素を切り替えて予測画像を導出することを特徴とする動画像符号化装置。
  5. 上記エントロピー復号部は、上記インデックスをシーケンスヘッダ、スライスヘッダ、CTUヘッダの何れかの符号化データから復号し、上記パラメータ復号部は、対象ブロック
    において、上記CCLM予測を行うかを示すフラグを符号化データから導出し、上記CCLMフィルタ部は、上記対象ブロックの予測画像を導出することを特徴とする動画像復号装置。
  6. 輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、3つ以上のパラメータをCCLM予測パラメータとして導出可能なCCLM予測パラメータ導出部と、
    輝度参照画像と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、
    上記CCLM予測パラメータ導出部は、上記導出するパラメータ数を変更することを特徴とするCCLM予測部。
  7. 輝度画像を用いて色差画像の予測画像を生成するCCLM予測部であって、
    輝度画素値に応じてグループに分類し、上記グループごとに複数のCCLM予測パラメータを導出可能なCCLM予測パラメータ導出部と、
    輝度参照画像と上記CCLM予測パラメータを用いて色差予測画像を生成するCCLM予測フィルタ部とを備え、
    上記CCLM予測パラメータ導出部は、輝度画像の画素値を2つ以上のグループに分類するか否かに応じて、上記CCLM予測のパラメータ数を変更することを特徴とするCCLM予測部。
  8. 上記CCLM予測パラメータ導出部は、輝度画像の画素値に応じて2つ以上のグループに分
    類する場合に2パラメータのCCLM予測のパラメータ数を用いてCCLM予測パラメータを導出し、それ以外、1つのグループを用いる場合に、3パラメータのCCLM予測のパラメータ数を用いてパラメータ数を導出することを特徴とする請求項7に記載のCCLM予測部
  9. 3パラメータのCCLM予測を行うかを示すCCLMフラグと2パラメータのCCLM予測を行うかを示すCCLMフラグを符号化データから復号するエントロピー復号部と、上記CCLM予測部を備える動画像復号装置であって、上記CCLMフラグが1の場合には、1つのCCLM予測パラメータを導出し、それ以外の場合に2つ以上のCCLM予測パラメータを導出することを特徴とする動画像復号装置。
    上記CCLMフラグが0の場合に、上記CCLMフラグを復号し、CCLMフラグが1の場合に、マルチパラメータ予測を行うかを示すMMLMフラグを符号化データから復号し、MMLMフラグが1の場合に2つのCCLM予測パラメータを導出し、MMLMフラグが0の場合に、1つのCCLM予測パラメータを導出する動画像復号装置。
JP2022107511A 2022-07-04 2022-07-04 予測画像生成装置、動画像復号装置、および動画像符号化装置 Pending JP2024006522A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022107511A JP2024006522A (ja) 2022-07-04 2022-07-04 予測画像生成装置、動画像復号装置、および動画像符号化装置
PCT/JP2023/024662 WO2024009962A1 (ja) 2022-07-04 2023-07-03 Cclm予測部、動画像復号装置、および動画像符号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022107511A JP2024006522A (ja) 2022-07-04 2022-07-04 予測画像生成装置、動画像復号装置、および動画像符号化装置

Publications (1)

Publication Number Publication Date
JP2024006522A true JP2024006522A (ja) 2024-01-17

Family

ID=89453371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022107511A Pending JP2024006522A (ja) 2022-07-04 2022-07-04 予測画像生成装置、動画像復号装置、および動画像符号化装置

Country Status (2)

Country Link
JP (1) JP2024006522A (ja)
WO (1) WO2024009962A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022024208A (ja) * 2018-12-07 2022-02-09 シャープ株式会社 動画像復号装置および動画像符号化装置
CN117834912A (zh) * 2018-12-20 2024-04-05 夏普株式会社 预测图像生成装置、运动图像解码装置、运动图像编码装置以及预测图像生成方法
CN116320454A (zh) * 2019-01-03 2023-06-23 华为技术有限公司 色度块的预测方法和装置

Also Published As

Publication number Publication date
WO2024009962A1 (ja) 2024-01-11

Similar Documents

Publication Publication Date Title
JP7402016B2 (ja) 画像復号装置及び画像符号化装置
JP7368145B2 (ja) 画像符号化装置、および、画像復号装置
JP7139144B2 (ja) 画像フィルタ装置
US11818363B2 (en) Video decoding apparatus and video coding apparatus
CN113196776A (zh) 预测图像生成装置、运动图像解码装置、运动图像编码装置以及预测图像生成方法
JP7461347B2 (ja) 画像復号装置、画像符号化装置、画像復号方法及び画像符号化方法
WO2020032049A1 (ja) 動画像復号装置、および動画像符号化装置
JPWO2020241858A5 (ja)
WO2020184366A1 (ja) 画像復号装置
WO2021246284A1 (ja) 動画像復号装置及び動画像符号化装置
WO2024009962A1 (ja) Cclm予測部、動画像復号装置、および動画像符号化装置
JP2021034848A (ja) 画像復号装置
JP7425568B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法および動画像符号化方法
JP2021034887A (ja) 画像復号装置及び画像符号化装置
JP7444570B2 (ja) 動画像復号装置、動画像符号化装置、動画像復号方法および動画像符号化方法
JP2020068462A (ja) 画像ビット階調拡張フィルタ装置及び画像符号化装置、画像復号装置
JP7397586B2 (ja) 画像復号装置及び画像符号化装置
WO2020045275A1 (ja) 画像復号装置および画像符号化装置
JP2023046435A (ja) 動画像復号装置および動画像符号化装置
JP2020195042A (ja) 動画像復号装置
JP2021013110A (ja) 画像復号装置および画像符号化装置
CN113170169A (zh) 预测图像生成装置、运动图像解码装置、运动图像编码装置以及预测图像生成方法
JP2020195012A (ja) 画像復号装置及び画像符号化装置
JP2020195013A (ja) 画像復号装置および画像符号化装置
JP2020205483A (ja) 画像復号装置および画像符号化装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221207