JP2020005258A - ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダー - Google Patents

ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダー Download PDF

Info

Publication number
JP2020005258A
JP2020005258A JP2019119378A JP2019119378A JP2020005258A JP 2020005258 A JP2020005258 A JP 2020005258A JP 2019119378 A JP2019119378 A JP 2019119378A JP 2019119378 A JP2019119378 A JP 2019119378A JP 2020005258 A JP2020005258 A JP 2020005258A
Authority
JP
Japan
Prior art keywords
group
value
target
target pixel
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019119378A
Other languages
English (en)
Inventor
シェンポー ワン
Sheng-Po Wang
シェンポー ワン
チュンルン リン
Chun-Lung Lin
チュンルン リン
チンチー リン
Ching-Chieh Lin
チンチー リン
チャンハオ ヤウ
Chang-Hao Yau
チャンハオ ヤウ
ポーハン リン
Po-Han Lin
ポーハン リン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from TW108121169A external-priority patent/TW202015409A/zh
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2020005258A publication Critical patent/JP2020005258A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】輝度値から色度値を効果的に予測するビデオ復号化方法を提供する。【解決手段】ビデオ復号化方法は、符号化値を受信することと、符号化値のインデックス値に従って、すなわち、複数の参照サンプルを収集するステップと、複数の参照サンプルをグループ化して、少なくとも1つのグループを生成するステップと、少なくとも1つのグループのモデルを確立するステップと、対象ブロックから対象ピクセルを取得するステップと、少なくとも1つのグループから対象グループを選択するステップと、対象ピクセルの輝度値を対象グループのモデルに導入して、対象ピクセルの色度値を予測するステップとを実行する。【選択図】図1

Description

本開示は、ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダーに関する。
ビデオデータの符号化効率を高めるために、H.264/アドバンストビデオ符号化(AVC)等の国際ビデオ符号化標準では、現在の符号化画像ブロック及び近傍の符号化された画像ブロックの空間的な情報冗長性を取り除くために、イントラ予測が導入されている。
非特許文献1には、YCbCr色空間が、H.264等のこれまでのビデオ符号化標準及び最新のビデオ符号化標準HEVCにおいて広く用いられていることが開示されている。RGBからYCbCrへの変換は、チャネル間冗長性を大幅に削減するが、Y、Cb及びCrの間には依然として幾つかの相関が存在する。チャネル間冗長性を削減するために、線形モデルを通じてクロマ成分を予測するのに再構築されたルマ(luma)成分が用いられるLMモードがHEVCに基づいて提案されている。モデルパラメーターは、再構築された因果関係のあるピクセルによって導出される。
「Improving chroma intra prediction for HEVC」2016 IEEE International Conference on Multimedia & Expo Workshops (ICMEW)
YCbCrの符号化フォーマットのビデオデータが符号化されるとき、符号化データの量が更に削減されるならば、符号化/復号化効率を高めることができる。
本開示の一例示の実施形態によれば、ビデオ復号化方法が提供され、当該方法は、符号化値を受信することと、符号化値のインデックス値に従って、以下のステップ、すなわち、複数の参照サンプル(reference sample)を収集するステップと、参照サンプルをグループ化して、少なくとも1つのグループを生成するステップと、少なくとも1つのグループのモデルを確立するステップと、対象ブロックから対象ピクセル(target pixel)を取得するステップと、対象ピクセルに従って少なくとも1つのグループから対象グループを選択するステップと、対象ピクセルの輝度値を対象グループのモデルに導入して、対象ピクセルの色度値を予測するステップとを実行することとを含む。
本開示の一例示の実施形態によれば、ビデオ符号化方法が提供され、当該方法は、複数の参照サンプルを収集することと、参照サンプルをグループ化して、少なくとも1つのグループを生成することと、少なくとも1つのグループのモデルを確立することと、対象ブロックから対象ピクセルを取得することと、対象ピクセルに従って、少なくとも1つのグループから対象グループを選択することと、対象ピクセルの輝度値を対象グループのモデルに導入して、対象ピクセルの色度値を予測することと、インデックス値を含む符号化値を生成することとを含む。
本開示の一例示の実施形態によれば、ビデオデコーダーが提供され、当該デコーダーは、当該ビデオデコーダーを制御するプロセッサと、複数の参照サンプル及び対象ブロックを記憶するメモリと、復号化モジュールと、符号化値を受信するインデックス受信モジュールとを備える。プロセッサ、メモリ、復号化モジュール及びインデックス受信モジュールは互いに結合されている。復号化モジュールは、符号化値のインデックス値に従って、以下のステップ、すなわち、複数の参照サンプルを収集するステップと、参照サンプルをグループ化して、少なくとも1つのグループを生成するステップと、少なくとも1つのグループのモデルを確立するステップと、対象ブロックから対象ピクセルを取得するステップと、対象ピクセルに従って少なくとも1つのグループから対象グループを選択するステップと、対象ピクセルの輝度値を対象グループのモデルに導入して、対象ピクセルの色度値を予測するステップとを実行する。
本開示の一例示の実施形態によれば、ビデオエンコーダーが提供され、当該エンコーダーは、当該ビデオエンコーダーを制御するプロセッサと、複数の参照サンプル及び対象ブロックを記憶するメモリと、符号化モジュールと、インデックス選択モジュールとを備える。プロセッサ、メモリ、符号化モジュール及びインデックス選択モジュールは互いに結合されている。符号化モジュールは、以下の動作、すなわち、参照サンプルを収集する動作と、参照サンプルをグループ化して、少なくとも1つのグループを生成する動作と、少なくとも1つのグループのモデルを確立する動作と、対象ブロックから対象ピクセルを取得する動作と、対象ピクセルの輝度値を対象グループのモデルに導入して、対象ピクセルの色度値を予測する動作と、符号化値を生成する動作とを実行する。インデックス選択モジュールは、符号化モジュールによって生成された符号化値からインデックス値を生成する。
本開示の一例示の実施形態によるビデオ復号化方法のフローチャートである。 本開示の一例示の実施形態による参照ブロックを示す図である。 本開示の一例示の実施形態による参照ブロックを示す図である。 本開示の一例示の実施形態による参照ブロックを示す図である。 本開示の一例示の実施形態によるグループ化の概略図である。 本開示の一例示の実施形態によるグループ化の概略図である。 本開示の一例示の実施形態によるグループ化の概略図である。 本開示の一例示の実施形態によるセグメンテーションの概略図である。 本開示の一例示の実施形態による別のタイプのセグメンテーションの概略図である。 本開示の一例示の実施形態による線形モデルの確立の概略図である。 本開示の一例示の実施形態による線形モデルの確立の概略図である。 本開示の一例示の実施形態による線形モデルの確立の概略図である。 本開示の一例示の実施形態による線形モデルの確立の概略図である。 本開示の一例示の実施形態による線形モデルの確立の概略図である。 本開示の一例示の実施形態による色度値の予測の概略図である。 対象ピクセルが異常値とみなされる場合の本開示の一例示の実施形態による色度値の予測の概略図である。 本開示の一例示の実施形態によるビデオ符号化方法のフローチャートである。 本開示の一例示の実施形態によるビデオデコーダーの機能ブロック図である。 本開示の一例示の実施形態によるビデオエンコーダーの機能ブロック図である。
解説を目的とした以下の詳細な説明には、開示された実施形態の十分な理解を提供するために、非常に多くの具体的な詳細が述べられている。しかしながら、これらの具体的な詳細がなくても、1つ以上の実施形態を実施することができることは明らかであろう。他の場合には、よく知られた構造及びデバイスは、図面を簡略化するために概略的に示されている。
本出願の技術用語は、本出願の技術分野における一般的な定義に基づいている。本出願が、1つ又は幾つかの用語を説明又は解説する場合、それらの用語の定義は、本出願の説明又は解説に基づいている。開示された実施形態のそれぞれは、1つ以上の技術的特徴を有する。可能な実施態様において、当業者は、本出願の開示内容及び自身の必要性に基づいて、本出願の任意の実施形態の一部若しくは全ての技術的特徴を選択的に実施するか、又は、本出願の実施形態の一部若しくは全ての技術的特徴を選択的に組み合わせる。
図1は、本開示の一例示の実施形態によるビデオ復号化方法のフローチャートを示している。図1に示すように、ステップ105において、符号化値が受信される。その後のステップは、この符号化値のインデックス値に従って実行される。ステップ110において、複数の参照サンプルが収集される。ステップ120において、参照サンプルがグループ化されて、少なくとも1つのグループが生成される。生成されるグループの数は、1つ又は3つ以上の任意の数である。ステップ130において、少なくとも1つのグループのモデル(例えば、相関モデルであるが、これに限定されるものではない)が確立される。ステップ140において、対象ピクセルが、対象ブロックから取得(又は選択)される。ステップ150において、対象グループが、対象ピクセルに従って少なくとも1つのグループから選択される。ステップ160において、対象ピクセルの輝度値が対象グループのモデルに導入され、対象ピクセルの色度値が予測される。
図2A〜図2Cは、本開示の一例示の実施形態による参照ブロックを示している。図2Aに示すように、参照ブロックRB1及びRB2のそれぞれは、対象ブロックTBに隣接する1つのピクセルラインから得られる。参照ブロックRB1は、対象ブロックTBに隣接する上側ブロックから取得され、参照ブロックRB2は、対象ブロックTBに隣接する左側ブロックから取得される。すなわち、参照サンプルは、対象ブロックの上側隣接ブロック及び左側隣接ブロックから収集される。対象ブロックTBは、2B*2B個のピクセルを含む(ここで、Bは正の整数である)。図2Bに示すように、参照ブロックRB1及びRB2は、対象ブロックTBに隣接する2つのピクセルラインから得られる。図2Cに示すように、参照ブロックRB1及びRB2は、対象ブロックTBに隣接する4つのピクセルラインから得られる。
対象ブロックTBは、再構築されるブロックを指し、対象ブロックTBの輝度値は既知である。本開示の一例示の実施形態では、対象ブロックTBの対象ピクセルの色度値は、対象ブロックTBの対象ピクセルの輝度値から予測することができる。対象ブロックTB内の対象ピクセルの全ての個々の色度値が予測された後、対象ブロックTBは、再構築されたものとみなされる。以下の説明では、線形モデルが一説明例として採用されるが、本出願はこのモデルに限定されるものではない。
ステップ110において、参照サンプルがスキャンされて、参照サンプルの複数の輝度値及び複数の色度値が取得される。
ステップ120におけるグループ化の原理をここで説明する。図3は、本開示の一例示の実施形態によるグループ化の概略図を示している。図3に示すように、全ての参照サン
プル(図3におけるドットが参照サンプルである)は、1つの単一のグループG1にグループ化され、グループG1の線形モデルLM1が確立される。次に、各対象ピクセルの輝度値が線形モデルLM1に導入され、各対象ピクセルの色度値が予測される。
図4は、本開示の一例示の実施形態によるグループ化の概略図を示している。図4に示すように、参照サンプルの全ての平均輝度値ALが計算される。参照サンプルの全ては、平均輝度値ALに従って2つのグループG1及びG2にグループ化され、平均輝度値ALよりも大きな輝度値を有する参照サンプルはグループG1にグループ化され、平均輝度値ALよりも小さな輝度値を有する参照サンプルはグループG2にグループ化される。グループG1及びG2のそれぞれの線形モデルLM1及びLM2が生成される。対象ピクセルにより近いグループが、そのグループの線形モデルを用いることによって対象ピクセルの色度値を予測するために特定される。対象ピクセルの輝度値が平均輝度値ALよりも大きい場合、グループG1が、対象ピクセルにより近いとみなされ、対象ピクセルの色度値は、グループG1の線形モデルLM1を用いることによって予測される。逆に、対象ピクセルの輝度値が平均輝度値ALよりも小さい場合、グループG2が、対象ピクセルにより近いとみなされ、対象ピクセルの色度値は、グループG2の線形モデルLM2を用いることによって予測される。
図5は、本開示の一例示の実施形態によるグループ化の概略図を示している。参照サンプルがスキャンされ、参照サンプルのそれぞれが、グループのうちのいずれか1つの存在するグループに属するか否かが判断される。参照サンプルをグループ化するステップは、参照サンプルのうちの第1の参照サンプルに従って第1のグループを確立し、第1の参照サンプルを第1のグループに割り当てることと、参照サンプルのうちの第2の参照サンプルを第1のグループに加えるか否かを、第2の参照サンプルのサンプル特性値に従って判断することと、第2の参照サンプルを第1のグループに加えると判断された場合、第1のグループのグループ特性値を更新することと、第2の参照サンプルを第1のグループに加えないと判断された場合、第2のグループを確立して、第2のグループのグループ特性値を計算することとを含む。グループ特性値は、位置、代表的な輝度値、代表的な色度成分値、最大輝度、最小輝度、最大色度、最小色度、及び参照サンプル数の任意の組み合わせを含む。サンプル特性値は、輝度、少なくとも1つの色度成分、及び位置の任意の組み合わせを含む。上記の詳細は、以下の例において説明される。
例えば、参照サンプルのうちの第2の参照サンプルを第1のグループに加えるか否かを第2の参照サンプルのサンプル特性値に従って判断することの詳細は、以下の説明どおりのものとすることができる。2つの実施形態、すなわち、2つの判断式セットが以下に与えられ、1つ又は全ての参照サンプルRn(ここで、nは正の整数である)がいずれかの判断式セットを満たすと判断された場合には、参照サンプルRn(ここで、nは正の整数である)をそのグループに加えると判断することができる。
第1の判断式セットは、参照サンプルRn(ここで、nは正の整数である)の輝度値YRn及び色度値CRnが以下の式を満たすか否かを判断して、参照サンプルRnがグループGi(ここで、i=1〜Aであり、Aは存在するグループの数を表す)に属するか否かを判断するものである(以下の4つの式の全てが満たされる場合、参照サンプルRnはグループGiに属すると判断される;すなわち、これらの式のうちのいずれか1つでも満たされない場合、参照サンプルRnはグループGiに属さないと判断される):YRn>Yi_group_min−Ymargin;YRn<Yi_group_max+Ymargin;CRn>Ci_group_min−Cmargin;及びCRn<Ci_group_max+Cmargin。
上記において、Yi_group_minは、グループGiにおける最小輝度値を表し
、Ymargin及びCmarginは、それぞれ輝度範囲閾値(存在する一定値であってもよい)及び色度範囲閾値(存在する一定値であってもよい)を表し、Yi_group_maxは、グループGi内の最大輝度値を表し、Ci_group_minは、グループGi内の最小色度値を表し、Ci_group_maxは、グループGi内の最大色度値を表す。
第2の判断式セットは、参照サンプルRnの輝度値YRn及び色度値CRnが以下の式を満たすか否か判断して、参照サンプルRnがグループGiに属するか否かを判断するものである(以下の4つの式の全てが満たされる場合、参照サンプルRnはグループGiに属すると判断される;すなわち、これらの式のうちのいずれか1つでも満たされない場合、参照サンプルRnはグループGiに属さないと判断される):YRn>Yi_group_max−Ymargin;YRn<Yi_group_min+Ymargin;CRn>Ci_group_max−Cmargin;及びCRn<Ci_group_min+Cmargin。
参照サンプルRnが、存在するいずれのグループにも含まれない場合、新たなグループが作成され、参照サンプルRnは、この新たなグループに割り当てられる。
参照サンプルの全てがグループ化された後、それらのグループの関連した線形モデルがそれぞれ確立される。
対象グループが、対象ピクセルの輝度値に従ってグループから選択され、この対象グループの対象線形モデルを用いることによって、対象ピクセルの色度値が予測される。例えば、対象ピクセルの輝度値がYi_group_minとYi_group_maxとの間に含まれると仮定すると、グループGiが対象グループとして選択され、対象ピクセルの色度値は、対象グループGiの対象線形モデルLMiを用いることによって予測される。
以下に例を説明する。初めに、第1の参照サンプルがスキャンされた後、第1のグループG1が確立される。この第1のグループG1は、この時点では、第1の参照サンプルのみを含む。
次に、第2の参照サンプルR2がスキャンされ、上記2つの式セットのうちの一方に従って、第2の参照サンプルR2が第1のグループG1に属するか否かが判断される。
第2の参照サンプルR2が第1のグループG1に属すると判断された場合、第2の参照サンプルR2は、第1のグループG1に割り当てられ、Y1_group_min(第1の参照サンプルの輝度値と第2の参照サンプルの輝度値との間で小さい方を選択)、Y1_group_max(第1の参照サンプルの輝度値と第2の参照サンプルの輝度値との間で大きい方を選択)、C1_group_min(第1の参照サンプルの色度値と第2の参照サンプルの色度値との間で小さい方を選択)、及びC1_group_max(第1の参照サンプルの色度値と第2の参照サンプルの色度値との間で大きい方を選択)は、それに応じて更新される。
代替的に、第2の参照サンプルR2が第1のグループG1に属さないと判断された場合、新たな第2のグループG2が確立される(同様に、第2のグループG2は、この時点では、第2の参照サンプルR2のみを含む)。上記プロセスは、参照サンプルの全てがグループ化されるまで繰り返される。
すなわち、図5におけるグループ化は、(1)第1の参照サンプルに従って第1のグル
ープを確立し、第1の参照サンプルを第1のグループに割り当て、第1の参照サンプルの輝度値である第1のグループの最小輝度値、第1の参照サンプルの輝度値である第1のグループの最大輝度値、第1の参照サンプルの色度値である第1のグループの最小色度値及び第1の参照サンプルの色度値である第1のグループの最大色度値を生成することと、(2)第2の参照サンプルが、上述したような関連した詳細を用いて第1のグループに属するか否かを、第2の参照サンプルの輝度値及び色度値に従って判断することと、(3)第2の参照サンプルが第1のグループに属する場合、第1のグループの最小輝度値を、第1のグループの最小輝度値と第2の参照サンプルの輝度値との間の最小値として更新し、第1のグループの最大輝度値を、第1のグループの最大輝度値と第2の参照サンプルの輝度値との間の最大値として更新し、第1のグループの最小色度値を、第1のグループの最小色度値と第2の参照サンプルの色度値との間の最小値として更新し、第1のグループの最大色度値を、第1のグループの最大色度値と第2の参照サンプルの色度値との間の最大値として更新することと、(4)確立された全てのグループを調べて、第2の参照サンプルがこれらのグループのうちのいずれか1つに属するか否かを判断し、第2の参照サンプルがこれらのグループのうちの少なくとも1つに属さない場合、第2のグループを生成し、第2の参照サンプルの輝度値である第2のグループの最小輝度値、第2の参照サンプルの輝度値である第2のグループの最大輝度値、第2の参照サンプルの色度値である第2のグループの最小色度値及び第2の参照サンプルの色度値である第2のグループの最大色度値を生成することとして表すことができる。
本出願の他の可能な例示の実施形態では、参照サンプルをグループ化するステップは、(1)第1の参照サンプルに従って第1のグループを確立し、第1の参照サンプルを第1のグループに割り当て、第1の参照サンプルの輝度値である第1のグループの最小輝度値、及び、第1の参照サンプルの輝度値である第1のグループの最大輝度値を生成することと、(2)第2の参照サンプルの輝度値に従って、第2の参照サンプルが第1のグループに属するか否かを判断することであって、第2の参照サンプルが第1のグループに属するか否かは、次の2つの式セット、すなわち、(A)第1の判断式セット:YRn>Yi_group_min−Ymargin;及びYRn<Yi_group_max+Ymarginと、(B)第2の判断式セット:YRn>Yi_group_max−Ymargin;及びYRn<Yi_group_min+Ymarginとのうちの一方に従って判断される(いずれか一方の式セットが満たされた場合、第2の参照サンプルは第1のグループに割り当てられる)ことと、(3)第2の参照サンプルが第1のグループに属する場合、第1のグループの最小輝度値を、第1のグループの最小輝度値と第2の参照サンプルの輝度値との間の最小値として更新し、第1のグループの最大輝度値を、第1のグループの最大輝度値と第2の参照サンプルの輝度値との間の最大値として更新することと、(4)確立されたグループを調べて、第2の参照サンプルがこれらのグループのうちのいずれか1つに属するか否かを判断し、第2の参照サンプルがこれらのグループのうちの少なくとも1つに属さない場合、第2のグループを生成し、この第2のグループの最小輝度値及び最大輝度値を生成することとを含む。
本出願の他の可能な例示の実施形態では、参照サンプルをグループ化するステップは、(1)第1の参照サンプルに従って第1のグループを確立し、第1の参照サンプルを第1のグループに割り当て、第1の参照サンプルの色度値である第1のグループの最小色度値、及び、第1の参照サンプルの色度値である第1のグループの最大色度値を生成することと、(2)第2の参照サンプルの色度値に従って、第2の参照サンプルが第1のグループに属するか否かを判断することであって、第2の参照サンプルが第1のグループに属するか否かは、次の2つの式セット、すなわち、(A)第1の判断式セット:CRn>Ci_group_min−Cmargin;及びCRn<Ci_group_max+Cmarginと、(B)第2の判断式セット:CRn>Ci_group_max−Cmargin;及びCRn<Ci_group_min+Cmarginとに従って判断される
(いずれか一方の式セットが満たされた場合、第2の参照サンプルは第1のグループに割り当てられる)ことと、(3)第2の参照サンプルが第1のグループに属する場合、第1のグループの最小色度値を、第1のグループの最小色度値と第2の参照サンプルの色度値との間の最小値として更新し、第1のグループの最大色度値を、第1のグループの最大色度値と第2の参照サンプルの色度値との間の最大値として更新することと、(4)確立されたグループを調べて、第2の参照サンプルがこれらのグループのうちのいずれか1つに属するか否かを判断し、第2の参照サンプルがこれらのグループのうちの少なくとも1つに属さない場合、第2のグループを生成し、この第2のグループの最小色度値及び最大色度値を生成することとを含む。
さらに、本出願の一実施形態では、参照ブロック及び対象ブロックを更にセグメンテーションすることができる。図6は、本開示の一例示の実施形態によるセグメンテーションの概略図を示している。参照サンプルは、X軸及びY軸に沿ってスキャンされ、色不連続点が生じているか否かが判断される。この判断は、|C_R(i+1)−C_Ri|>Cthreshold及び/又は|Y_R(i+1)−Y_Ri|>Ythresholdに従って行われ、C_R(i+1)及びC_Riは、それぞれ参照サンプルR(i+1)の色度値及び参照サンプルRiの色度値を表し、Y_R(i+1)及びY_Riは、それぞれ参照サンプルR(i+1)の輝度値及び参照サンプルRiの輝度値を表し、Cthreshold及びYthresholdは、それぞれ色度閾値(所定の値)及び輝度閾値(所定の値)を表す。
さらに、本出願の他の例示の実施形態では、参照サンプルをグループ化するステップは、グループの数を定めることと、固定数のグループを確立し、グループに含まれる複数の参照サンプルの個々のサンプル特性値に従って、少なくとも1つのグループの個々のグループ特性値を計算することと、個々のサンプル特性値に従って、参照サンプルを少なくとも1つのグループに割り当てることとを含むことができる。グループ特性値は、位置、代表的な輝度値、代表的な色度成分値、最大輝度、最小輝度、最大色度、最小色度、及び参照サンプル数の任意の組み合わせを含む。サンプル特性値は、輝度、少なくとも1つの色度成分及び位置の任意の組み合わせを含む。
色不連続点の空間位置が特定された後、参照ブロック及び対象ブロックはセグメンテーションされる。例として図6を用いると、色不連続点D1及びD2が特定された後、参照ブロックRB1は、参照サブブロックRB1_1、RB1_2及びRB1_3にセグメンテーションされる。色不連続点D3が特定された後、参照ブロックRB2は、参照サブブロックRB2_1及びRB2_2にセグメンテーションされる。同様に、色不連続点D1〜D3に従って、対象ブロックTBは、対象サブブロックTB_1、TB_2、TB_3、TB_4、TB_5及びTB_6にセグメンテーションされる。次に、参照サブブロックは、(上述したようなグループ化の詳細を用いて)グループ化され、グループ化された参照サブブロックを用いることによって、対応するモデルが確立される。
代替的に、対象サブブロックTB_1の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_1及び参照サブブロックRB2_1が参照され、対象サブブロックTB_2の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_2及び参照サブブロックRB2_1が参照され、対象サブブロックTB_3の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_3及び参照サブブロックRB2_1が参照され、対象サブブロックTB_4の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_1及び参照サブブロックRB2_2が参照され、対象サブブロックTB_5の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_2及び参照サブブロックRB2_2が参照され、対象サブブロックTB_6の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_3及び参照サブブロックRB2_2が参照さ
れる。色度値の予測の詳細は、前述したとおりであり、ここでは省略することにする。すなわち、対象サブブロックのうちのいずれか1つが予測されるとき、参照サブブロックのうちの少なくとも1つは除外される。
色不連続点は、例えば、白色の参照サンプルが黒色の参照サンプルに隣接しているとき、又は、赤色の参照サンプルが青色の参照サンプルに隣接しているときに生じる。
本出願では、色不連続点は、参照ブロック及び対象ブロックをセグメンテーションするために特定される。対象サブブロックの色度値が予測されると、より類似した色を有する参照サブブロックが考慮され、あまり類似していない色を有する参照サブブロックは除かれる。すなわち、例として図6を用いると、対象サブブロックTB_1の色は、参照サブブロックRB1_1の色とより類似しているが、参照サブブロックRB1_2の色とあまり類似していない。したがって、対象サブブロックTB_1を再構築するために、参照サブブロックRB1_1が考慮される一方、参照サブブロックRB1_2は除外される。したがって、予測結果をより正確なものにすることができる。
すなわち、本出願の1つの例示の実施形態では、セグメンテーションを行うには、特性値不連続点(例えば、色不連続点)を有する空間位置が、参照ブロック及び対象ブロックをセグメンテーションするために特定される。すなわち、参照ブロックは、少なくとも1つの参照サブブロックにセグメンテーションされ、この少なくとも1つの参照サブブロックのグループが確立され、この少なくとも1つの参照サブブロックを用いることによって、モデルが確立される。
図7は、本開示の別の例示の実施形態によるセグメンテーションの概略図を示している。色不連続点D1及びD2が特定された後、参照ブロックRB1が、参照サブブロックRB1_1、RB1_2及びRB1_3にセグメンテーションされ、色不連続点D3が特定された後、参照ブロックRB2が、参照サブブロックRB2_1及びRB2_2にセグメンテーションされる。同様に、これらの色不連続点に従って、対象ブロックTBが、対象サブブロックTB_1、TB_2及びTB_3にセグメンテーションされる。
次に、対象サブブロックTB_1の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_1及び参照サブブロックRB2_1が参照され、対象サブブロックTB_2の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_2及び参照サブブロックRB2_2が参照され、対象サブブロックTB_3の対象サンプルの色度値が予測されるとき、参照サブブロックRB1_3が参照される。色度値の予測の詳細は、前述したとおりであり、ここでは省略することにする。
代替的に、本出願の他の例示の実施形態では、対象ピクセルの色度値を予測するステップは、特性値不連続点の空間位置に従って対象ブロックを少なくとも1つの対象サブブロックにセグメンテーションすることと、対象ピクセルが属する対象サブブロックに従って対象グループを選択することと、対象グループのモデルを用いることによって対象ピクセルの色度値を予測することとを含む。
図8は、本開示の一例示の実施形態による線形モデルの確立の概略図を示している。図8において、線形モデルは、線形回帰アルゴリズムを適用することによって確立される。グループの個々の対応する線形モデルが確立される。確立される線形モデルは、Yが色度値を表し、xが輝度値を表し、α及びβが以下に示すものとすると、Y=αx+βとして表すことができる。
Figure 2020005258
上記において、Nは、グループ内の参照サンプルの数を表し、L(n)及びC(n)は、参照サンプルRnのそれぞれ輝度値及び色度値を表す。
代替的に、別の直線式は、α及びβを以下に示すものとするY=αx+βである。
Figure 2020005258
及び
Figure 2020005258
上記において、Cmax、Cmin、Lmax及びLminは、参照サンプルのそれぞれ最大色度値、最小色度値、最小輝度値及び最大輝度値を表す。
図9A〜図9Cは、本開示の一例示の実施形態による線形モデルの確立の概略図を示している。図9A〜図9Cにおいて、線形モデルは、直線式を適用することによって確立される。すなわち、2つの点(2つの参照サンプル)が参照サンプルから特定されて、直線が確立され、この確立された直線が線形モデルである。
図9Aでは、特定される点は、P1:(L1,Max C)及びP2:(L2,Min
C)である。すなわち、P1は、グループ内の参照サンプルの中で最大色度値を有する参照サンプルを表し、P2は、グループ内の参照サンプルの中で最小色度値を有する参照サンプルを表す。
図9Bでは、特定される点は、P1:(Max L,C1)及びP2:(Min L,C2)である。すなわち、P1は、グループ内の参照サンプルの中で最大輝度値を有する参照サンプルを表し、P2は、グループ内の参照サンプルの中で最小輝度値を有する参照サンプルを表す。
図9Cでは、特定される点は、P1:(Max L,Max C)及びP2:(Min
L,Min C)である。すなわち、P1は、グループ内の参照サンプルの中で最大輝度値及び最大色度値の双方を有する参照サンプルを表し、P2は、グループ内の参照サンプルの中で最小輝度値及び最小色度値の双方を有する参照サンプルを表す。
図10は、本開示の一例示の実施形態による線形モデルの確立の概略図を示している。図10において、線形モデルは、平均化アルゴリズムを適用することによって確立される。図10の適用シナリオでは、グループ内の参照サンプルの輝度値分布及び/又は色度値分布がかなり集中しているか、又は、グループが1つの参照サンプルしか含まない。平均化アルゴリズムが適用されると、対象サンプルの予測クロミナンス値は、参照サンプルの
色度値の平均値である。
図11は、本開示の一例示の実施形態による色度値の予測の概略図を示している。本出願の一例示の実施形態では、対象ピクセルの色度値が予測されるとき、対象ピクセルに最も近いグループが、対象ピクセルの輝度値に従って特定される。次に、対象ピクセルの色度値が、この最も近いグループの線形モデルを適用することによって予測される。
換言すれば、図11において、V1、V2及びV3は、それぞれグループG1、G2及びG3の平均輝度値を示す。対象ピクセルに最も近いグループを特定するステップは、対象ピクセルの輝度値TP_YがV1に最も近いのか、V2に最も近いのか、又はV3に最も近いのかを判断することである。対象ピクセルの輝度値TP_YがV1に最も近い場合、グループG1が対象ピクセルに最も近いと判断され、対象ピクセルの色度値TP_Cは、グループG1の線形モデルLM1を適用することによって予測される。同様に、対象ピクセルの輝度値TP_YがV2に最も近いと判断された場合、グループG2が対象ピクセルに最も近いと判断され、対象ピクセルの色度値TP_Cは、グループG2の線形モデルLM2を適用することによって予測される。対象ピクセルの輝度値TP_YがV3に最も近いと判断された場合、グループG3が対象ピクセルに最も近いと判断され、対象ピクセルの色度値TP_Cは、グループG3の線形モデルLM3を適用することによって予測される。図11における例では、対象ピクセルの輝度値TP_YはV2に最も近く、グループG2が対象ピクセルに最も近いと判断され、対象ピクセルの色度値TP_Cは、グループG2の線形モデルLM2を適用することによって予測される。
図12は、本開示の一例示の実施形態による色度値の予測の概略図を示している。対象ピクセルは異常値とみなされる。本出願の一例示の実施形態では、対象ピクセルが、いずれのグループの範囲内にも含まれない場合、この対象ピクセルは異常値とみなされる。本開示の1つの例示の実施形態では、異常値とみなされる対象ピクセルの色度値を予測する3つの手法がある。
第1の手法では、色度値は、普遍的線形モデル(ULM)を用いることによって予測される。「普遍的相関モデル」及び/又は「普遍的線形モデル」は、グループの全ての個々の中心点に従って取得される。
第2の手法では、予測隣接色度値の平均値が、異常値とみなされた対象ピクセルの予測色度値として用いられる。「予測隣接色度値」という用語は、類似の輝度値を有する残りの対象ピクセルの所定のクロミナンスを指す。
第3の手法では、中間グレースケール値が、異常値とみなされる対象ピクセルの予測色度値として用いられる。例えば、ピクセル値が10ビットであると仮定すると、512が、異常値とみなされる対象ピクセルの予測色度値として用いられる。
さらに、本出願の1つの例示の実施形態では、事前に処理された対象ピクセルの輝度値が、対象ピクセルの輝度値に近い場合、この事前に処理された対象ピクセルの(予測)色度値が、対象ピクセルの予測色度値として用いられる。
図13は、本開示の一例示の実施形態によるビデオ符号化方法のフローチャートを示している。図13に示すように、ステップ1310において、複数の参照サンプルが収集される。ステップ1320において、これらの参照サンプルがグループ化されて、少なくとも1つのグループが生成される。ステップ1330において、この少なくとも1つのグループのモデルが確立される。ステップ1340において、対象ピクセルが対象ブロックから取得される。ステップ1350において、対象グループが、対象ピクセルに従って少な
くとも1つのグループから選択される。ステップ1360において、対象ピクセルの輝度値が、対象グループのモデルに導入され、対象ピクセルの色度値が予測される。ステップ1365において、符号化値が生成される。この符号化値はインデックス値を含む。
図14は、本開示の一例示の実施形態によるビデオデコーダーの機能ブロック図を示している。本開示の一例示の実施形態によるビデオデコーダー1400は、プロセッサ1410、メモリ1420、復号化モジュール1430及びインデックス受信モジュール1440を備える。プロセッサ1410、メモリ1420、復号化モジュール1430及びインデックス受信モジュール1440は、互いに結合されている。プロセッサ1410は、ビデオデコーダー1400を制御するためのものである。メモリ1420は、参照ブロック及び対象ブロックを記憶するためのものである。復号化モジュール1430は、上記のビデオ復号化方法を実行することができ、インデックス受信モジュール1440は、ビデオエンコーダーからインデックス値を受信する。復号化モジュール1430及びインデックス受信モジュール1440は、プロセッサによって実行されるソフトウェアによって実施することもできるし、ハードウェア回路によって実施することもできる。
図15は、本開示の一例示の実施形態によるビデオエンコーダーの機能ブロック図を示している。本開示の一例示の実施形態によるビデオエンコーダー1500は、プロセッサ1510、メモリ1520、符号化モジュール1530及びインデックス選択モジュール1540を備える。プロセッサ1510、メモリ1520、符号化モジュール1530及びインデックス選択モジュール1540は、互いに結合されている。プロセッサ1510は、ビデオエンコーダー1500を制御するためのものである。メモリ1520は、参照ブロック及び対象ブロックを記憶するためのものである。符号化モジュール1530は、上述したビデオ符号化方法を実行することができる。インデックス選択モジュール1540は、符号化モジュール1530によって生成された符号化値からインデックス値を生成する。符号化モジュール1530及びインデックス選択モジュール1540は、プロセッサによって実行されるソフトウェアによって実施することもできるし、ハードウェア回路によって実施することもできる。
上述したように、本出願の例示の実施形態は、色度値を効果的に予測する。したがって、YCbCrフォーマットのビデオデータが符号化されるとき、Yデータしか符号化する必要がなく、したがって、符号化のビットレートが効果的に低減される。他方、CbCrデータは、上記方法を用いることによって予測することができる。本出願の例示の実施形態は、色度値を独立して符号化することの効率低下の問題を解決すること、及び、全体の符号化効率を高めることが可能である。したがって、本出願は、ビデオ圧縮関連技術を伴う製品に適用することができる。これらの製品は、例えば、ウェブカム、デジタルカメラ、デジタルビデオカメラ、ハンドヘルドモバイルデバイス及びデジタルテレビであるが、これらに限定されるものではない。

Claims (22)

  1. 符号化値を受信することと、
    前記符号化値のインデックス値に従って、以下のステップ、すなわち、
    複数の参照サンプルを収集するステップと、
    前記参照サンプルをグループ化して、少なくとも1つのグループを生成するステップと、
    前記少なくとも1つのグループのモデルを確立するステップと、
    対象ブロックから対象ピクセルを取得するステップと、
    前記対象ピクセルに従って前記少なくとも1つのグループから対象グループを選択するステップと、
    前記対象ピクセルの輝度値を前記対象グループのモデルに導入して、前記対象ピクセルの色度値を予測するステップと、
    を実行することと、
    を含む、ビデオ復号化方法。
  2. 前記生成されるグループの数は、1つ又は3つ以上の任意の数である、請求項1に記載のビデオ復号化方法。
  3. 前記参照サンプルをグループ化する前記ステップは、
    前記参照サンプルの平均輝度値を計算することと、
    前記参照サンプルのそれぞれの輝度値が前記平均輝度値よりも大きいのか又は小さいのかに従って、前記参照サンプルを前記少なくとも1つの生成されたグループに割り当てることと、
    を含む、請求項1に記載のビデオ復号化方法。
  4. 前記参照サンプルをグループ化する前記ステップは、
    前記参照サンプルのうちの第1の参照サンプルに従って第1のグループを確立し、該第1の参照サンプルを該第1のグループに割り当てることと、
    前記参照サンプルのうちの第2の参照サンプルのサンプル特性値に従って、該第2の参照サンプルを前記第1のグループに加えるか否かを判断することと、
    前記第2の参照サンプルを前記第1のグループに加えると判断された場合には、前記第1のグループのグループ特性値を更新することと、
    前記第2の参照サンプルを前記第1のグループに加えないと判断された場合には、第2のグループを確立し、該第2のグループのグループ特性値を計算することと、
    を含む、請求項1に記載のビデオ復号化方法。
  5. 前記参照サンプルをグループ化する前記ステップは、
    前記少なくとも1つのグループの数を定めることと、
    固定数の前記少なくとも1つのグループを確立し、前記少なくとも1つのグループの複数の参照サンプルの個々のサンプル特性値に従って、前記少なくとも1つのグループの個々のグループ特性値を計算することと、
    前記個々のサンプル特性値に従って前記参照サンプルを前記少なくとも1つのグループに割り当てることと、
    を含む、請求項1に記載のビデオ復号化方法。
  6. 前記グループ特性値は、位置、代表的な輝度値、代表的な色度成分値、最大輝度、最小輝度、最大色度、最小色度及び参照サンプル数の任意の組み合わせを含み、前記サンプル特性値は、輝度、少なくとも1つの色度成分及び位置の任意の組み合わせを含む、請求項4又は5に記載のビデオ復号化方法。
  7. 前記少なくとも1つのグループの前記モデルを確立する前記ステップは、
    線形回帰アルゴリズム、直線式又は平均化アルゴリズムを適用することによって前記モデルを確立すること、
    を含む、請求項1に記載のビデオ復号化方法。
  8. 前記少なくとも1つのグループから前記対象グループを選択する前記ステップは、
    前記対象ピクセルの前記輝度値に従って、前記対象ピクセルに最も近い前記対象グループを前記少なくとも1つのグループから特定すること、
    を含む、請求項1に記載のビデオ復号化方法。
  9. 事前に処理された対象ピクセルの輝度値が、前記対象ピクセルの前記輝度値に近い場合には、前記対象ピクセルの前記色度値は、前記事前に処理された対象ピクセルの予測色度値を用いることによって予測される、請求項1に記載のビデオ復号化方法。
  10. 参照ブロック及び前記対象ブロックをセグメンテーションする特性値不連続点の空間位置が特定され、前記参照ブロックは、少なくとも1つの参照サブブロックにセグメンテーションされ、該少なくとも1つの参照サブブロックのグループが確立され、
    前記少なくとも1つの参照サブブロックを用いることによって、少なくとも1つのモデルが確立され、
    前記対象ピクセルの前記色度値を予測する前記ステップは、
    前記特性値不連続点の空間位置に従って、前記対象ブロックを少なくとも1つの対象サブブロックにセグメンテーションすることと、
    前記対象ピクセルが属する前記対象サブブロックに従って前記対象グループを選択することと、
    前記対象グループの前記モデルを用いることによって前記対象ピクセルの前記色度値を予測することと、
    を含む、請求項1に記載のビデオ復号化方法。
  11. 複数の参照サンプルを収集するステップと、
    前記参照サンプルをグループ化して、少なくとも1つのグループを生成するステップと、
    前記少なくとも1つのグループのモデルを確立するステップと、
    対象ブロックから対象ピクセルを取得するステップと、
    前記対象ピクセルに従って、前記少なくとも1つのグループから対象グループを選択するステップと、
    前記対象ピクセルの輝度値を前記対象グループのモデルに導入して、前記対象ピクセルの色度値を予測するステップと、
    インデックス値を有する符号化値を生成するステップと、
    を含む、ビデオ符号化方法。
  12. 前記生成されるグループの数は、1つ又は3つ以上の任意の数である、請求項11に記載のビデオ符号化方法。
  13. 前記参照サンプルをグループ化する前記ステップは、
    前記参照サンプルの平均輝度値を計算することと、
    前記参照サンプルのそれぞれの輝度値が前記平均輝度値よりも大きいのか又は小さいのかに従って、前記参照サンプルを前記少なくとも1つの生成されたグループに割り当てることと、
    を含む、請求項11に記載のビデオ符号化方法。
  14. 前記参照サンプルをグループ化する前記ステップは、
    前記参照サンプルのうちの第1の参照サンプルに従って第1のグループを確立し、該第1の参照サンプルを該第1のグループに割り当てることと、
    前記参照サンプルのうちの第2の参照サンプルのサンプル特性値に従って、該第2の参照サンプルを前記第1のグループに加えるか否かを判断することと、
    前記第2の参照サンプルを前記第1のグループに加えると判断された場合には、前記第1のグループのグループ特性値を更新することと、
    前記第2の参照サンプルを前記第1のグループに加えないと判断された場合には、第2のグループを確立し、該第2のグループのグループ特性値を計算することと、
    を含む、請求項11に記載のビデオ符号化方法。
  15. 前記参照サンプルをグループ化する前記ステップは、
    前記少なくとも1つのグループの数を定めることと、
    固定数の前記少なくとも1つのグループを確立し、前記少なくとも1つのグループの複数の参照サンプルの個々のサンプル特性値に従って、前記少なくとも1つのグループの個々のグループ特性値を計算することと、
    前記個々のサンプル特性値に従って前記参照サンプルを前記少なくとも1つのグループに割り当てることと、
    を含む、請求項11に記載のビデオ符号化方法。
  16. 前記グループ特性値は、位置、代表的な輝度値、代表的な色度成分値、最大輝度、最小輝度、最大色度、最小色度及び参照サンプル数の任意の組み合わせを含み、前記サンプル特性値は、輝度、少なくとも1つの色度成分及び位置の任意の組み合わせを含む、請求項14又は15に記載のビデオ符号化方法。
  17. 前記少なくとも1つのグループの前記モデルを確立する前記ステップは、
    線形回帰アルゴリズム、直線式又は平均化アルゴリズムを適用することによって前記モデルを確立すること、
    を含む、請求項11に記載のビデオ符号化方法。
  18. 前記少なくとも1つのグループから前記対象グループを選択する前記ステップは、
    前記対象ピクセルの前記輝度値に従って、前記対象ピクセルに最も近い前記対象グループを前記少なくとも1つのグループから特定すること、
    を含む、請求項11に記載のビデオ符号化方法。
  19. 事前に処理された対象ピクセルの輝度値が、前記対象ピクセルの前記輝度値に近い場合には、前記対象ピクセルの前記色度値は、前記事前に処理された対象ピクセルの予測色度値を用いることによって予測される、請求項11に記載のビデオ符号化方法。
  20. 参照ブロック及び前記対象ブロックをセグメンテーションする特性値不連続点の空間位置が特定され、前記参照ブロックは、少なくとも1つの参照サブブロックにセグメンテーションされ、該少なくとも1つの参照サブブロックのグループが確立され、
    前記少なくとも1つの参照サブブロックを用いることによって、少なくとも1つのモデルが確立され、
    前記対象ピクセルの前記色度値を予測する前記ステップは、
    前記特性値不連続点の空間位置に従って、前記対象ブロックを少なくとも1つの対象サブブロックにセグメンテーションすることと、
    前記対象ピクセルが属する前記対象サブブロックに従って前記対象グループを選択することと、
    前記対象グループの前記モデルを用いることによって前記対象ピクセルの前記色度値を予測することと、
    を含む、請求項11に記載のビデオ符号化方法。
  21. ビデオデコーダーであって、
    該ビデオデコーダーを制御するプロセッサと、
    複数の参照サンプル及び対象ブロックを記憶するメモリと、
    復号化モジュールと、
    符号化値を受信するインデックス受信モジュールと、
    を備え、
    前記プロセッサ、前記メモリ、前記復号化モジュール及び前記インデックス受信モジュールは互いに結合され、前記復号化モジュールは、前記符号化値のインデックス値に従って、以下の動作、すなわち、
    複数の参照サンプルを収集する動作と、
    前記参照サンプルをグループ化して、少なくとも1つのグループを生成する動作と、
    前記少なくとも1つのグループのモデルを確立する動作と、
    対象ブロックから対象ピクセルを取得する動作と、
    前記対象ピクセルに従って前記少なくとも1つのグループから対象グループを選択する動作と、
    前記対象ピクセルの輝度値を前記対象グループのモデルに導入して、前記対象ピクセルの色度値を予測する動作と、
    を実行する、ビデオデコーダー。
  22. ビデオエンコーダーであって、
    該ビデオエンコーダーを制御するプロセッサと、
    複数の参照サンプル及び対象ブロックを記憶するメモリと、
    符号化モジュールと、
    インデックス選択モジュールと、
    を備え、
    前記プロセッサ、前記メモリ、前記符号化モジュール及び前記インデックス選択モジュールは互いに結合され、前記符号化モジュールは、以下の動作、すなわち、
    複数の参照サンプルを収集する動作と、
    前記参照サンプルをグループ化して、少なくとも1つのグループを生成する動作と、
    前記少なくとも1つのグループのモデルを確立する動作と、
    対象ブロックから対象ピクセルを取得する動作と、
    前記対象ピクセルに従って前記少なくとも1つのグループから対象グループを選択する動作と、
    前記対象ピクセルの輝度値を前記対象グループのモデルに導入して、前記対象ピクセルの色度値を予測する動作と、
    符号化値を生成する動作と、
    を実行し、
    前記インデックス選択モジュールは、前記符号化モジュールによって生成された前記符号化値からインデックス値を生成する、ビデオエンコーダー。
JP2019119378A 2018-06-29 2019-06-27 ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダー Pending JP2020005258A (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201862691729P 2018-06-29 2018-06-29
US62/691,729 2018-06-29
US201862727595P 2018-09-06 2018-09-06
US62/727,595 2018-09-06
TW108121169A TW202015409A (zh) 2018-06-29 2019-06-19 影像資料解碼方法、影像資料解碼器、影像資料編碼方法與影像資料編碼器
TW108121169 2019-06-19
US16/446,174 2019-06-19
US16/446,174 US20200007872A1 (en) 2018-06-29 2019-06-19 Video decoding method, video decoder, video encoding method and video encoder

Publications (1)

Publication Number Publication Date
JP2020005258A true JP2020005258A (ja) 2020-01-09

Family

ID=69100669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019119378A Pending JP2020005258A (ja) 2018-06-29 2019-06-27 ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダー

Country Status (1)

Country Link
JP (1) JP2020005258A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307897A1 (en) * 2010-01-25 2012-12-06 Ji Heng Yang Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
JP2015019257A (ja) * 2013-07-11 2015-01-29 三菱電機株式会社 カラー動画像符号化装置、カラー動画像復号装置、カラー動画像符号化方法及びカラー動画像復号方法
US20180077426A1 (en) * 2016-09-15 2018-03-15 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120307897A1 (en) * 2010-01-25 2012-12-06 Ji Heng Yang Video encoder, video decoder, method for video encoding and method for video decoding, separately for each colour plane
JP2015019257A (ja) * 2013-07-11 2015-01-29 三菱電機株式会社 カラー動画像符号化装置、カラー動画像復号装置、カラー動画像符号化方法及びカラー動画像復号方法
US20180077426A1 (en) * 2016-09-15 2018-03-15 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
VAN DER AUWERA, GREET ET AL.: "Description of Core Experiment 3: Intra Prediction and Mode Coding", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 10TH MEETING: SAN, vol. JVET-J1023 (version 3), JPN6020028399, 21 June 2018 (2018-06-21), pages 26 - 29, ISSN: 0004319470 *
WANG, SHENG-PO ET AL.: "Non-CE3: Adaptive multiple cross-component linear model", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 11TH MEETING: LJUB, vol. JVET-K0536 (version 1), JPN6020028401, 14 July 2018 (2018-07-14), pages 1 - 3, ISSN: 0004319472 *
ZHANG, KAI ET AL.: "Enhanced Cross-Component Linear Model for Chroma Intra-Prediction in Video Coding", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. Volume: 27, Issue: 8, Aug. 2018, JPN6020028397, 26 April 2018 (2018-04-26), pages 3983 - 3997, ISSN: 0004457718 *
ZHANG, KAI ET AL.: "Enhanced Cross-component Linear Model Intra-prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 4TH MEETING: C, vol. JVET-D0110 (version 4), JPN6020028400, 17 October 2016 (2016-10-17), pages 1 - 6, ISSN: 0004319471 *
ZHANG, KAI ET AL.: "Multi-model based cross-component linear model chroma intra-prediction for video coding", 2017 IEEE VISUAL COMMUNICATIONS AND IMAGE PROCESSING (VCIP), DEC. 10-13, 2017, ST PETERSBURG, U.S.A., JPN6020028398, 1 March 2018 (2018-03-01), pages 1 - 4, ISSN: 0004319473 *

Similar Documents

Publication Publication Date Title
US20200007872A1 (en) Video decoding method, video decoder, video encoding method and video encoder
TWI601417B (zh) 可適性色彩空間轉換寫碼
JP5289440B2 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
TWI514855B (zh) 用於編碼單元的視訊編碼的局部多重假設預測的執行方法及裝置
KR101266168B1 (ko) 영상의 부호화, 복호화 방법 및 장치
JP5490823B2 (ja) 画像の系列を表すストリームを復号化する方法、画像の系列を符号化する方法及び符号化データ構造
KR100906243B1 (ko) Rgb 색 공간 신호의 영상 부호화 방법
JP7343669B2 (ja) Vvcにおける色変換のための方法及び機器
CN118827982A (zh) 用于视频压缩的基于深度学习的图像分区
EP1553783A2 (en) Prediction encoding apparatus, prediction encoding method, and computer readable recording medium thereof
JP6822122B2 (ja) 画像処理装置、画像処理方法及びプログラム
AU2014408223A1 (en) Hash-based encoder decisions for video coding
CN114786019B (zh) 图像预测方法、编码器、解码器以及存储介质
JP2018101867A (ja) 画像処理装置、画像処理方法及びプログラム
WO2022117089A1 (zh) 预测方法、编码器、解码器以及存储介质
CN111742553A (zh) 用于视频压缩的基于深度学习的图像分区
JP2022544764A (ja) イントラモードにおける予測サンプルフィルタリングのための重み付け係数
CN105681808A (zh) 一种scc帧间编码单元模式的快速决策方法
CN110913215B (zh) 一种预测模式的选择方法及装置、可读存储介质
CN108737819A (zh) 一种基于四叉树二叉树结构的灵活编码单元划分方法
CN107454425B (zh) 一种scc帧内编码单元候选预测模式缩减方法
JP2000078411A (ja) 可逆符号化装置及び可逆符号化方法
JP2020005258A (ja) ビデオ復号化方法、ビデオデコーダー、ビデオ符号化方法及びビデオエンコーダー
JP2001076166A (ja) アニメーション動画像の符号化方法
EP3588962A1 (en) Video decoding method, video decoder, video encoding method and video encoder

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309