JP7245898B2 - ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体 - Google Patents

ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP7245898B2
JP7245898B2 JP2021506654A JP2021506654A JP7245898B2 JP 7245898 B2 JP7245898 B2 JP 7245898B2 JP 2021506654 A JP2021506654 A JP 2021506654A JP 2021506654 A JP2021506654 A JP 2021506654A JP 7245898 B2 JP7245898 B2 JP 7245898B2
Authority
JP
Japan
Prior art keywords
image component
value
neighboring reference
factor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506654A
Other languages
English (en)
Other versions
JP2022501863A (ja
Inventor
フオ、チュンイェン
チャイ、シアオイェン
マー、イェンチュオ
ヤン、フーチョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2022501863A publication Critical patent/JP2022501863A/ja
Application granted granted Critical
Publication of JP7245898B2 publication Critical patent/JP7245898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本願の実施例は、ビデオ符号化分野のイントラ予測技術に関し、特にビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体に関する。
次世代ビデオ符号化規格H.266又は多機能ビデオ符号化(Versatile Video Coding:VVC)において、クロスコンポーネント線形モデル予測方法(Cross-component Linear Model Prediction:CCLM)により、輝度値から色度値を予測するか又は色度値間の予測を行うことを実現することができる。具体的には、線形回帰方法により、現在符号化ブロックに対応する隣接の輝度パラメータ及び色度パラメータに対して線形モデルを構築することができる。これにより、該線形モデル及び再構成輝度値に基づいて、色度予測値を算出することができる。
しかしながら、線形モデルを構築する時、現在考慮した要因が不十分である。例えば、輝度値により、色度値を予測する時、通常、隣接参考輝度値及び隣接参考色度値を考慮し、それに対して、色度間の予測を行う時、通常、隣接参考色度成分を考慮している。従って、隣接参考輝度値が現在符号化ブロックに対応するパラメータから大きく離れ、又は隣接参考色度成分が現在符号化ブロックに対応するパラメータから大きく離れる場合、算出された線形モデルが所望モデルから大きく乖離が生じる。これにより、現在符号化ブロックの色度予測値の予測精度を低下させ、色度予測値と真実の色度値が大きく離れる。
上記技術的課題を解決するために、本願の実施例は、第2画像成分予測値の予測精度を効果的に向上させ、第2画像成分予測値を真実の成分値に更に近くすることができるビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体を提供する。
本願の実施例の技術的解決手段は、以下のように実現する。
ビデオ画像成分の予測方法であって、前記方法は、
現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することであって、前記第1画像成分隣接参考値は、前記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである、ことと、
前記第1画像成分隣接参考値及び前記第1画像成分再構成値に基づいて、相関係数を決定することであって、前記相関係数は、前記現在符号化ブロックと前記隣接参考点との間の画像成分乖離度合いを表すためのものである、ことと、
前記相関係数を所定の重み演算モデルに入力し、前記隣接参考点に対応する重み係数を得ることと、
前記重み係数に基づいて比例因子を決定することと、
前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得ることと、を含む。
本願の実施例は、ビデオ画像成分の予測方法、装置、及びコンピュータ記憶媒体を提供する。予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得する。第1画像成分隣接参考値は、現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、第1画像成分再構成値は、現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである。第1画像成分隣接参考値及び第1画像成分再構成値に基づいて、相関係数を決定する。相関係数は、現在符号化ブロックと隣接参考点との間の画像成分乖離度合いを表すためのものである。相関係数を所定の重み演算モデルに入力し、隣接参考点に対応する重み係数を得る。重み係数に基づいて比例因子を決定する。比例因子により、現在符号化ブロックに対応する第2画像成分予測値を得る。上記から分かるように、本願の実施例において、予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
ビデオ符号化を示すフローチャートである。 ビデオ復号を示すフローチャートである。 隣接参考サンプリングの位置を示す第1概略図である。 隣接参考サンプリングの位置を示す第2概略図である。 従来技術における線形モデルの決定を示す第1概略図である。 従来技術における線形モデルの決定を示す第2概略図である。 本願の実施例によるビデオ画像成分の予測方法を示すフローチャートである。 本願の実施例における干渉点の削除を示す概略図である。 本願の実施例による予測装置の構造を示す第1概略図である。 本願の実施例による予測装置の構造を示す第2概略図である。
以下、本願の実施例の図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。ここで説明される具体的な実施例は、関連出願を解釈するためのものに過ぎず、該出願を限定するものではないことが理解されるべきである。なお、説明を容易にするために、図面において関連出願に係る部分のみが示されることに留意されたい。
ビデオ画像において、一般的には、第1画像成分、第2画像成分及び第3画像成分で符号化ブロックを表す。ここで、第1画像成分、第2画像成分及び第3画像成分は、1つの輝度成分及び2つの色度成分を含む。具体的には、輝度成分は一般的には、符号Yで表され、色度成分は一般的には、符号Cb、Crで表される。ここで、Cbは、青色色度成分を表し、Crは、赤色色度成分を表す。
本願の実施例において、第1画像成分、第2画像成分及び第3画像成分はそれぞれ、輝度成分Y、青色色度成分Cb及び赤色色度成分Crであってもよいことに留意されたい。例えば、第1画像成分は、輝度成分Yであってもよく、第2画像成分は、赤色色度成分Crであってもよく、第3画像成分は、青色色度成分Cbであってもよいが、本願の実施例は、これを具体的に限定するものではない。
更に、本願の実施例において、通常輝度成分、色度成分を分けて表されるサンプリングフォーマットは、YCbCrフォーマットとも呼ばれる。ここで、YCbCrフォーマットは、4:4:4フォーマット、4:2:2フォーマット及び4:2:0フォーマットを含んでもよい。
ビデオ画像がYCbCr4:2:0フォーマットを用いる場合、ビデオ画像の輝度成分がサイズ2N×2Nの符号化ブロックである場合、対応する色度成分は、サイズN×Nの符号化ブロックである。ここで、Nは、符号化ブロックの辺長である。本願の実施例において、4:2:0フォーマットを例として説明するが、本願の実施例の技術的解決手段は同様に他のサンプリングフォーマットに適用可能である。
本願の実施例において、上記ビデオ画像成分の予測方法は、ビデオ符号化ハイブリッドフレームワークにおけるイントラ予測に適用可能である。具体的には、上記ビデオ画像成分の予測方法は、符号化側及び復号側に同時に適用可能である。例えば、図1は、ビデオ符号化を示すフローチャートである。図1に示すように、ビデオ符号化は、イントラ推定、イントラ予測及び動き補償などの複数の具体的な工程を含んでもよい。ここで、本願で提出されるビデオ画像成分の予測方法は、イントラ予測部に適用可能である。図2は、ビデオ復号を示すフローチャートである。図2に示すように、ビデオ復号は、フィルタリング、イントラ予測及び動き補償などの複数の具体的な工程を含んでもよい。ここで、本願で提出されるビデオ画像成分の予測方法は、イントラ予測部に適用可能である。
H.266において、符号化性能及び符号化効率を更に向上させるために、成分間予測(Cross-component Prediction:CCP)に対して拡張改善を行って、成分間演算モデル予測(Cross-component Linear Model Prediction:CCLM)を提出した。H.266において、CCLMは、第1画像成分から第2画像成分、第1画像成分から第3画像成分、及び第2画像成分と第3画像成分との間の予測を実現した。以下、第1画像成分から第2画像成分の予測を例として説明するが、本願の実施例の技術的解決手段は同様に他の画像成分の予測に適用可能である。
具体的には、従来技術において、CCLM方法により、輝度成分から色度成分を予測することを実現する時、輝度成分と色度成分との間の冗長性及び異なる色度成分間の冗長性を減少させるために、例えば、266/VVC早期試験モデル(Joint Exploration Model:JEM)又はVVC試験モデル(VVC Test model:VTM)のような次世代ビデオ符号化規格のデコーダにおいて、成分間線形モデル予測モードを用いる。例えば、式(1)により、同一の符号化ブロックの再構成輝度値を利用して色度の予測値を生成する。
Figure 0007245898000001
Figure 0007245898000002
Figure 0007245898000003
Figure 0007245898000004
Figure 0007245898000005
具体的には、従来技術において、CCLM予測モードは、輝度成分により色度成分を予測する方法以外に、つまり、第1画像成分により第2画像成分を予測し、又は第1画像成分により第3画像成分を予測する方法以外に、2つの色度成分間の予測方法を更に含む。つまり、第2画像成分と第3画像成分との間の予測方法を更に含む。ここで、本願の実施例において、Cb成分からCr成分を予測できるだけでなく、Cr成分からCb成分を予測することもできる。
本願の実施例において、CCLMにおける色度成分間の予測である第2画像成分と第3画像成分との間の予測は、残差ドメインに適用可能である。Cr成分を予測することを例として、Cb残差を利用してCr残差を予測することができる。Cr成分の最終予測値は、Cr成分の従来のイントラ予測値に、重み付きの再構成Cb残差を追加することで得られる。例えば、式(3)に示すとおりである。
Figure 0007245898000006
Figure 0007245898000007
Figure 0007245898000008
Figure 0007245898000009
Figure 0007245898000010
本願の実施例において、ビデオ画像成分の予測方法は、成分の相関性に基づいた線形モデル算出方法を提出する。具体的には、線形モデルの比例因子を算出する時、第1画像成分隣接参考値、第2画像成分隣接参考値又は第3画像成分隣接参考値を考慮するだけでなく、現在符号化ブロックの第1画像成分再構成値と第1画像成分隣接参考値との相関性及び類似度合いも考慮する。続いて、類似度合いに基づいて、隣接参考画素点に対して重み付け又は選択を行い、それによって、線形モデルパラメータを現在第1画像成分再構成値により近くなり、更に、現在符号化ブロックの第2画像成分予測値又は第3画像成分予測値をより正確にすることができる。
以下、本願の実施例の図面を参照しながら、本願の実施例における技術的解決手段を明瞭かつ完全に説明する。ここで、下記各実施例において、第1画像成分は、輝度成分Yであってもよく、第2画像成分は、赤色色度成分Crであってもよく、第3画像成分は、青色色度成分Cbであってもよく、本願の実施例は、これを具体的に限定するものではない。
実施例1
本願の実施例は、ビデオ画像成分の予測方法を提供する。図7は、本願の実施例によるビデオ画像成分の予測方法を示すフローチャートである。図7に示すように、本願の実施例において、上記予測装置により行われるビデオ画像成分の予測方法は、下記ステップを含んでもよい。
ステップ101において、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得し、第1画像成分隣接参考値は、現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、第1画像成分再構成値は、現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである。
本願の実施例において、上記予測装置は、まず、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することができる。本願の実施例において、上記現在符号化ブロックは、上記予測装置により分割された、少なくとも1つの画素点を含む符号化ブロックであることに留意されたい。
本願の実施例において、上記第1画像成分隣接参考値は、上記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであることに留意されたい。ここで、サブサンプリング方式について、上記現在符号化ブロックに1つの画素点が含まれる時、対応する隣接参考点は、該1つの画素点の上側及び左側のそれぞれ1つの画素点であってもよい。上記現在符号化ブロックに複数の画素点が含まれる時、対応する隣接参考点は、該複数の画素点の上側及び左側の複数の画素点であってもよい。
更に、本願の実施例において、上記隣接参考点は、上記現在符号化ブロックに隣接する画素点であってもよい。具体的には、本願の実施例において、サブサンプリング方式について、上記隣接参考点は、上記現在符号化ブロックの左側及び上側に位置する隣接画素点であってもよい。
本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値を取得する時、上記隣接参考点に対応する全ての第1画像成分隣接参考値を取得することができる。具体的には、本願の実施例において、1つの隣接参考点が1つの第1画像成分隣接参考値に対応する。上記隣接参考点が複数の画素点である場合、上記予測装置は、上記複数の画素点に対応する複数の第1画像成分隣接参考値を取得することができる。
更に、本願の実施例において、上記第1画像成分再構成値は、上記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである。具体的には、本願の実施例において、上記現在符号化ブロックに1つの画素点が含まれる時、対応する第1画像成分の再構成パラメータは、1つであり、上記現在符号化ブロックに複数の画素点が含まれる時、対応する第1画像成分の再構成パラメータは複数である。
本願の実施例において、上記予測装置は、上記第1画像成分再構成値を取得する時、上記現在符号化ブロックに対応する全ての第1画像成分再構成値を取得することができる。具体的には、本願の実施例において、上記現在符号化ブロックにおける1つの画素点が1つの第1画像成分再構成値に対応する。
ステップ102において、第1画像成分隣接参考値及び第1画像成分再構成値に基づいて、相関係数を決定し、相関係数は、現在符号化ブロックと隣接参考点との間の画像成分乖離度合いを表すためのものである。
本願の実施例において、上記予測装置は、上記現在符号化ブロックに対応する上記第1画像成分隣接参考値及び上記第1画像成分再構成値を取得した後、上記第1画像成分隣接参考値及び上記第1画像成分再構成値に基づいて、相関係数を更に決定することができる。
本願の実施例において、上記相関係数は、上記現在符号化ブロックと上記隣接参考点との間の画像成分乖離度合いを表すためのものであってもよい。具体的には、上記相関係数は、上記現在符号化ブロックに対応する上記第1画像成分再構成値と上記隣接参考点に対応する上記第1画像成分隣接参考値との相関性を表すためのものであってもよい。
更に、本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値及び上記第1画像成分再構成値に基づいて上記相関係数を決定する時、上記第1画像成分隣接参考値と上記第1画像成分再構成値との差分計算を行うことができる。これにより、差分計算結果に基づいて、上記相関係数を更に決定することができる。それと同時に、上記予測装置は、上記第1画像成分隣接参考値及び上記第1画像成分再構成値に基づいて上記相関係数を決定する時に、上記第1画像成分隣接参考値に対応する行列及び上記第1画像成分再構成値に対応する行列に対して行列乗算を行い、行列乗算結果に基づいて、上記相関係数を更に決定することができる。
ステップ103において、相関係数を所定の重み演算モデルに入力し、隣接参考点に対応する重み係数を得る。
本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値及び上記第1画像成分再構成値に基づいて、上記相関係数を決定した後、上記相関係数を所定の重み演算モデルに入力することで、上記隣接参考点に対応する重み係数を得ることができる。
本願の実施例において、上記所定の重み演算モデルは、上記予測装置により事前に設定された、上記相関係数に基づいて重みを割り当てるための演算モデルであることに留意されたい。
更に、本願の実施例において、上記重み係数は、上記現在符号化ブロックに対応する第2画像成分予測値を予測する時、上記隣接参考点と上記現在符号化ブロックとの相関性に基づいて算出する重み値であってもよい。
本願の実施例において、上記隣接参考点における1つの参考点と上記現在符号化ブロックとの相関性が大きいほど、上記1つの参考点に対応する重み値は、大きくなることに留意されたい。
本願の実施例において、上記第2画像成分予測値を演算する時、上記隣接参考点におけるそれぞれの参考点は、いずれも、対応する上記重み係数を有することに留意されたい。
更に、本願の実施例において、上記予測装置は、上記重み係数を決定する時、上記所定の重み演算モデルにより、演算を行うことができる。具体的には、本願の実施例において、上記重み演算モデルは、式(5)に示すとおりである。
Figure 0007245898000011
Figure 0007245898000012
ステップ104において、重み係数に基づいて比例因子を決定する。
本願の実施例において、上記予測装置は、上記相関係数を所定の重み演算モデルに入力して、上記隣接参考点に対応する上記重み係数を得た後、上記重み係数に基づいて比例因子を決定することができる。
本願の実施例において、上記比例因子は、上記予測装置がビデオ画像成分予測を行う時に得た線形モデルにおける係数であってもよいことに留意されたい。
Figure 0007245898000013
ステップ105において、比例因子により、現在符号化ブロックに対応する第2画像成分予測値を得る。
本願の実施例において、上記予測装置は、上記重み係数に基づいて、上記比例因子を決定した後に、上記比例因子により、上記現在符号化ブロックに対応する第2画像成分予測値を更に得ることができる。ここで、上記第2画像成分予測値は、上記予測装置が上記現在符号化ブロックに対して第2成分予測を行う時に得た予測結果である。
本願の実施例において、上記予測装置は、上記比例因子に基づいて上記第2画像成分予測値を得る時に、上記比例因子に基づいて、ビデオ画像成分予測のための線形モデルをまず構築することができることに留意されたい。
更に、本願の実施例において、異なる予測モードにおいて、上記予測装置により構築された線形モデルも異なる。つまり、第1画像成分により第2画像成分又は第3画像成分を予測する時に構築される線形モデルは、第2画像成分と第3画像成分との間の予測を行う時に構築される線形モデルと異なる。
本願の実施例において、第1画像成分によって、第2画像成分又は第3画像成分を予測する時に得られた上記第2画像成分予測値は、上記現在符号化ブロックに対応する第2画像成分又は第第3画像成分であり、つまり、Cb成分又はCr成分である。第2画像成分と第3画像成分との間の予測を行う時に得られた上記第2画像成分予測値は、上記現在符号化ブロックに対応する第2画像成分又は第3画像成分であり、つまり、Cb成分又はCr成分である。
更に、本願の実施例において、上記予測装置は、上記比例因子に基づいて上記線形モデルを構築した後、上記線形モデルに基づいて上記現在符号化ブロックに対してビデオ画像成分予測を行うことができ、それによって、上記第2画像成分予測値を得ることができる。
更に、本願の実施例において、現在、2つのCCLM予測モードがある。1つは、単一モデルCCLM予測モードであり、もう1つは、MMLM予測モードとも呼ばれるマルチモデルCCLM(Multiple Model CCLM:MMLM)予測モードである。文字通り、単一モデルCCLM予測モードは、1つの線形モデルにより、第1画像成分から第2画像成分又は第3画像成分を予測することを実現させるものである。MMLM予測モードは、複数の線形モデルにより第1画像成分から第2画像成分又は第3画像成分を予測することを実現させるものである。例えば、MMLM予測モードにおいて、現在符号化ブロックの第1画像成分隣接参考値及び第2画像成分隣接参考値を2組に分割し、各組をいずれも、線形モデルパラメータを導出するための訓練集合とすることができる。つまり、各組は、いずれも一組の比例因子を導出することができる。従って、本願の実施例で提出されるビデオ画像成分の予測方法は、MMLM予測モードにも適用可能である。同様に、第1画像成分隣接参考値が現在符号化ブロックに対応するパラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応するパラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの第2画像成分を予測する時、第2画像成分予測値の予測精度を大幅に向上させることができる。
上記から分かるように、本願の実施例において、予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
実施例2
上記実施例1によれば、本願の実施例において、上記予測装置が前記第1画像成分隣接参考値及び前記第1画像成分再構成値に基づいて、相関係数を決定する方法は、下記ステップを含んでもよい。
ステップ102aにおいて、第1画像成分隣接参考値のうちのいずれか1つの参考値と各第1画像成分再構成値との差分値をそれぞれ算出し、いずれか1つの参考値に対応する成分差分値を得て、1つの第1画像成分隣接参考値と1つの第1画像成分再構成値は、1つの差分値に対応する。
本願の実施例において、上記予測装置は、上記現在符号化ブロックに対応する上記第1画像成分隣接参考値及び上記第1画像成分再構成値を取得した後、上記第1画像成分隣接参考値のうちのいずれか1つの参考値と各上記第1画像成分再構成値との差分値をそれぞれ算出し、上記いずれか1つの参考値に対応する成分差分値を得ることができる。
本願の実施例において、上記第1画像成分隣接参考値内の1つの参考値と上記第1画像成分再構成値内の1つの第1画像成分再構成値は、1つの差分値に対応することに留意されたい。
更に、本願の実施例において、上記予測装置により算出された上記第1画像成分隣接参考値のうちのいずれか1つの参考値と各上記第1画像成分再構成値との差分値は、上記隣接参考点と上記現在符号化ブロックとのビデオ画像成分の相関性を表すことができる。
本願の実施例において、上記成分差分値が大きいほど、上記隣接参考点と上記現在符号化ブロックとの相関性が小さいと考えられる。
ステップ102bにおいて、成分差分値のうちの最小差分値を相関係数として決定する。
本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値のうちのいずれか1つの参考値と各第1画像成分再構成値との差分値をそれぞれ算出し、上記いずれか1つの参考値に対応する上記成分差分値を得た後、上記成分差分値のうちの最小差分値を上記相関係数として決定することができる。
本願の実施例は、上記予測装置は、上記成分差分値から最小差分値を決定した後、更に、該最小差分値に基づいて、上記相関係数を決定することができることに留意されたい。
更に、本願の実施例において、上記成分差分値が小さいほど、上記隣接参考点と上記現在符号化ブロックとの相関性が大きいと考えられるため、上記予測装置は、上記成分差分値のうちの最小差分値に基づいて上記相関因子を決定することができる。
更に、本願の実施例において、上記予測装置が上記第1画像成分隣接参考値のうちのいずれか1つの参考値と各上記第1画像成分再構成値との差分値をそれぞれ算出し、上記いずれか1つの参考値に対応する成分差分値を得た後、上記重み係数に基づいて比例因子を決定する前に、上記予測装置がビデオ画像成分予測を行う方法は、下記ステップを更に含んでもよい。
ステップ106において、いずれか1つの参考値に対応する成分差分値がいずれも所定の差分値閾値より大きい場合、いずれか1つの参考値に対応する隣接参考点の重み係数をゼロとして設定する。
本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値のうちのいずれか1つの参考値と各上記第1画像成分再構成値との差分値をそれぞれ算出し、上記いずれか1つの参考値に対応する上記成分差分値を得た後、且つ上記重み係数に基づいて比例因子を決定する前に、上記いずれか1つの参考値に対応する上記成分差分値がいずれも所定の差分値閾値より大きい場合、上記予測装置は、上記いずれか1つの参考値に対応する隣接参考点の上記重み係数をゼロとして設定することができる。
本発明の実施例において、上記予測装置は、上記いずれか1つの参考値に対応する上記成分差分値を得た後、上記成分差分値を上記所定の差分値閾値と比較する。上記いずれか1つの参考値に対応する上記成分差分値がいずれも上記所定の差分値閾値より大きい場合、上記いずれか1つの第1画像成分隣接参考値が上記現在符号化ブロックから大きく乖離したと考えられる。それによって、上記予測装置は、上記いずれか1つの第1画像成分隣接参考値に対応する隣接参考点を取り除いてもよく、つまり、上記いずれか1つの参考値に対応する隣接参考点の上記重み係数をゼロとして設定する。
更に、本発明の実施例において、上記予測装置は、線形モデルを演算する前に、上記現在符号化ブロックの上記第1画像成分再構成値と上記第1画像成分隣接参考値との相関性を考慮することができる。つまり、上記第1画像成分隣接参考値と上記第1画像成分再構成値との差分値に基づいて、上記第1画像成分隣接参考値を選択する。
更に、本発明の実施例において、上記予測装置は、閾値、即ち、所定の差分値閾値を事前に設定することができ、そして、上記第1画像成分隣接参考値内の各参考値をトラバースし、上記現在符号化ブロックにおける各上記第1画像成分再構成値との差分値をそれぞれ算出する。上記第1画像成分隣接参考値内の何かしらの1つの第1画像成分隣接参考値と各上記第1画像成分再構成値との差分値の最小値が上記所定の差分値閾値より大きい場合、上記予測装置は、該隣接参考点が、正確に演算する線形モデルにとって、干渉点であると見なすことができる。従って、これを線形モデルの訓練サンプルから取り除き、これにより、干渉点が取り除かれた上記第1画像成分隣接参考値を線形モデルの訓練サンプルとして、モデルパラメータの算出を行うことができる。
本発明の実施例において、図8は、本願の実施例における干渉点を取り除く概略図である。図8に示すように、現在符号化ブロックの第1画像成分隣接参考値のうち、幾つかの第1画像成分値が現在符号化ブロックの第1画像成分再構成値から乖離している場合、線形モデルを演算する時、該点を取り除き、線形モデルの訓練サンプルとして利用しない。この場合、算出された線形モデルはより正確になる
上記から分かるように、本願の実施例において、予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
実施例3
上記実施例1に基づいて、本願の実施例において、上記予測装置が上記重み係数に基づいて比例因子を決定するステップ104の前に、上記予測装置がビデオ画像成分予測を行う方法は、下記ステップを更に含んでもよい。
ステップ107において、現在符号化ブロックに対応する第2画像成分隣接参考値を取得し、第2画像成分隣接参考値は、隣接参考点に対応する、第1画像成分パラメータと異なる第2画像成分パラメータである。
本願の実施例において、上記予測装置は、上記重み係数に基づいて上記比例因子を決定する前に、まず、前記現在符号化ブロックに対応する第2画像成分隣接参考値を取得することができる。
本願の実施例において、前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータであることに留意されたい。
本願の実施例において、前記比例因子は、第1比例パラメータ及び第2比例パラメータを含み、上記装置が前記重み係数に基づいて比例因子を決定する方法は、下記ステップを含んでもよい。
104aにおいて、重み係数、第1画像成分隣接参考値及び第2画像成分隣接参考値を第1プリセット因子演算モデルに入力し、第1比例パラメータを得る。
本発明の実施例において、上記予測装置は、上記相関係数を所定の重み演算モデルに入力し、上記第1画像成分隣接参考値に対応する上記重み係数を得た後、上記重み係数、上記第1画像成分隣接参考値及び上記第2画像成分隣接参考値を第1プリセット因子演算モデルに入力し、上記第1比例パラメータを得ることができる。
本発明の実施例において、上記予測装置が第1画像成分により第2画像成分を予測する時、上記比例因子は、上記第1比例パラメータ及び上記第2比例パラメータを含んでもよく、上記第1比例パラメータ及び上記第2比例パラメータは、上記第1画像成分再構成値に基づいて上記第2画像成分予測値を生成するためのものであることに留意されたい。
更に、本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値及び上記第2画像成分隣接参考値に基づいて上記第1比例パラメータを更に算出する時、式(6)に示すような上記第1プリセット因子演算モデルを用いることができる。
Figure 0007245898000014
Figure 0007245898000015
ステップ104bにおいて、重み係数、第1比例パラメータ、第1画像成分隣接参考値及び第2画像成分隣接参考値を第2プリセット因子演算モデルに入力し、第2比例パラメータを得る。
本願の実施例において、上記予測装置は、上記重み係数、上記第1画像成分隣接参考値及び上記第2画像成分隣接参考値を上記第1プリセット因子演算モデルに入力し、上記第1比例パラメータを得た後、引き続き、上記重み係数、上記第1比例パラメータ、上記第1画像成分隣接参考値及び上記第2画像成分隣接参考値を第2プリセット因子演算モデルに入力し、第2比例パラメータを得ることができる。
更に、本願の実施例において、上記予測装置は、上記第1画像成分隣接参考値及び上記第2画像成分隣接参考値に基づいて上記第2比例パラメータを更に算出する時、式(7)に示すような上記第2プリセット因子演算モデルを用いることができる。
Figure 0007245898000016
Figure 0007245898000017
本願の実施例において、更に、上記予測装置が前記重み係数に基づいて比例因子を決定するステップ104の前に、上記予測装置がビデオ画像成分予測を行う方法は、下記ステップを更に含んでもよい。
ステップ108において、現在符号化ブロックに対応する第2画像成分隣接参考値及び第3画像成分隣接参考値を取得し、第2画像成分隣接参考値及び第3画像成分隣接参考値はそれぞれ、隣接参考点の第2画像成分パラメータ及び第3画像成分パラメータを表す。
本願の実施例において、上記予測装置は、上記重み係数に基づいて上記比例因子を決定する前に、まず、上記現在符号化ブロックに対応する第2画像成分隣接参考値及び第3画像成分隣接参考値を取得することができる。
本願の実施例において、前記第2画像成分隣接参考値及び第3画像成分隣接参考値はそれぞれ、前記隣接参考点の第2画像成分パラメータ及び第3画像成分パラメータを表すことに留意されたい。具体的には、上記第3画像成分隣接参考値及び上記第2画像成分隣接参考値は、同一成分の間の予測を行うために用いられる。
更に、本願の実施例において、上記第3画像成分隣接参考値及び上記第2画像成分隣接参考値はそれぞれ、上記隣接参考点に対応する隣接参考Cb値及び隣接参考Cr値であってもよい。
本願の実施例において、更に、上記予測装置は、前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得るステップ105の前に、上記予測装置がビデオ画像成分予測を行う方法は、下記ステップを更に含んでもよい。
ステップ109において、現在符号化ブロックに対応する第2画像成分推定値及び第3画像成分再構成残差を取得する。
本願の実施例において、上記予測装置は、上記比例因子に基づいて、上記現在符号化ブロックに対応する上記第2画像成分予測値を得る前に、まず、上記現在符号化ブロックに対応する第2画像成分推定値及び第3画像成分再構成残差を取得することができる。
本願の実施例において、上記第2画像成分推定値は、上記現在符号化ブロックに対応する第2画像成分に基づいて従来の成分予測を行うことで得られたものであり、上記第3画像成分再構成残差は、上記現在符号化ブロックに対応する第3画像成分の予測残差を表すためのものであることに留意されたい。
本願の実施例において、更に、前記比例因子は、第3比例パラメータを含み、上記予測装置が前記重み係数に基づいて比例因子を決定する方法は、下記ステップを含んでもよい。
ステップ104cにおいて、重み係数、第3画像成分隣接参考値及び第2画像成分隣接参考値を第3プリセット因子演算モデルに入力し、第3比例パラメータを得る。
本発明の実施例において、上記予測装置は、上記相関係数を所定の重み演算モデルに入力し、上記隣接参考点に対応する上記重み係数を得た後、上記重み係数、上記第3画像成分隣接参考値及び上記第2画像成分隣接参考値を第3プリセット因子演算モデルに入力し、上記第3比例パラメータを得ることができる。
本発明の実施例において、上記予測装置が第2画像成分と第3画像成分との間の予測を行う時、上記比例因子は、上記第3比例パラメータを含んでもよいことに留意されたい。
更に、本願の実施例において、上記予測装置が上記第3画像成分隣接参考値及び上記第2画像成分隣接参考値に基づいて上記第3比例パラメータを更に算出する時、式(8)に示すような上記第3プリセット因子演算モデルを用いることができる。
Figure 0007245898000018
Figure 0007245898000019
上記から分かるように、本願の実施例において、予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
実施例4
上記実施例3によれば、本願の実施例において、上記予測装置が前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得る方法は、下記ステップを含んでもよい。
ステップ105aにおいて、第1比例パラメータ、第2比例パラメータ及び第1画像成分再構成値に基づいて、第2画像成分予測値を得る。
本願の実施例において、上記予測装置は、上記重み係数に基づいて上記比例因子を決定した後、上記第1比例パラメータ、上記第2比例パラメータを含む比例因子及び上記第1画像成分再構成値に基づいて、上記第2画像成分予測値を更に得ることができる。
本願の実施例において、上記予測装置は、上記第1比例パラメータ、上記第2比例パラメータを含む比例因子を得た後、上記第1比例パラメータ、上記第2比例パラメータ及び上記第1画像成分再構成値に基づいて、ビデオ画像成分予測を行うための線形モデルを構築することができる。これにより、該線形モデルに基づいて上記現在符号化ブロックの第2画像成分を構築し、上記第2画像成分予測値を得ることができる。
更に、本願の実施例において、上記予測装置は、上記式(1)により、上記第2画像成分予測値を決定することができる。つまり、上記予測装置は、上記第1比例パラメータ、上記第2比例パラメータ及び上記第1画像成分再構成値に基づいて、上記第2画像成分予測値を算出することができる。
本願の実施例において、上記予測装置が前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得る方法は下記ステップを更に含んでもよい。
ステップ105bにおいて、第3比例パラメータ、第2画像成分推定値及び第3画像成分再構成残差に基づいて、第2画像成分予測値を得る。
本願の実施例において、上記予測装置は、上記重み係数に基づいて上記比例因子を決定した後、上記第3比例パラメータを含む比例因子、上記第2画像成分推定値及び上記第3画像成分再構成残差に基づいて、上記第2画像成分予測値を更に得ることができる。
本願の実施例において、上記予測装置は、上記第3比例パラメータを含む比例因子を得た後、上記第3比例パラメータ、上記第2画像成分推定値及び上記第3画像成分再構成残差に基づいて、ビデオ画像成分予測のための線形モデルを構築することができる。これにより、該線形モデルに基づいて上記現在符号化ブロックの第2画像成分を構築し、上記第2画像成分予測値を得ることができる。
更に、本願の実施例において、上記予測装置は、上記式(3)により、上記第2画像成分予測値を決定することができる。つまり、上記予測装置は、上記第3比例パラメータ、上記第2画像成分推定値及び上記第3画像成分再構成残差に基づいて、上記第2画像成分予測値を算出することができる。
上記から分かるように、本願の実施例において、予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
実施例5
上記実施例1から実施例4と同様の発明構想によれば、図9は、本願の実施例による予測装置の構造を示す第1概略図である。図9に示すように、本願の実施例による予測装置1は、取得部11と、決定部12と、設定部13と、を備えてもよい。
取得部11は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得するように構成され、前記第1画像成分隣接参考値は、前記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである。
決定部12は、取得部11が現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得した後、前記第1画像成分隣接参考値及び前記第1画像成分再構成値に基づいて、相関係数を決定するように構成され、前記相関係数は、前記現在符号化ブロックと前記隣接参考点との間の画像成分乖離度合いを表すためのものである。
取得部11は更に、決定部12が前記第1画像成分隣接参考値及び前記第1画像成分再構成値に基づいて、相関係数を決定した後、前記相関係数を所定の重み演算モデルに入力し、前記隣接参考点に対応する重み係数を得るように構成される。
決定部12は更に、取得部11が前記相関係数を所定の重み演算モデルに入力し、前記隣接参考点に対応する重み係数を得た後、前記重み係数に基づいて比例因子を決定するように構成される。
取得部11は更に、決定部12が前記重み係数に基づいて比例因子を決定した後、前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得るように構成される。
更に、本願の実施例において、前記決定部12は具体的には、前記第1画像成分隣接参考値のうちのいずれか1つの参考値と各前記第1画像成分再構成値との差分値をそれぞれ算出し、前記いずれか1つの参考値に対応する成分差分値を得るように構成され、1つの第1画像成分隣接参考値と1つの第1画像成分再構成値は、1つの差分値に対応し、前記決定部12は具体的には、前記成分差分値のうちの最小差分値を前記相関係数として決定するように構成される。
更に、本願の実施例において、前記取得部11は更に、前記重み係数に基づいて比例因子を決定する前に、前記現在符号化ブロックに対応する第2画像成分隣接参考値を取得するように構成され、前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータである。
更に、本願の実施例において、前記比例因子は、第1比例パラメータ及び第2比例パラメータを含み、前記決定部12は更に具体的には、前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値を第1プリセット因子演算モデルに入力し、前記第1比例パラメータを得て、前記重み係数、前記第1比例パラメータ、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値を第2プリセット因子演算モデルに入力し、前記第2比例パラメータを得るように構成される。
更に、本願の実施例において、前記取得部11は更に、前記重み係数に基づいて比例因子を決定する前に、前記現在符号化ブロックに対応する第3画像成分隣接参考値及び第2画像成分隣接参考値を取得するように構成され、前記第2画像成分隣接参考値及び第3画像成分隣接参考値はそれぞれ、前記隣接参考点の第2画像成分パラメータ及び第3画像成分パラメータを表す。
更に、本願の実施例において、取得部11は更に、前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得る前に、前記現在符号化ブロックに対応する第2画像成分推定値及び第3画像成分再構成残差を取得するように構成され、前記第2画像成分推定値は、前記現在符号化ブロックに対応する第2画像成分に基づいて成分予測を行うことによって得られたものであり、前記第3画像成分再構成残差は、前記現在符号化ブロックに対応する予測残差を表すためのものである。
更に、本願の実施例において、前記比例因子は、第3比例パラメータを含み、決定部12は更に具体的には、前記重み係数、前記第2画像成分隣接参考値及び前記第3画像成分隣接参考値を第3プリセット因子演算モデルに入力し、前記第3比例パラメータを得るように構成される。
更に、本願の実施例において、取得部11は具体的には、前記第1比例パラメータ、前記第2比例パラメータ及び前記第1画像成分再構成値に基づいて、前記第2画像成分予測値を得るように構成される。
更に、本願の実施例において、取得部11は更に具体的には、前記第3比例パラメータ、前記第2画像成分推定値及び前記第3画像成分再構成残差に基づいて、前記第2画像成分予測値を得るように構成される。
更に、本願の実施例において、設定部13は、前記第1画像成分隣接参考値のうちのいずれか1つの参考値と各前記第1画像成分再構成値との差分値をそれぞれ算出し、前記いずれか1つの参考値に対応する成分差分値を得た後、且つ、前記重み係数に基づいて比例因子を決定する前に、前記いずれか1つの参考値に対応する成分差分値がいずれも所定の差分値閾値より大きい場合、前記いずれか1つの参考値に対応する隣接参考点の重み係数をゼロとして設定するように構成される。
図10は、本願の実施例による予測装置の構造を示す第2概略図である。図10に示すように、本願の実施例による予測装置1は、プロセッサ14と、プロセッサ14による実行可能な命令を記憶するメモリ15と、通信インタフェース16と、プロセッサ14、メモリ15及び通信インタフェース16を接続するためのバス17と、を備えてもよい。
本願の実施例において、上記プロセッサ14は、特定用途向け集積回路(Application Specific Intergrated Circuit:ASIC)、デジタル信号プロセッサ(Digital Signal Processor:DSP)、デジタル信号処理装置(Digital Signal Processing Device:DSPD)、プログラマブルロジックデバイス(ProgRAMmable Logic Device:PLD)、現場でプログラム可能なゲートアレイ(Field ProgRAMmable Gate Array:FPGA)、中央演算装置(Central Processing Unit:CPU)、コントローラ、マイクロコントローラ、マイクロプロセッサのうちの少なくとも1つであってもよい。異なる装置について、上記プロセッサ機能を実現させるための電子機器は、他のものであってもよく、本願の実施例は、これを具体的に限定するものではないことが理解されるべきである。装置1は、メモリ15を更に備えてもよい。該メモリ15は、プロセッサ14に接続されてもよい。メモリ15は、実行可能なプログラムコードを記憶するように構成され、該プログラムコードは、コンピュータ操作命令を含む。メモリ15は、高速RAMメモリを含んでもよく、例えば、少なくとも2つの磁気ディスクメモリのような不揮発性メモリを含んでもよい。
本願の実施例において、バス17は、通信インタフェース16、プロセッサ14及びメモリ15を接続してこれらの素子間の相互通信に用いられる。
本願の実施例において、メモリ15は、命令及びデータを記憶するように構成される。
更に、本願の実施例において、上記プロセッサ14は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することであって、第1画像成分隣接参考値は、現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、第1画像成分再構成値は、現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである、ことと、第1画像成分隣接参考値及び第1画像成分再構成値に基づいて、相関係数を決定することであって、相関係数は、現在符号化ブロックと隣接参考点との間の画像成分乖離度合いを表すためのものである、ことと、相関係数を所定の重み演算モデルに入力し、隣接参考点に対応する重み係数を得ることと、重み係数に基づいて比例因子を決定することと、比例因子により、現在符号化ブロックに対応する第2画像成分予測値を得ることと、を実行するように構成される。
実際の適用において、上記メモリ15は、ランダムアクセス第1メモリ(Random-Access Memory:RAM)のような揮発性第1メモリ(volatile memory)であってもよく、又は、読出し専用第1メモリ(Read-Only Memory:ROM)、フラッシュ第1メモリ(flash memory)、ハードディスク(Hard Disk Drive:HDD)又はソリッドステートドライブ(Solid-State Drive:SSD)のような不揮発性第1メモリ(non-volatile memory)であってもよく、又は上記第1メモリの組み合わせであってもよい。これは、プロセッサ14に命令及びデータを提供する。
なお、本実施例における各機能モジュールは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットは、ハードウェアの形態で実現してもよく、ソフトウェア機能モジュールの形態で実現してもよい。
集積したユニットはソフトウェア機能モジュールの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本発明の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ設備(パソコン、サーバ、又はネットワーク装置など)又はprocessor(プロセッサ)に、本実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、USBメモリ、リムーバブルハードディスク、読み出し専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなどの、プログラムコードを記憶できる種々の媒体を含む。
本願の実施例は予測装置を提供する。該予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて、相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。
本願の実施例は、第1コンピュータ可読記憶媒体を提供する。前記第1コンピュータ可読記憶媒体にプログラムが記憶されており、該プログラムがプロセッサにより実行される時、実施例1から実施例4に記載の方法を実現させる。
具体的には、本実施例におけるビデオ画像成分の予測方法に対応するプログラム命令は、光ディスク、ハードディスク、USBメモリなどの記憶媒体に記憶されてもよい。記憶媒体におけるビデオ画像成分の予測方法に対応するプログラム命令が電子機器により読み取られるか又は実行される時、
現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することであって、前記第1画像成分隣接参考値は、前記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである、ことと、
前記第1画像成分隣接参考値及び前記第1画像成分再構成値に基づいて、相関係数を決定することであって、前記相関係数は、前記現在符号化ブロックと前記隣接参考点との間の画像成分乖離度合いを表すためのものである、ことと、
前記相関係数を所定の重み演算モデルに入力し、前記隣接参考点に対応する重み係数を得ることと、
前記重み係数に基づいて比例因子を決定することと、
前記比例因子により、前記現在符号化ブロックに対応する第2画像成分予測値を得ることと、を含む。
当業者であれば、本願の実施例は、方法、システム、又はコンピュータプログラム製品として提供されてもよいことを理解すべきである。従って、本願は、ハードウェア実施例、ソフトウェア実施例、又はソフトウェアとハードウェアを組み合わせた実施例の形態を用いることができる。また、本願は、コンピュータ利用可能なプログラムコードを含む1つ又は複数のコンピュータ利用可能な記憶媒体(磁気ディスクメモリ及び光学メモリ等を含むが、これらに限定されない)で実行されるコンピュータプログラム製品の形態としてもよい。
本発明は、本発明の実施例に基づく方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明されたものである。コンピュータプログラム命令によりフローチャート及び/又はブロック図における各フロー及び/又はブロック、及びフローチャート及び/又はブロック図における各フロー及び/又はブロックの組み合わせを実現することができることが理解されるべきである。これらのコンピュータプログラム命令を汎用コンピュータ、専用コンピュータ、埋め込みプロセッサ又は他のプログラマブルデータ処理装置のプロセッサへ提供することで機器を構成する。それによって、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行する命令が、フローチャートにおける1つのフロー又は複数のフロー及び/又はブロック図における1つのブロック又は複数のブロックで指定された機能を実現させるための装置を構成する。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラマブルデータ処理装置を所定の方式で動作させるように指示することができるコンピュータ可読メモリに記憶されてもよく。これにより該コンピュータ可読メモリに記憶されている命令により、命令装置を備える製品を構成し、該命令装置は、フローチャートにおける1つのフロー又は複数のフロー及び/又はブロック図における1つのブロック又は複数のブロックで指定された機能を実現させる。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラマブルデータ処理装置にインストールされてもよい。これにより、コンピュータ又は他のプログラマブルデータ処理装置上で一連の操作を実行してコンピュータにより実行される処理を生成する。これによりコンピュータ又は他のプログラマブルデータ処理装置上で実行される指令により、フローチャートにおける1つのフロー又は複数のフロー及び/又はブロック図における1つのブロック又は複数のブロックで指定された機能を実現させるための工程を提供する。
以上は、本発明の好適な実施例に過ぎず、本発明の保護範囲を限定するものではない。
本願の実施例は、ビデオ画像成分の予測方法、装置、及びコンピュータ記憶媒体を提供する。予測装置は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値に基づいて相関係数を決定することができる。これにより、隣接参考点と現在符号化ブロックとの間の成分パラメータの相関性に基づいて、異なる隣接参考点に異なる重み係数を割り当て、所望モデルに更に合致する線形モデルを構築することができる。これにより、第1画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、又は、第3画像成分隣接参考値が現在符号化ブロックに対応する成分パラメータから大きく乖離した場合、線形モデルが所望モデルから乖離するという欠陥を解消することができる。更に、該線形モデルに基づいて、現在符号化ブロックの成分を予測する時、ビデオ画像成分予測値の予測精度を大幅に向上させ、ビデオ画像成分予測を真実のビデオ画像成分値に更に近くすることができる。

Claims (34)

  1. ビデオ画像成分の予測方法であって、前記方法は、デコーダに適用され、
    現在ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することであって、前記第1画像成分隣接参考値は、前記現在ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである、ことと、
    前記隣接参考点に対応する重み係数を決定することと、
    前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定することと、
    前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得ることと、を含み、
    前記隣接参考点に対応する重み係数を決定することは
    前記現在ブロックと前記隣接参考点との間の相関性に基づいて、前記重み係数を決定することを含むことを特徴とする、
    ビデオ画像成分の予測方法。
  2. 前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定する前に、前記方法は、
    前記現在ブロックに対応する第2画像成分隣接参考値を取得することを更に含み、前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータであることを特徴とする、
    請求項1に記載の方法。
  3. 前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定することは、
    前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値をプリセット因子演算モデルに入力し、前記比例因子を得ること、を含むことを特徴とする、
    請求項に記載の方法。
  4. 前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得る前に、前記方法は、
    前記現在ブロックに対応する第2画像成分推定値を取得することを更に含み、前記第2画像成分推定値は、前記現在ブロックに対応する第2画像成分に基づいて成分予測を行うことによって得られたものであることを特徴とする、
    請求項に記載の方法。
  5. 前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得ることは、
    前記比例因子に対応する線形モデル、及び前記第1画像成分再構成値に基づいて、前記第2画像成分予測値を得ることを含むことを特徴とする、
    請求項に記載の方法。
  6. 前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得ることは、
    前記比例因子及び前記第2画像成分推定値に基づいて、前記第2画像成分予測値を得ることを含むことを特徴とする、
    請求項に記載の方法。
  7. 前記方法は、
    一部の参考値に対応する一部の参考点の重み係数をゼロに設定することであって、前記一部の参考点と前記現在ブロックとの位置上の相関性が所定閾値を満たさないこと、又は、
    前記隣接参考点から一部の参考点を取り除くことであって、前記一部の参考点と前記現在ブロックとの位置上の相関性が所定閾値を満たさないこと、又は、
    前記隣接参考点に対して選択処理を行うこと、を更に含むことを特徴とする、
    請求項1に記載の方法。
  8. 前記隣接参考点に対して選択処理を行うことは、
    前記隣接参考点に対してサブサンプリング処理を行い、一部の参考点を決定することを含むことを特徴とする、
    請求項に記載の方法。
  9. 前記隣接参考点は、前記現在ブロックの上側の画素点、及び前記現在ブロックの左側の画素点のうちの少なくとも一つを含ことを特徴とする、
    請求項1に記載の方法。
  10. 前記比例因子は前記線形モデルの係数であり、前記線形モデルは第1画像成分に基づいて第2画像成分を予測するためのものであることを特徴とする、
    請求項1に記載の方法。
  11. デコーダであって、取得部と決定部とを含み、
    前記取得部は、現在ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得するように構成され、前記第1画像成分隣接参考値は、前記現在ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものであり、
    前記決定部は、前記隣接参考点に対応する重み係数を決定し、前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定するように構成され、
    前記取得部は、前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得るようにさらに構成され
    前記決定部は、
    前記現在ブロックと前記隣接参考点との間の相関性に基づいて、前記重み係数を決定するように構成される、
    デコーダ。
  12. 前記取得部は、
    前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定する前に、
    前記現在ブロックに対応する第2画像成分隣接参考値を取得するように構成され、
    前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータである、
    請求項11に記載のデコーダ。
  13. 前記決定部は、前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値をプリセット因子演算モデルに入力し、前記比例因子を得るように構成され、
    前記取得部は、前記比例因子に対応する線形モデル、及び前記第1画像成分再構成値に基づいて、前記第2画像成分予測値を得るようにさらに構成される、
    請求項12に記載のデコーダ。
  14. 前記取得部は、
    前記比例因子に対応する線形モデルに基づいて、前記現在ブロックに対応する第2画像成分予測値を得る前に、
    前記現在ブロックに対応する第2画像成分推定値を取得するように構成され、
    前記第2画像成分推定値は、前記現在ブロックに対応する第2画像成分に基づいて成分予測を行うことによって得られたものである、
    請求項12に記載のデコーダ。
  15. 前記デコーダは、一部の参考値に対応する一部の参考点の重み係数をゼロに設定するように構成される設定部を更に含み、前記一部の参考点と前記現在ブロックとの位置上の相関性が所定閾値を満たさなく、
    前記決定部は、前記隣接参考点から一部の参考点を取り除き、前記一部の参考点と前記現在ブロックとの位置上の相関性が所定閾値を満たさなく、又は、前記隣接参考点に対して選択処理を行うように構成される、
    請求項11に記載のデコーダ。
  16. 前記決定部は、
    前記隣接参考点に対してサブサンプリング処理を行い、一部の参考点を決定する構成される、
    請求項15に記載のデコーダ。
  17. 前記隣接参考点は、前記現在ブロックの上側の画素点、及び前記現在ブロックの左側の画素点のうちの少なくとも一つを含
    請求項11に記載のデコーダ。
  18. ビデオ画像成分の予測方法であって、エンコーダに適用され、
    現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得することであって、前記第1画像成分隣接参考値は、前記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものである、ことと、
    前記隣接参考点に対応する重み係数を決定することと、 前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定することと、
    前記比例因子に対応する線形モデルに基づいて、前記現在符号化ブロックに対応する第2画像成分予測値を得ることと、を含み、
    前記隣接参考点に対応する重み係数を決定することは
    前記現在符号化ブロックと前記隣接参考点との間の相関性に基づいて、前記重み係数を決定することを含むことを特徴とする、
    ビデオ画像成分の予測方法。
  19. 前記第1画像成分隣接参考値、及び前記重み係数に基づいて比例因子を決定する前に、前記方法は、
    前記現在符号化ブロックに対応する第2画像成分隣接参考値を取得することであって、前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータである、ことを更に含むことを特徴とする
    請求項18に記載の方法。
  20. 前記第1画像成分隣接参考値、及び前記重み係数に基づいて比例因子を決定することは、
    前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値をプリセット因子演算モデルに入力し、前記比例因子を得ること、を含むことを特徴とする、
    請求項19に記載の方法。
  21. 前記現在符号化ブロックに対応する第1画像成分隣接参考値と第1画像成分再構成値は、少なくとも2グループの第1画像成分隣接参考値と第1画像成分再構成値を含み、
    各グループの第1画像成分隣接参考値と第1画像成分再構成値に対して、重み係数をそれぞれ決定することと、
    前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値をプリセット因子演算モデルに入力し、前記少なくとも2グループの第1画像成分隣接参考値と第1画像成分再構成値が対応する少なくとも2グループの比例因子を得ることと、
    前記少なくとも2グループの比例因子から1グループの比例因子を選択することと、を含む、
    請求項19に記載の方法。
  22. 前記比例因子に対応する線形モデルに基づいて、前記現在符号化ブロックに対応する第2画像成分予測値を得る前に、前記方法は、
    前記現在符号化ブロックに対応する第2画像成分推定値を取得することであって、前記第2画像成分推定値は、前記現在符号化ブロックに対応する第2画像成分に基づいて成分予測を行うことによって得られたものである、ことを更に含むことを特徴とする
    請求項19に記載の方法。
  23. 前記比例因子に対応する線形モデルに基づいて、前記現在符号化ブロックに対応する第2画像成分予測値を得る前に、前記方法は、
    前記比例因子に対応する線形モデル、及び前記第1画像成分再構成値に基づいて、前記第2画像成分予測値を得ることを含むことを特徴とする、
    請求項20に記載の方法。
  24. 前記比例因子に対応する線形モデルに基づいて、前記現在符号化ブロックに対応する第2画像成分予測値を得ることは、
    前記比例因子及び前記第2画像成分推定値に基づいて、前記第2画像成分予測値を得ることを含むことを特徴とする
    請求項22に記載の方法。
  25. 前記方法は、
    一部の参考値に対応する一部の参考点の重み係数をゼロに設定することであって、前記一部の参考点と前記現在符号化ブロックとの位置上の相関性が所定閾値を満たさないこと、又は、
    前記隣接参考点から一部の参考点を取り除くことであって、前記一部の参考点と前記現在符号化ブロックとの位置上の相関性が所定閾値を満たさないこと、又は、
    前記隣接参考点に対して選択処理を行うこと、を更に含むことを特徴とする、
    請求項18に記載の方法。
  26. 前記隣接参考点に対して選択処理を行うことは、
    前記隣接参考点に対してサブサンプリング処理を行い、一部の参考点を決定することを含むことを特徴とする、
    請求項25に記載の方法。
  27. 前記隣接参考点は、前記現在符号化ブロックの上側の画素点、及び前記現在符号化ブロックの左側の画素点のうちの少なくとも一つを含ことを特徴とする、
    請求項18に記載の方法。
  28. 前記比例因子は前記線形モデルの係数であり、前記線形モデルは第1画像成分に基づいて第2画像成分を予測するためのものであることを特徴とする、
    請求項18に記載の方法。
  29. エンコーダであって、前記エンコーダは、取得部と、決定部と、を備え、
    前記取得部は、現在符号化ブロックに対応する第1画像成分隣接参考値及び第1画像成分再構成値を取得するように構成され、前記第1画像成分隣接参考値は、前記現在符号化ブロックの隣接参考点に対応する第1画像成分パラメータを表すためのものであり、前記第1画像成分再構成値は、前記現在符号化ブロックに対応する1つ又は複数の第1画像成分の再構成パラメータを表すためのものであり、
    前記決定部は、前記隣接参考点に対応する重み係数を決定し、前記第1画像成分隣接参考値、及び前記重み係数に基づいて、比例因子を決定するように構成され、
    前記取得部は更に、前記比例因子に対応する線形モデルに基づいて、前記現在符号化ブロックに対応する第2画像成分予測値を得るように構成され
    前記決定部は、
    前記現在符号化ブロックと前記隣接参考点との間の相関性に基づいて、前記重み係数を決定するように構成される、
    エンコーダ。
  30. 前記取得部は更に、前記第1画像成分隣接参考値、及び前記重み係数に基づいて比例因子を決定する前に、前記現在符号化ブロックに対応する第2画像成分隣接参考値を取得するように構成され、前記第2画像成分隣接参考値は、前記隣接参考点に対応する、前記第1画像成分パラメータと異なる第2画像成分パラメータであることを特徴とする
    請求項29に記載のエンコーダ。
  31. 前記現在符号化ブロックに対応する第1画像成分隣接参考値と第1画像成分再構成値は、少なくとも2グループの第1画像成分隣接参考値と第1画像成分再構成値を含み、
    前記決定部は更に具体的には、
    各グループの第1画像成分隣接参考値と第1画像成分再構成値に対して、重み係数をそれぞれ決定し、
    前記重み係数、前記第1画像成分隣接参考値及び前記第2画像成分隣接参考値をプリセット因子演算モデルに入力し、前記少なくとも2グループの第1画像成分隣接参考値と第1画像成分再構成値が対応する少なくとも2グループの比例因子を得、
    前記少なくとも2グループの比例因子から1グループの比例因子を選択するように構成されることを特徴とする
    請求項30に記載のエンコーダ。
  32. 前記取得部は、
    前記比例因子に対応する線形モデル、及び前記第1画像成分再構成値に基づいて、前記第2画像成分予測値を得るように構成されることを含むことを特徴とする、
    請求項29に記載のエンコーダ。
  33. 前記エンコーダは、設定部を更に含み、
    前記設定部は、一部の参考値に対応する一部の参考点の重み係数をゼロに設定するように構成され、前記一部の参考点と前記現在符号化ブロックとの位置上の相関性が所定閾値を満たさなく、
    前記決定部は、前記隣接参考点から一部の参考点を取り除くように構成され、前記一部の参考点と前記現在符号化ブロックとの位置上の相関性が所定閾値を満たさなく、又は、
    前記決定部は、前記隣接参考点に対して選択処理を行うように構成される、
    請求項29に記載のエンコーダ。
  34. 前記隣接参考点は、前記現在符号化ブロックの上側の画素点、及び前記現在符号化ブロックの左側の画素点のうちの少なくとも一つを含ことを特徴とする、
    請求項29に記載のエンコーダ。
JP2021506654A 2018-08-09 2018-08-09 ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体 Active JP7245898B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/099703 WO2020029202A1 (zh) 2018-08-09 2018-08-09 视频图像分量的预测方法和装置、及计算机存储介质

Publications (2)

Publication Number Publication Date
JP2022501863A JP2022501863A (ja) 2022-01-06
JP7245898B2 true JP7245898B2 (ja) 2023-03-24

Family

ID=69414408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506654A Active JP7245898B2 (ja) 2018-08-09 2018-08-09 ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体

Country Status (15)

Country Link
US (3) US11218701B2 (ja)
EP (2) EP3823284B1 (ja)
JP (1) JP7245898B2 (ja)
KR (1) KR20210041603A (ja)
CN (5) CN113132722B (ja)
AU (1) AU2018436324B2 (ja)
BR (1) BR112021002310A2 (ja)
CA (1) CA3109014C (ja)
IL (1) IL280695A (ja)
MX (1) MX2021001570A (ja)
PH (1) PH12021550291A1 (ja)
RU (1) RU2771350C1 (ja)
SG (1) SG11202101310PA (ja)
WO (1) WO2020029202A1 (ja)
ZA (1) ZA202101046B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113365067B (zh) * 2021-05-21 2023-03-14 中山大学 基于位置加权的色度线性预测方法、装置、设备及介质
CN118614063A (zh) * 2022-01-25 2024-09-06 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质
WO2023197192A1 (zh) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质
WO2023197191A1 (zh) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质
CN115422986B (zh) * 2022-11-07 2023-08-22 深圳传音控股股份有限公司 处理方法、处理设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045207A1 (en) 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101375605A (zh) * 2006-01-31 2009-02-25 汤姆森许可贸易公司 用于实现降低分辨率更新模式的限制预测以及视频编码器和解码器中的复杂度可分级的方法和装置
KR101200865B1 (ko) * 2006-03-23 2012-11-13 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101311403B1 (ko) * 2006-07-04 2013-09-25 삼성전자주식회사 영상의 부호화 방법 및 장치, 복호화 방법 및 장치
KR101362757B1 (ko) * 2007-06-11 2014-02-14 삼성전자주식회사 인터 컬러 보상을 이용한 영상의 부호화 방법 및 장치,복호화 방법 및 장치
CN101600109A (zh) * 2009-07-13 2009-12-09 北京工业大学 基于纹理和运动特征的h.264降尺寸转码方法
US8619857B2 (en) * 2010-04-09 2013-12-31 Sharp Laboratories Of America, Inc. Methods and systems for intra prediction
CN102972028B (zh) * 2010-05-17 2015-08-12 Lg电子株式会社 新的帧内预测模式
RU2699253C2 (ru) * 2010-09-03 2019-09-04 Гуандун Оппо Мобайл Телекоммьюникейшнз Корп., Лтд. Способ и система для компенсации освещенности и перехода при кодировании и обработке видеосигнала
KR101774392B1 (ko) * 2010-12-22 2017-09-04 엘지전자 주식회사 화면 내 예측 방법 및 이러한 방법을 사용하는 장치
JP2014534746A (ja) * 2011-11-07 2014-12-18 インテル コーポレイション クロスチャネル残差予測
CN103379321B (zh) 2012-04-16 2017-02-01 华为技术有限公司 视频图像分量的预测方法和装置
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
CN113259681B (zh) * 2013-04-08 2024-08-23 Ge视频压缩有限责任公司 分量间预测
CN108353185B (zh) * 2015-08-28 2022-09-13 株式会社Kt 用于处理视频信号的方法和设备
US10390015B2 (en) * 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
CN107580222B (zh) * 2017-08-01 2020-02-14 北京交通大学 一种基于线性模型预测的图像或视频编码方法
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
KR20210158432A (ko) * 2018-05-12 2021-12-30 주식회사 윌러스표준기술연구소 참조 샘플을 이용하는 비디오 신호 처리 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018045207A1 (en) 2016-08-31 2018-03-08 Qualcomm Incorporated Cross-component filter

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, Jianle et al.,Algorithm Description of Joint Exploration Test Model 6 (JEM 6),Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 6th Meeting: Hobart, AU, 31 March - 7 April 2017, [JVET-F1001-v2],JVET-F1001 (version 2),ITU-T,2017年05月31日,<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/6_Hobart/wg11/JVET-F1001-v2.zip>: JVET-F1001-v2.docx: pp.10-12

Also Published As

Publication number Publication date
RU2771350C1 (ru) 2022-05-04
IL280695A (en) 2021-03-25
US20220038699A1 (en) 2022-02-03
SG11202101310PA (en) 2021-03-30
CN113132722A (zh) 2021-07-16
CN116033149A (zh) 2023-04-28
WO2020029202A1 (zh) 2020-02-13
MX2021001570A (es) 2021-04-13
ZA202101046B (en) 2022-07-27
JP2022501863A (ja) 2022-01-06
EP3823284A4 (en) 2021-07-14
EP3823284A1 (en) 2021-05-19
CN112534819A (zh) 2021-03-19
US20210160505A1 (en) 2021-05-27
EP3823284B1 (en) 2023-10-11
EP4254955A2 (en) 2023-10-04
EP4254955A3 (en) 2023-12-06
AU2018436324B2 (en) 2022-12-15
CA3109014A1 (en) 2020-02-13
EP3823284C0 (en) 2023-10-11
US11743466B2 (en) 2023-08-29
CN113132722B (zh) 2023-02-17
AU2018436324A1 (en) 2021-03-11
US11218701B2 (en) 2022-01-04
CA3109014C (en) 2024-04-09
US20230362379A1 (en) 2023-11-09
CN115988204A (zh) 2023-04-18
BR112021002310A2 (pt) 2021-05-04
PH12021550291A1 (en) 2021-10-11
KR20210041603A (ko) 2021-04-15
CN116132668A (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
JP7245898B2 (ja) ビデオ画像成分の予測方法、装置及びコンピュータ記憶媒体
JP6843239B2 (ja) 符号化ユニットの深さ特定方法及び装置
JP2018523374A5 (ja)
CN104904220B (zh) 用于深度图像的编码、解码设备以及编码、解码方法
JPWO2014054267A1 (ja) 画像符号化装置及び画像符号化方法
JP6517691B2 (ja) 少なくとも1つの第2の画像成分の参照ブロックに対して第1の画像成分の現在ブロックを符号化するための方法、符号化装置および対応するコンピュータプログラム
KR20210042355A (ko) 비디오 이미지 성분의 예측 방법, 장치 및 컴퓨터 저장 매체
KR102206980B1 (ko) 이미지 인코딩 방법, 이미지 디코딩 방법, 인코딩 장치, 및 디코딩 장치
JP2019528634A (ja) インターフレーム予測符号化方法および装置
JP7383720B2 (ja) 画像成分予測方法、エンコーダ、デコーダ及び記憶媒体
CN115941871A (zh) 视频插帧方法、装置、计算机设备和存储介质
JP7535057B2 (ja) 画像予測方法、エンコーダ、デコーダ及び記憶媒体
CN103688542A (zh) 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序以及图像解码程序
JP6080077B2 (ja) 画像符号化方法及び画像符号化装置
KR102162998B1 (ko) Hevc 인코더에서 움직임 예측의 병렬처리 이후 발생하는 표준 amvp 생성 시간 단축 방법 및 장치
CN117714684A (zh) 帧内预测模式选取方法、装置、计算机设备和存储介质
CN113508596A (zh) 帧内预测方法、装置及计算机存储介质
CN118612449A (zh) 图像处理方法及装置、色彩重建模型训练方法及装置
KR20210141683A (ko) 이미지 요소의 예측 방법, 인코더, 디코더 및 컴퓨터 저장 매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7245898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150