JP7518065B2 - ビデオ画像成分予測方法および装置、コンピュータ記憶媒体 - Google Patents

ビデオ画像成分予測方法および装置、コンピュータ記憶媒体 Download PDF

Info

Publication number
JP7518065B2
JP7518065B2 JP2021517944A JP2021517944A JP7518065B2 JP 7518065 B2 JP7518065 B2 JP 7518065B2 JP 2021517944 A JP2021517944 A JP 2021517944A JP 2021517944 A JP2021517944 A JP 2021517944A JP 7518065 B2 JP7518065 B2 JP 7518065B2
Authority
JP
Japan
Prior art keywords
image component
component
prediction
value
reference value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021517944A
Other languages
English (en)
Other versions
JPWO2020073990A5 (ja
JP2022503990A (ja
Inventor
フオ、チュンイェン
ワン、シューアイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2022503990A publication Critical patent/JP2022503990A/ja
Publication of JPWO2020073990A5 publication Critical patent/JPWO2020073990A5/ja
Application granted granted Critical
Publication of JP7518065B2 publication Critical patent/JP7518065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Description

本願の実施例は、ビデオ符号化・復号化の技術分野に関し、特に、ビデオ画像成分予測方法および装置、コンピュータ記憶媒体に関する。
人々からのビデオ表示品質に対する要求の増加に伴い、高解像度および超高解像度ビデオなどの新しいビデオアプリケーションが出現した。このような高解像度、高品質のビデオ鑑賞アプリケーションの拡張が進むにつれて、ビデオ圧縮技術に対する要件も高まっている。H.265/高效率ビデオコーディング(HEVC:High Efficiency Video Coding)は、現在の最新の国際ビデオ圧縮規格であり、前世代のビデオコーディング規格H.264/アドバンスドビデオコーディング(AVC:Advanced Video Coding)より、約50%向上しているが、それでもビデオアプリケーション急速な開発ニーズを満たすことはできなく、特に、超高精細ビデオや仮想現実(VR:Virtual Reality)などの新しいビデオアプリケーションを満たすことはできない。
多機能ビデオコーディング(VVC:Versatile Video Coding)の次世代ビデオ符号化規格で採用されているコーディングツールでは、線形モデルベースの予測方法が採用されており、色差成分の色差予測値は、線形モデルを介して再構成された輝度成分によって取得することができる。
しかしながら、線形モデルを使用してビデオ成分を予測する時に、輝度隣接領域の画素値を使用してダウンサンプリング処理を実行した後、線形モデルを構築するために、ダウンサンプリングによって得られた参照サンプル点から最大値および最小値を見つける必要があり、隣接する参照ブロックの数が多いため、上記のような方式でモデルを構築する複雑さが高く、その結果、色差予測の効率が低くなり、それによってビデオの符号化・復号化効率に影響を与える。
本願の実施例は、ビデオ成分予測の複雑さを軽減させ、予測効率を向上させることにより、ビデオの符号化・復号化効率を向上させることができる、ビデオ画像成分予測方法および装置、コンピュータ記憶媒体を提供する。
本願の実施例の技術的解決策は以下のように実現することができる。
本願の実施例はビデオ成分予測方法を提供し、前記方法は、
現在のブロックの第1画像成分の参照値セットを取得することと、
前記第1画像成分の参照値セットから複数の第1画像成分参照値を決定することと、
前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を取得することと、
前記複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を決定することであって、前記予測待ち画像成分は、前記第1画像成分と異なる画像成分である、ことと、
前記複数のフィルタリング後の第1画像参照サンプル値および前記予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することであって、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す、ことと、
前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得することと、
前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定することと、を含む。
本願の実施例はビデオ成分予測装置を提供し、前記装置は、
現在のブロックの第1画像成分の参照値セットを取得するように構成される取得部と、
前記第1画像成分の参照値セットから複数の第1画像成分参照値を決定するように構成される決定部と、
前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を取得するように構成されるフィルタリング部と、
前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定するように構成される予測部と、を備え、
前記決定部は、さらに、前記複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を決定し、前記予測待ち画像成分は、前記第1画像成分と異なる画像成分であり、前記複数のフィルタリング後の第1画像参照サンプル値および前記予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定するように構成され、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表し、
前記フィルタリング部は、さらに、前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得するように構成される。
本願の実施例はビデオ成分予測装置を提供し、前記装置は、
実行可能なビデオ成分予測命令を記憶するように構成されるメモリと、
前記メモリに記憶された実行可能なビデオ成分予測命令を実行するときに、本願の実施例によるビデオ成分予測方法を実現するように構成されるプロセッサと、を備える。
本願の実施例は、実行可能なビデオ成分予測命令を含むコンピュータ可読記憶媒体を提供し、前記実行可能なビデオ成分予測命令は、プロセッサによって実行されるときに、本願の実施例によるビデオ成分予測方法を実現するように構成される。
本願の実施例において、ビデオ画像成分予測方法を提供し、ビデオ画像成分予測装置が、まず、直接取得された現在のブロックに対応する第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値の選択を実行した後、選択された複数の第1画像成分参照値の画素点位置に基づいてフィルタリング処理を実行して、複数のフィルタリング後の第1画像参照サンプル値を取得し、次に、複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を見つけて、成分線形モデル的パラメータを取得し、成分線形モデルのパラメータに基づいて、成分線形モデルを構築し、その後、構築された成分線形モデルを使用して、予測待ち画像成分の予測プロセスを実行する。成分線形モデルの構築プロセスでは、まず複数の第1画像成分参照値の選択を実行し、次に選択された複数の第1画像成分参照値に対応する位置に基づいてフィルタリング処理を実行して、成分線形モデルを構築することにより、現在のブロックに対応する画素点のフィルタリング処理の作業負荷が軽減され、すなわち、フィルタリング操作が軽減され、これにより、成分線形モデルの構築の複雑さが軽減され、ビデオ成分予測の複雑さがさらに軽減され、予測効率が向上し、ビデオの符号化・復号化効率が向上する。
本願の実施例による現在のブロックと隣接参照画素点との間の関係を示す概略図である。 本願の実施例によるビデオ画像成分予測システムのアーキテクチャ図である。 本願の実施例によるビデオ符号化システムの概略ブロック図である。 本願の実施例によるビデオ復号化システムの概略ブロック図である。 本願の実施例におけるビデオ画像成分予測方法のフローチャート1である。 本願の実施例におけるビデオ画像成分予測方法のフローチャート2である。 本願の実施例におけるビデオ画像成分予測方法のフローチャート3である。 本願の実施例による、最大値および最小値に基づいて予測モデルを構築するための構造図である。 本願の実施例によるビデオ画像成分予測装置の概略構造図1である。 本願の実施例によるビデオ画像成分予測装置の概略構造図2である。
本出願の目的、技術的解決策及びメリットをより明確にするために、下記において、図面を参照して、本出願をさらに詳しく説明する。下記で説明される実施例は、本出願を限定するためのものではなく、当業者の創造的労力を払わなくても得られる他のすべての実施例は、本出願の保護範囲に含まれる。
特に明記されていない限り、本願で使用されるすべての技術用語および科学用語は、本願の当業者によって通常理解されるものと同じ意味を有する。本願で使用される用語は、本願の実施例を説明するためにのみ採用され、本願を限定することを意図するものではない。
以下、まずフレーム内予測、ビデオ符号化・復号化などの概念について説明する。
予測符号化・復号化の主な機能は、ビデオ符号化・復号化において、空間または時間における既存の再構成画像を使用して現在のブロックの予測値を生成し、オリジナル値と予測値との差分値のみを伝送することにより、伝送データ量を削減する目的を達成することである。
フレーム内予測の主な機能は、現在のブロックと、現在のブロックに隣接する上部の1行および左側の1列の画素ユニットを使用して、当該現在のブロックの予測値を生成することである。図1に示されるように、現在のブロック101の周囲の復元された隣接画素(すなわち、現在のブロックに隣接する上部の行102の画素ユニットおよび左側の列103の画素ユニット)を使用して、現在のブロック101の各画素ユニットを予測する。
本願の実施例では、ビデオ画像について、通常、3つの画像成分を使用して処理ブロックを表す。ここで、この3つの画像成分は、それぞれ、輝度成分、青色差成分、および赤色差成分である。具体的には、輝度成分は通常符号Yで表され、青色差成分は通常符号Cbで表され、赤色差成分は通常符号Crで表される。
現在、ビデオ画像の一般的なサンプリングフォーマットはYCbCrフォーマットであり、YCbCrフォーマットは、以下のフォーマットを含む。
4:4:4フォーマット:青色差成分または赤色差成分がダウンサンプリングされていないことを意味する。これは、各スキャンラインの4つの連続する画素点ごとに、輝度成分の4つのサンプル、青色差成分の4つのサンプル、および赤色差成分の4つのサンプルを抽出することを意味する。
4:2:2フォーマット:輝度成分が青色差成分または赤色差成分に対して2:1で水平方向にサンプリングされ、垂直方向にダウンサンプリングが実行されないことを意味する。これは、各スキャンラインの4つの連続する画素点ごとに、輝度成分の4つのサンプル、青色差成分の2つのサンプル、および赤色差成分の2つのサンプルを抽出することを意味する。
4:2:0フォーマット:輝度成分が青色差成分または赤色差成分に対して2:1で水平方向にサンプリングされ、2:1で垂直方向にダウンサンプリングされることを意味する。これは、水平スキャンラインおよび垂直スキャンラインの2つの連続する画素点ごとに、輝度成分の2つのサンプル、青色差成分の1つのサンプル、および赤色差成分の1つのサンプルを抽出することを意味する。
ビデオ画像が4:2:0フォーマットのYCbCrを採用するという条件下で、ビデオ画像の輝度成分が2N×2Nサイズの処理ブロックである場合、対応する青色差成分または赤色差成分は、N×Nサイズの処理ブロックであり、ここで、Nは処理ブロックの辺の長さである。本願の実施例では、4:2:0フォーマットを例として以下で説明するが、本願の実施例の技術的解決策は、他のサンプリングフォーマットにも適用可能である。
上記の概念に基づき、本願の実施例は、フレーム内予測のためのビデオ画像成分予測方法を含むビデオ符号化・復号化システムのネットワークアーキテクチャを提供する。図2は、本願の実施例によるビデオ符号化・復号化のためのネットワークアーキテクチャの構成構造図である。図2に示されるように、当該ネットワークアーキテクチャは、1つまたは複数の電子機器11から1Nおよび通信ネットワーク01を含み、ここで、電子機器11から1Nは、通信ネットワーク01を介してビデオインタラクションを実行し得る。実装プロセスにおいて、電子機器は、ビデオ符号化・復号化機能を備えた様々なタイプの機器であり得る。例えば、前記電子機器は、携帯電話、タブレットコンピュータ、パーソナルコンピュータ、携帯情報端末、ナビゲーター、デジタル電話、ビデオ電話、テレビ、感知機器、サーバなどを含み得るが、本願の実施例はこれらに限定されない。ここで、本願の実施例におけるフレーム内予測装置は、上記の電子機器であり得る。
ここで、本願の実施例における電子機器は、ビデオ符号化・復号化機能を備え、通常、ビデオ復号化器およびビデオ復号化器を含む。
例示的に、図3Aを参照すると、ビデオ符号化器21の構成構造は、変換と量子化ユニット211、フレーム内推定ユニット212、フレーム内予測ユニット213、動き補償ユニット214、動き推定ユニット215、逆変換と逆量子化ユニット216、フィルタ制御分析ユニット217、フィルタリングユニット218、エントロピー符号化ユニット219、および復号化された画像キャッシュユニット210などを含む。ここで、フィルタリングユニット218は、デブロッキングフィルタリングとサンプル適応オフセット(SAO:Sample Adaptive 0ffset)フィルタリングを実現することができ、エントロピー符号化ユニット219は、ヘッダ情報符号化とコンテキストベースの適応バイナリ算術符号化(CABAC:Context-based Adaptive Binary Arithmatic Coding)を実現することができる。入力されたソースビデオデータに対して、符号化ツリーユニット(CTU:Coding Tree Unit)の分割により、1つの現在のビデオフレームの符号化待ちブロックを取得することができ、その後、当該符号化待ちブロックに対してフレーム内予測またはフレーム間予測を実行して得られた残差情報は、変換と量子化ユニット211によって変換される(残差情報を画素ドメインから変換ドメインに変換し、得られた変換係数を量子化し、それによってビットレートをさらに低減することを含む)。フレーム内推定ユニット212およびフレーム内予測ユニット213は、当該符号化待ちブロックに対してフレーム内予測を実行するように構成され、例えば、当該符号化待ちブロックを符号化するために使用されるフレーム内予測モードを決定する。動き補償ユニット214および動き推定ユニット215は、1つまたは複数の参照フレーム内の1つまたは複数のブロックに対して符号化待ちブロックのフレーム間予測符号化を実行し、時間予測情報を提供するように構成される。ここで、動き推定ユニット215は、動きベクトルを推定するように構成され、当該符号化待ちブロックの動きは、動きベクトルに基づいて推定することができ、次いで、動き補償ユニット214は、動きベクトルに基づいて動き補償を実行する。フレーム内予測モードを決定した後、フレーム内予測ユニット213は、さらに、選択され
たフレーム内予測データをエントロピー符号化ユニット219に提供するように構成され、動き推定ユニット215は、計算によって決定された動きベクトルデータもエントロピー符号化ユニット219に送信する。さらに、逆変換と逆量子化ユニット216は、当該符号化待ちブロックを再構築するように構成され、すなわち、画素ドメインで残差ブロックを再構築し、当該再構築された残差ブロックのブロッキング効果によるアーチファクトは、フィルタ制御分析ユニット217およびフィルタリングユニット218によって除去され、その後、当該再構築された残差ブロックを復号化された画像キャッシュユニット210のフレーム内の1つの予測ブロックに追加して、再構築されたビデオ符号化ブロックを生成する。エントロピー符号化ユニット219は、様々な符号化パラメータおよび量子化された変換係数を符号化するように構成され、CABACに基づく符号化アルゴリズムでは、コンテキスト内容は、隣接符号化ブロックに基づくことができ、決定されたフレーム内予測モードを指示する情報を符号化して、当該ビデオデータのビットストリームを出力するために使用できる。復号化された画像キャッシュユニット210は、予測参照に使用される、再構築されたビデオ符号化ブロックを格納するように構成される。ビデオの符号化に伴い、新しい再構築されたビデオ符号化ブロックが継続的に生成され、これらの再構築されたビデオ符号化ブロックは、復号化された画像キャッシュユニット210に記憶される。
図3Bに示されるように、ビデオ符号化器21に対応するビデオ復号化器22の構成構造は、エントロピー復号化ユニット221、逆変換と逆量子化ユニット222、フレーム内予測ユニット223、動き補償ユニット224、フィルタリングユニット225、および復号化された画像キャッシュユニット226などを含む。ここで、エントロピー復号化ユニット221は、ヘッダ情報復号化とCABAC復号化を実現することができ、フィルタリングユニット225は、デブロッキングフィルタリングとSAOフィルタリングを実現することができる。入力されたビデオ信号に対して、図3Aに示される符号化処理を実行した後、当該ビデオ信号のビットストリームを出力する。当該ビットストリームをビデオ復号化器22に入力し、最初にエントロピー復号化ユニット221によって処理されて、復号化された変換係数を取得する。当該変換係数は、逆変換と逆量子化ユニット222によって処理されることによって、画素ドメインで残差ブロックを生成する。フレーム内予測ユニット223は、決定されたフレーム内予測モード、および現在のフレームまたは画像からの以前の復号化されたブロックのデータに基づいて、現在の復号化ブロックの予測データを生成するように構成されることができる。動き補償ユニット224は、動きベクトルおよび他の関連する構文要素を分析して、現在の復号化ブロックの予測情報を決定し、当該予測情報を使用して、現在復号化されている現在の復号化ブロックの予測ブロックを生成する。逆変換と逆量子化ユニット222からの残差ブロックと、フレーム内予測ユニット223または動き補償ユニット224によって生成された対応する予測ブロックとを合計して、復号化されたビデオブロックを生成する。当該復号化されたビデオブロックのブロッキング効果によるアーチファクトは、フィルタリングユニット225によって除去され、これにより、品質を改善する。その後、復号化されたビデオブロックを復号化された画像キャッシュユニット226に記憶し、復号化された画像キャッシュユニット226は、後続のフレーム内予測または動き補償のために使用される参照画像を記憶し、ビデオ信号の出力表示にも使用される。
これに基づき、以下、添付の図面及び実施例を参照して、本願の技術的解決策をさらに詳細に説明する。本願の実施例で提供されるビデオ画像成分予測方法は、予測符号化・復号化のためのフレーム内予測プロセスにおける予測を指し、つまり、ビデオ符号化器21に提供されてもよいし、ビデオ復号化器22に適用されてもよいが、本願の実施例はこれに限定されない。
次世代ビデオ符号化規格H.266では、符号化・復号化性能および符号化・復号化効率をさらに向上させるために、成分間予測(CCP:Cross-component Prediction)が拡張および改善され、成分間線形予測(CCLM:Cross-component Linear Model Prediction)が提案されている。H.266では、CCLMは、輝度成分から青色差成分へ、輝度成分から赤色差成分へ、および青色差成分と赤色差成分との間の予測を実現する。以下、従来のCCLMを背景としたビデオ成分予測方法について説明する。
本願の実施例は、ビデオ画像成分予測方法を提供し、当該方法はビデオ画像成分予測装置に適用され、当該方法によって実現される機能は、ビデオ画像成分予測装置内のプロセッサによりプログラムコードを呼び出すことによって実現できる。もちろん、プログラムコードはコンピュータ記憶媒体に記憶されることができ、明らかに、当該ビデオ画像成分予測装置は、少なくともプロセッサおよび記憶媒体を含む。
図4は、本願の実施例におけるビデオ画像成分予測方法の実現フローチャートであり、図4に示されるように、当該方法は以下のステップを含む。
ステップS101において、現在のブロックの第1画像成分参照値を取得する。
ステップS102において、第1画像成分の参照値セットから複数の第1画像成分参照値を決定する。
ステップS103において、複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を取得する。
ステップS104において、複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を決定し、ここで、予測待ち画像成分は、第1画像成分と異なる画像成分である。
ステップS105において、複数のフィルタリング後の第1画像参照サンプル値および予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定し、ここで、成分線形モデルは、第1画像成分のサンプル値を予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す。
ステップS106において、成分線形モデルに基づいて、現在のブロックの第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得する。
ステップS107において、マッピング値に基づいて、現在のブロックの予測待ち画像成分の予測値を決定する。
ステップS101において、本願の実施例では、現在のブロックは、画像成分予測待ちの符号化ブロックまたは復号化ブロックである。本願の実施例では、ビデオ画像成分予測装置は、現在のブロックの第1画像成分参照値を取得し、ここで、第1画像成分的参照値セットは、1つまたは複数の第1画像成分参照値を含む。現在のブロックの参照値は、参照ブロックから取得でき、参照ブロックは、現在のブロックの隣接ブロックであってもよいし、現在のブロックの非隣接ブロックであってもよいが、本願の実施例はこれに限定されない。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、現在のブロックではない位置にある1つまたは複数の参照画素点を決定し、1つまたは複数の参照画素点を、1つまたは複数の第1画像成分参照値として決定する。
本願の実施例では、現在のブロックに対応する隣接処理ブロックは、現在のブロックの1つまたは複数の辺に隣接する処理ブロックであり、1つまたは複数の隣接する辺は、現在のブロックに隣接する上側辺を指し得、または現在のブロックに隣接する左側辺を指し得、または現在のブロックに隣接する上側辺および左側辺を指し得るが、本願の実施例はこれに限定されないことに留意されたい。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、現在のブロックに隣接する画素点を1つまたは複数の参照画素点として決定する。
本願の実施例では、1つまたは複数の参照画素点は、隣接する画素点であってもよいし、非隣接する画素点であってもよいが、本願の実施例はこれに限定されないことに留意されたい。本願では、隣接する画素点を例として説明する。
ここで、現在のブロックの隣接処理ブロックに対応する1つまたは複数の辺で隣接する画素点を、現在のブロックに対応する1つまたは複数の隣接参照画素点として使用し、各隣接参照画素点は、3つの画像成分参照値(すなわち、第1画像成分参照値、第2画像成分参照値、および第3画像成分参照値)に対応する。したがって、ビデオ画像成分予測装置は、現在のブロックに対応する1つまたは複数の隣接参照画素点の各隣接参照画素点における第1画像成分の参照値を、第1画像成分の参照値セットとして取得することができ、このようにして、1つまたは複数の第1画像成分参照値を取得する。つまり、1つまたは複数の第1画像成分参照値は、現在のブロックに対応する隣接参照ブロック内の1つまたは複数の隣接画素点の対応する第1画像成分の参照値を表す。ここで、本願の実施例における第1画像成分は、他の画像成分を予測するために使用される。
本願のいくつかの実施例では、第1画像成分と予測待ち画像成分との組み合わせは、以下のうちの少なくとも1つを含む。
第1画像成分は輝度成分であり、予測待ち画像成分は第1または第2色差成分であるか、または、
第1画像成分は第1色差成分であり、予測待ち画像成分は輝度成分または第2色差成分であるか、または、
第1画像成分は第2色差成分であり、予測待ち画像成分は輝度成分または第1色差成分であるか、または、
第1画像成分は第1色成分であり、予測待ち画像成分は第2色成分または第3色成分であるか、または、
第1画像成分は第2色成分であり、予測待ち画像成分は第1色成分または第3色成分であるか、または、
第1画像成分は第3色成分であり、予測待ち画像成分は第2色成分または第1色成分である。
本願のいくつかの実施例では、第1色成分は赤成分であり、第2色成分は緑成分であり、第3色成分は青成分である。
ここで、第1色差成分は青色差成分であり得、第2色差成分は赤色差成分であり得、または、第1色差成分は赤色差成分であり得、第2色差成分は青色差成分であり得る。ここで、第1色差成分および第2色差成分は、それぞれ、青色差成分および赤色差成分を表すだけでよい。
第1色差成分は青色差成分であり得、第2色差成分が赤色差成分であり得ることを例として説明する。第1画像成分が輝度成分であり、予測待ち画像成分が第1色差成分である場合、ビデオ画像成分予測装置は、輝度成分を使用して青色差成分を予測することができる。第1画像成分が輝度成分であり、予測待ち画像成分が第2色差成分である場合、ビデオ画像成分予測装置は、輝度成分を使用して赤色差成分を予測することができる。第1画像成分が第1色差成分であり、予測待ち画像成分が第2色差成分である場合、ビデオ画像成分予測装置は、青色差成分を使用して赤色差成分を予測することができる。第1画像成分が第2色差成分であり、予測待ち画像成分が第1色差成分である場合、ビデオ画像成分予測装置は、赤色差成分を使用して青色差成分を予測することができる。
ステップS102において、ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値から、複数の第1画像成分参照値を決定することができる。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、第1画像成分の参照値セットに含まれる1つまたは複数の第1画像成分参照値を比較して、最大の第1画像成分参照値と最小の第1画像成分参照値を決定することができる。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値から、複数の第1画像成分参照値のうちの最大値および最小値を決定することができ、1つまたは複数の第1画像成分参照値から、最大または最小の第1画像成分参照値を表す参照値を決定することができる。
例えば、ビデオ画像成分予測装置は、第1画像成分の参照値セットから、最大の第1画像成分参照値と最小の第1画像成分参照値を決定する。
本願の実施例では、ビデオ画像成分予測装置は、様々な方式で、最大の第1画像成分参照値と最小の第1画像成分参照値を取得することができる。
方式1において、1つまたは複数の第1画像成分参照値の各第1画像成分参照値を順次比較して、最大の1つの第1画像成分参照値および最小の1つの第1画像成分参照値を決定する。
方式2において、1つまたは複数の第1画像成分参照値から、プリセットされた位置にある少なくとも2つの第1画像成分参照値を選別し、数値の大きさに従って、少なくとも2つの第1サブ画像成分参照値を最大画像成分参照値セットと最小画像成分参照値セットに分割し、最大画像成分参照値セットと最小画像成分参照値セットに基づいて、最大の第1画像成分参照値と最小の第1画像成分参照値を取得する。
つまり、本願の実施例では、ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値から、第1画像成分参照値内の値が一番大きいものを、最大の第1画像成分参照値として選択し、値が一番小さいものを、最小の第1画像成分参照値として選択する。決定方式は、順次2つずつで比較してもよいし、ソート後に決定してもよいが、本願の実施例では具体的な決定方式を限定しない。
ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値に対応する画素点位置から、プリセットされた位置(プリセットされた画素点位置)に対応するいくつかの第1画像成分参照値を少なくとも2つの第1画像成分参照値として選択することもでき、次に、少なくとも2つの第1画像成分参照値に基づいて分割して最大のデータセット(最大画像成分参照値セット)と最小のデータセット(最小画像成分参照値セット)を得、最大のデータセットと最小のデータセットに基づいて、最大の第1画像成分参照値と最小の第1画像成分参照値を決定する。ここで、最大のデータセットと最小のデータセットに基づいて、最大の第1画像成分参照値と最小の第1画像成分参照値を決定するプロセスは、最大のデータセットに対して平均処理を実行して、最大の第1画像成分参照値を取得し、最小のデータセットに対して平均処理を実行して、最小の第1画像成分参照値を取得することであり得、他の方式を使用して最大値と最小値を決定することもできるが、本願の実施例はこれに限定されない。
最大のデータセットと最小のデータセット内の数値の数は1以上である整数であり、2つのセット内の数値の数は同じでも異なっていてもよいが、本願の実施例はこれに限定されないことに留意されたい。
ビデオ画像成分予測装置は、プリセットされた位置に対応するいくつかの第1画像成分参照値を、少なくとも2つの第1サブ画像成分参照値として決定した後、少なくとも2つの第1サブ画像成分参照値のうちの最大値を最大の第1画像成分参照値として直接選択し、少なくとも2つの第1サブ画像成分参照値のうちの最小値を最小の第1画像成分参照値として直接選択することもできる。
例示的に、ビデオ画像成分予測装置は、少なくとも2つの第1サブ画像成分参照値のうちのM(Mは4を超える値であってもよいし、限定されなくてもよい)個の最大の第1サブ画像成分参照値を、最大画像成分参照値セットとし、M個の最大の第1サブ画像成分参照値を除く少なくとも2つの第1サブ画像成分参照値を最小画像成分参照値セットとし、最後に、最大画像成分参照値セットに対して平均処理を実行して、最大の第1画像成分参照値を取得し、最小画像成分参照値セットに対して平均処理を実行して、最小の第1画像成分参照値を取得することができる。
なお、本願の実施例では、最大の第1画像成分参照値および最小の第1画像成分参照値は、数値の大きさによって直接決定された最大値および最小値であってもよいし、プリセットされた位置で参照値の有効性を代表することができる第1画像成分参照値(少なくとも2つの第1サブ画像成分参照値)を選択した後、有効な第1画像成分参照値を分割して比較的に大きな数値からなる1つのセットと、比較的に小さな数値からなる1つのセットを得、そうしてから、比較的に大きな数値のセットに基づいて最大の第1画像成分参照値を決定し、比較的に小さな数値のセットに基づいて最小の第1画像成分参照値を決定する。または、数値の大きさに従って、プリセットされた位置に対応する有効な第1画像成分参照値セットから、最大の第1画像成分参照値と最小の第1画像成分参照値を直接決定する。
本願の実施例では、ビデオ画像成分予測装置が最大の第1画像成分参照値と最小の第1画像成分参照値を決定する方式を限定しない。例えば、ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値をサイズに従って3つまたは4つのセットに分割してから、各セットを処理して、1つの代表パラメータを取得し、そして、代表パラメータから、最大および最小のパラメータを最大の第1画像成分参照値および最小の第1画像成分参照値として選択することもできる。
本願の実施例では、プリセットされた位置の選択は、第1画像成分参照値の有効性を代表する位置を選択することができ、プリセットされた位置の数は限定されない(例えば、4または6であり得る)。プリセットされた位置は、隣接画素点のすべての位置であり得るが、本願の実施例はこれに限定されない。
例示的に、プリセットされた位置で、所在する行または列の中心を基準として、サンプリングの頻度に従って両側からプリセット数の第1画像成分参照値を選択してもよいし、行または列のエッジ位置を除く他の位置にある第1画像成分参照値であってもよいが、本願の実施例はこれに限定されない。
行および列におけるプリセットされた位置の割り当ては、均一に割り当ててもよいし、プリセットされた方式による割り当てであってもよいが、本願の実施例はこれに限定されない。例えば、プリセットされた位置の数が4であり、且つ隣接行および隣接列が1つまたは複数の第1画像成分参照値に対応する位置である場合、隣接行に対応する第1画像成分参照値から2つの第1画像成分参照値を選択し、隣接列に対応する第1画像成分参照値から2つの第1画像成分参照値を選択することができる。または、隣接行に対応する第1画像成分参照値から1つの第1画像成分参照値を選択し、隣接列に対応する第1画像成分参照値から3つの第1画像成分参照値を選択することができるが、本願の実施例はこれに限定されない。
ビデオ画像成分予測装置は、1つまたは複数の第1画像成分参照値から、1つまたは複数の第1画像成分参照値のうちの最大値および最小値を決定することができる。つまり、1つまたは複数の第1画像成分参照値のうちの最大値(最大の第1画像成分参照値)、および1つまたは複数の第1画像成分参照値のうちの最小値(最小の第1画像成分参照値)を取得する。または、1つまたは複数の第1画像成分参照値のプリセットされた位置から複数の参照値を決定した後、処理により、最大の第1画像成分参照値と最小の第1画像成分参照値を取得する。ここで、他のビデオ成分のサンプリング位置と一致させ、またはそれに近づけるため、最大の第1画像成分参照値および最小の第1画像成分参照値に対応する画素点位置に基づいてフィルタリングを実行した後に、後続の処理を実行する必要がある。
ステップS103では、ビデオ画像成分予測装置は、決定された複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を取得する。
本願の実施例では、複数のフィルタリング後の第1画像参照サンプル値は、フィルタリング後の最大の第1画像成分参照値およびフィルタリング後の最小の第1画像成分参照値であってもよいし、最大の第1画像成分参照値およびフィルタリング後の最小の第1画像成分参照値を含む複数の参照サンプル値であってもよいし、他の複数の参照サンプル値であってもよいが、本願の実施例はこれに限定されない。
本願の実施例では、ビデオ画像成分予測装置は、決定された第1画像成分参照値に対応する画素点位置(すなわち、対応する画素点のサンプル値)に対して、フィルタリング処理(すなわち、第1フィルタリング処理)を実行し、それによって、対応する複数のフィルタリング後の第1画像参照サンプル値を取得することができ、これにより、複数のフィルタリング後の第1画像参照サンプル値に基づいて、成分線形モデルを構築することができる。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、最大の第1画像成分参照値および最小の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、フィルタリング後の最大の第1画像成分参照値およびフィルタリング後の最小の第1画像成分参照値を取得する。
なお、決定された複数の第1画像成分参照値は、最大の第1画像成分参照値および最小の第1画像成分参照値であり得るため、フィルタリングプロセスは、最大の第1画像成分参照値および最小の第1画像成分参照値を決定するための画素点位置(すなわち、対応する画素点のサンプル値)に対して、フィルタリング処理(すなわち、第1フィルタリング処理)を実行し、それによって、対応するフィルタリング後の最大の第1画像成分参照値とフィルタリング後の最小の画像成分参照値(すなわち、複数のフィルタリング後の第1画像参照サンプル値)を取得することができ、このようにして、後続で、フィルタリング後の最大の第1画像成分参照値とフィルタリング後の最小の第1画像成分参照値に基づいて、成分線形モデルを構築することができる。
本願の実施例では、フィルタリング方式は、アップサンプリング、ダウンサンプリング、およびローパスフィルタリングなどの方式であり得るが、本願の実施例はこれに限定されない。ここで、ダウンサンプリングの方式は、平均、補間、または中央値などを含み得るが、本願の実施例はこれに限定されない。
本願の実施例では、第1フィルタリング処理は、ダウンサンプリングフィルタリングおよびローパスフィルタリングであり得る。
例示的に、ビデオ画像成分予測装置は、最大の第1画像成分参照値と最小の第1画像成分参照値を決定するための画素点位置に対して、ダウンサンプリングフィルタリングを実行して、対応するフィルタリング後の最大の第1画像成分参照値とフィルタリング後の最小の第1画像成分参照値を取得することができる。
以下、ダウンサンプリングが平均の方式であることを例として説明する。
ビデオ成分予測装置は、最大の第1画像成分参照値に対応する位置およびその隣接画素点位置によって構成された領域に対して、第1画像成分の平均計算を実行し、このブロック領域の画素を1つの画素に融合し、当該平均結果は当該融合後の画素点に対応する第1画像成分参照値、すなわち、フィルタリング後の最大の第1画像成分参照値である。同様に、ビデオ成分予測装置は、最小の第1画像成分参照値に対応する位置およびその隣接画素点位置によって構成された領域に対して、第1画像成分の平均計算を実行し、このブロック領域の画素を1つの画素に融合し、当該平均結果は、当該融合後の画素点に対応する第1画像成分参照値、すなわち、フィルタリング後の最小の第1画像成分参照値である。
なお、本願の実施例では、ビデオ画像成分予測装置のダウンサンプリング処理は、フィルタによって実現され、具体的には、最大の第1画像成分参照値に対応する位置に隣接するベクトル画素点の位置範囲は、フィルタのタイプによって決定できるが、本願の実施例はこれに限定されない。
本願の実施例では、フィルタのタイプは、6タップフィルタであってもよいし、4タップフィルタであってもよいが、本願の実施例はこれに限定されない。
ステップS104およびステップS105では、ビデオ画像成分予測装置は、複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を決定し、ここで、予測待ち画像成分は、第1画像成分と異なる画像成分(例えば、第2画像成分または第3画像成分)であり、次に、複数のフィルタリング後の第1画像参照サンプル値および予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定し、ここで、成分線形モデルは、第1画像成分のサンプル値を予測待ち画像成分のサンプル値にマッピングする線形マッピング関係(関数関係)を表す。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、およびフィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定する。
なお、本願の実施例では、ビデオ画像成分予測装置は、最大値および最小値の構築方式で、「2点で線を決定する」という原則に従って、モデルパラメータ(すなわち、成分線形モデルのパラメータ)を導出することにより、成分線形モデル(すなわち、簡略化された成分間線形予測モデル(CCLM:Cross-component Linear Model Prediction))を構築することができる。
本願の実施例では、ビデオ画像成分予測装置は、ダウンサンプリング(すなわち、フィルタリング)を実行し、予測待ち画像の位置とのアライメントを実現する。このようにして、フィルタリング後の第1画像成分参照サンプル値に対応する予測待ち画像成分参照値を決定することができる。例えば、フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、およびフィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定する。このように、ビデオ画像成分予測装置は、(フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値)と(フィルタリング後の最小の第1画像成分参照値、最小の予測待ち画像成分参照値)という2つの点を決定したため、「2点で線を決定する」という原則に従って、モデルパラメータを導出し、成分線形モデルを構築することができる。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値、フィルタリング後の最小の第1画像成分参照値、および最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定し、ここで、成分線形モデルは、第1画像成分のサンプル値を予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す。
本願のいくつかの実施例では、ビデオ画像成分予測装置が、フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値、フィルタリング後の最小の第1画像成分参照値、および最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定する実現方式は、以下の方式を含み得る。方式(1)において、成分線形モデルのパラメータは、倍数因子および加法的オフセットを含む。そのため、ビデオ画像成分予測装置は、最大の予測待ち画像成分参照値と最小の予測待ち画像成分参照値との間の第1差分値を計算し、最大の第1画像成分参照値と最小の第1画像成分参照値との間の第2差分値を計算し、倍数因子を第1差分値と第2差分値の比率として設定し、最大の第1画像成分参照値と倍数因子との間の第1積を計算し、加法的オフセットを、最大の予測待ち画像成分参照値と第1積との間の差分値として設定するか、または、最小の第1画像成分参照値と倍数因子との間の第2積を計算し、加法的オフセットを最小の予測待ち画像成分参照値と第2積との間の差分値として設定することができる。方式(2)において、フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値、およびプリセットされた初期線形モデルを使用して、第1サブ成分線形モデルを構築し、フィルタリング後の最小の第1画像成分参照値、最小の予測待ち画像成分参照値、およびプリセットされた初期線形モデルを使用して、第2サブ成分線形モデルを構築し、第1サブ成分線形モデルおよび第2サブ成分線形モデルに基づいて、モデルパラメータを取得し、モデルパラメータおよびプリセットされた初期線形モデルを使用して、成分線形モデルを構築する。
ここで、上記の値の設定は、実際の条件に応じて決定または設計され、本願の実施例はこれに限定されない。
例示的に、成分線形モデルが、第1画像成分と予測待ち画像成分との間の線形マッピング関係を表しているため、ビデオ画像成分予測装置は、第1画像成分および成分線形モデルに基づいて、予測待ち画像成分を予測することができ、本願の実施例における予測待ち画像成分は、色差成分であり得る。
例示的に、成分線形モデルは、下記式(1)に示される通りであり得る。
C=αY+β (1)
ここで、Yは、現在のブロック(ダウンサンプリングされた)内の特定の画素点に対応する第1画像成分再構成値を表し、Cは、現在のブロック内の当該特定の画素点に対応する第2画像成分予測値を表し、αおよびβは、前記成分線形モデルのモデルパラメータである。
ここで、モデルパラメータの具体的な実現については、後続の実施例で詳細に説明する。
ビデオ画像成分予測装置は、直接取得された、現在のブロックに対応する1つまたは複数の第1画像成分参照値に基づいて、最大および最小の第1画像成分参照値を選択してから、選択された最大の第1画像成分参照値および最小の第1画像成分参照値に対応する位置に基づいてダウンサンプリングを実行して、成分線形モデルを構築する。このようにして、現在のブロックに対応する画素点のダウンサンプリング処理の作業負荷が軽減され、すなわち、フィルタリング操作が軽減され、これにより、成分線形モデルの構築の複雑さが軽減され、ビデオ成分予測の複雑さがさらに軽減され、予測効率が向上し、ビデオの符号化・復号化効率が向上する。
ステップS106およびステップS107において、本願の実施例では、ビデオ画像成分予測装置は、成分線形モデルを取得した後、成分線形モデルを使用して現在のブロックに対してビデオ成分予測を直接実行することができ、これにより、予測待ち画像成分の予測値を取得することができる。ここで、ビデオ画像成分予測装置は、成分線形モデルに基づいて、現在のブロックの第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得し、次に、マッピング値に基づいて、現在のブロックの予測待ち画像成分の予測値を決定することができる。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、第1画像成分の再構成値に対して第2フィルタリング処理を実行して、第1画像成分の再構成値の第2フィルタ値を取得し、成分線形モデルに基づいて、第2フィルタ値に対してマッピング処理を実行して、マッピング値を取得する。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、マッピング値を、現在のブロックの予測待ち画像成分の予測値として設定する。
ここで、第2フィルタリング処理は、ダウンサンプリングフィルタリングまたはローパスフィルタリングであり得る。
本願のいくつかの実施例では、ビデオ画像成分予測装置はまた、マッピング値に対して第3フィルタリング処理を実行して、マッピング値の第3フィルタ値を取得し、第3フィルタ値を現在のブロックの予測待ち画像成分の予測値として設定することができる。
ここで、第3フィルタリング処理は、ローパスフィルタリングであり得る。
本願の実施例では、予測値は、現在のブロックの1つまたは複数の画素点に対応する第2画像成分の予測値または第3画像成分の予測値を表す。
成分線形モデルの構築プロセスでは、複数の第1画像成分参照値の選択を実行してから、選択された複数の第1画像成分参照値に対応する位置に基づいてフィルタリング処理を実行して、成分線形モデルを構築しているため、現在のブロックに対応する画素点のフィルタリング処理の作業負荷が軽減され、すなわち、フィルタリング操作が軽減され、これにより、成分線形モデルの構築の複雑さが軽減され、ビデオ成分予測の複雑さがさらに軽減され、予測効率が向上し、ビデオの符号化・復号化効率が向上する。
本願のいくつかの実施例では、図5に示されるように、本願の実施例はさらに、ビデオ画像成分予測方法を提供し、前記方法は以下のステップを含む。
ステップS201において、現在のブロックの第1画像成分の参照値セットを取得する。
ステップS202において、第1画像成分の参照値セットに含まれる参照値を比較して、最大の第1画像成分参照値と最小の第1画像成分参照値を決定する。
ステップS203において、最大の第1画像成分参照値および最小の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、フィルタリング後の最大の第1画像成分参照値およびフィルタリング後の最小の第1画像成分参照値を取得する。
ステップS204において、フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、およびフィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定する。
ステップS205において、フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値、フィルタリング後の最小の第1画像成分参照値、および最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定し、ここで、成分線形モデルは、第1画像成分のサンプル値を予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す。
ステップS206において、成分線形モデルに基づいて、現在のブロックの第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得する。
ステップS207において、マッピング値に基づいて、現在のブロックの予測待ち画像成分の予測値を決定する。
本願の実施例では、ステップS201~207のプロセスについては、上記の実施例で既に説明しており、ここでは繰り返して説明しない。
なお、ビデオ画像成分予測装置が予測を実行する時に、現在のブロックの第1画像成分再構成値について、現在のブロックに対して第1画像成分フィルタリングを実行して、現在のブロックに対応する第1画像成分再構成値を取得してから、成分線形モデルおよび第1画像成分再構成値に基づいて、現在のブロックの予測待ち画像成分の予測値を取得する。
本願の実施例では、ビデオ画像成分予測装置が成分線形モデルを取得した後、現在のブロックを予測するための最小単位が画素点であるため、現在のブロックの各画素点に対応する第1画像成分再構成値によって、当該画素点に対応する予測待ち画像成分の予測値を予測する必要である。ここで、ビデオ画像成分予測装置は、まず、現在のブロックに対して第1画像成分フィルタリング(例えば、ダウンサンプリング)を実行して、現在のブロックに対応する第1画像成分再構成値を取得し、具体的には、現在のブロックに対応する各画素点の第1画像成分再構成値を取得する。
本願の実施例では、第1画像成分再構成値は、現在のブロックの1つまたは複数の画素点に対応する第1画像成分の再構成値を表す。
これにより、ビデオ画像成分予測装置は、成分線形モデルによって、現在のブロックの第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得し、マッピング値に基づいて、現在のブロックの予測待ち画像成分の予測値を取得することができる。
本願のいくつかの実施例では、図6に示されるように、ステップS204の具体的な実現は、以下のように、ステップS2041~S2042を含み得る。
ステップS2041において、現在のブロックの予測待ち画像成分参照値を取得する。
ステップS2042において、予測待ち画像成分参照値から、最大の予測待ち画像成分参照値および最小の予測待ち画像成分参照値を決定する。
本願の実施例では、ビデオ画像成分予測装置が、フィルタリング後の最大画像成分参照値およびフィルタリング後の最小画像成分参照値に基づいて、成分線形モデルを構築し、このプロセスで、「2点で線を決定する」という原則に基づき、第1画像成分が横座標であり、予測待ち画像成分が縦座標である場合、2点の横座標の値が既知であり、「2点で線を決定する」という原則に従って1つの線形モデル、すなわち、成分線形モデルを決定する前に、当該2点に対応する縦座標の値を決定する必要がある。
本願のいくつかの実施例では、ビデオ画像成分予測装置は、最大の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点(Sample)位置を、第1サンプリング点の位置に変換し、最大の予測待ち画像成分参照値を、予測待ち画像成分参照値のうちの第1サンプリング点の位置における参照値として設定し、最小の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点の位置を、第2サンプリング点の位置に変換し、最小の予測待ち画像成分参照値を、予測待ち画像成分参照値のうちの第2サンプリング点の位置における参照値として設定する。
例示的に、参照画素点が隣接画素点であることを例として説明する。ビデオ画像成分予測装置は、隣接ブロックに関する上記の説明に基づいて、現在のブロックに対応する1つまたは複数の予測待ち画像成分参照値を取得することができ、ここでの1つまたは複数の予測待ち画像成分参照値は、現在のブロックに対応する1つまたは複数の参照画素点の各隣接参照画素点における予測待ち画像成分の参照値を指し得、それを1つの予測待ち画像成分参照値として使用し、このようにして、ビデオ画像成分予測装置は、1つまたは複数の予測待ち画像成分参照値を取得する。
ビデオ画像成分予測装置は、1つまたは複数の予測待ち画像成分参照値に対応する画素点から、フィルタリング後の最大の第1画像成分参照値の所在する第1隣接参照画素点を見つけ、第1隣接参照画素点に対応する予測待ち画像成分参照値を最大の予測待ち画像成分参照値として使用し、つまり、フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値を決定し、1つまたは複数の予測待ち画像成分参照値に対応する画素点から、フィルタリング後の最小の第1画像成分参照値の所在する第2隣接参照画素点を見つけ、第2隣接参照画素点に対応する予測待ち画像成分参照値を最小の予測待ち画像成分参照値として使用し、つまり、フィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定する。最後に、「2点で線を決定する」という原則に従って、(フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値)と(フィルタリング後の最小の第1画像成分参照値、最小の予測待ち画像成分参照値)の2点に基づいて直線を決定し、当該直線で表される関数(マッピング関係)は、成分線形モデルである。
本願のいくつかの実施例では、ビデオ画像成分予測装置はまた、まず、隣接画素点位置に対してフィルタリングを実行して、フィルタリング後の画素点の1つまたは複数の予測待ち画像成分参照値を取得し、次に、フィルタリング後の画素点位置から、フィルタリング後の最大の第1画像成分参照値の所在する第1隣接参照画素点を見つけ、第1隣接参照画素点に対応する予測待ち画像成分参照値(1つまたは複数の予測待ち画像成分参照値のうちの1つ)を、最大の予測待ち画像成分参照値として使用し、つまり、フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値を決定し、フィルタリング後の画素点位置から、フィルタリング後の最小の第1画像成分参照値の所在する第2隣接参照画素点を見つけ、第2隣接参照画素点に対応する予測待ち画像成分参照値を、最小の予測待ち画像成分参照値として使用し、つまり、フィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定する。
なお、ビデオ画像成分予測装置が、まず隣接画素点位置に対してフィルタリングを実行することもでき、このようなプロセスは、予測待ち画像成分(例えば色差画像成分)をフィルタリングすることであり、本願の実施例はこれに限定されない。つまり、本願の実施例では、ビデオ画像成分予測装置は、予測待ち画像成分参照値に対して第4フィルタリング処理を実行して、予測待ち画像成分再構成値を取得することができる。
ここで、第4フィルタリング処理は、ローパスフィルタリングであり得る。
本願のいくつかの実施例では、ビデオ画像成分予測装置が成分線形モデルを構築するプロセスは、フィルタリング後の最大の第1画像成分参照値、最大の予測待ち画像成分参照値、およびプリセットされた初期線形モデルを使用して、第1サブ成分線形モデルを構築することと、フィルタリング後の最小の第1画像成分参照値、最小の予測待ち画像成分参照値、およびプリセットされた初期線形モデルを使用して、第2サブ成分線形モデルを構築することと、第1サブ成分線形モデルおよび第2サブ成分線形モデルに基づいて、モデルパラメータを取得することと、モデルパラメータおよびプリセットされた初期線形モデルを使用して、成分線形モデルを構築することとを含む。
本願の実施例では、プリセットされた初期線形モデルは、モデルパラメータが未知である初期モデルである。
例示的に、プリセットされた初期線形モデルは、式(1)の形であり得るが、その中のαおよびβは未知であり、第1サブ成分線形モデルおよび第2サブ成分線形モデルを使用して、二元第2方程式を構築し、モデルパラメータαとβを求めることができ、αとβを式(1)に代入して、第1画像成分と予測待ち画像成分との線形マッピング関係モデルを取得することができる。
例示的に、最大の第1画像成分参照値(フィルタリング後の最大の第1画像成分参照値)および最小の第1画像成分参照値(フィルタリング後の最小の第1画像成分参照値)を見つけることにより、「2点で線を決定する」という原則に従ってモデルパラメータ(下記式(2)に示されるαとβ)を導出する。
Figure 0007518065000001
ここで、LmaxおよびLminは、ダウンサンプリングされていない左側辺および/または上側辺に対応する第1画像成分参照値から見つけて得られる最大値および最小値を表し、CmaxおよびCminは、LmaxおよびLminに対応する位置の隣接参照画素点に対応する予測待ち画像成分参照値を表す。図7は、現在のブロックの最大値および最小値に基づいて予測モデルを構築することを示す概略構造図である。ここで、横座標は現在のブロックの第1画像成分参照値を表し、縦座標は現在のブロックの予測待ち画像成分参照値を表し、LmaxとLmin、およびCmaxとCminに従って、式(2)を介してモデルパラメータαとβを算出でき、構築された予測モデルはC=αY+βである。実際の予測プロセスでは、Yは、現在のブロック内の1つの画素点に対応する第1画像成分再構成値を表し、Cは、現在のブロック内の当該画素点に対応する予測待ち画像成分予測値を表す。
明らかに、ビデオ画像成分予測装置は、まず、直接取得された、現在のブロックに対応する1つまたは複数の第1画像成分参照値に基づいて、最大および最小の第1画像成分参照値を選択し、次に、選択された最大の第1画像成分参照値および最小の第1画像成分参照値に対応する位置に基づいてダウンサンプリング(フィルタリング)を実行して、成分線形モデルを構築する。このようにして、現在のブロックに対応する画素点のダウンサンプリング処理の作業負荷が軽減され、すなわち、フィルタリング操作が軽減され、これにより、成分線形モデルの構築の複雑さが軽減され、ビデオ成分予測の複雑さがさらに軽減され、予測効率が向上し、ビデオの符号化・復号化効率が向上する。
上記の実施例に基づき、本願の実施例はビデオ成分予測装置を提供し、当該装置の各ユニットおよび各ユニットに含まれる各モジュールは、ビデオ成分予測装置内のプロセッサによって実現でき、もちろん、具体的な論理回路によって実現することもできる。実施プロセスでは、プロセッサは、中央処理装置、マイクロ処理装置、デジタル信号プロセッサ(DSP:Digital Signal Processor)、またはフィールドプログラマブルゲートアレイなどであり得る。
図8に示されるように、本願の実施例によるビデオ成分予測装置3は、
現在のブロックの第1画像成分の参照値セットを取得するように構成される取得部30であって、前記第1画像成分の参照値セットは、1つまたは複数の第1画像成分参照値を含む、取得部30と、
前記第1画像成分の参照値セットから複数の第1画像成分参照値を決定するように構成される決定部31と、
前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を取得するように構成されるフィルタリング部32と、
前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定するように構成される予測部33と、を備え、
前記決定部31は、さらに、前記複数のフィルタリング後の第1画像参照サンプル値に対応する予測待ち画像成分参照値を決定し、前記予測待ち画像成分は、前記第1画像成分と異なる画像成分である、前記複数のフィルタリング後の第1画像参照サンプル値および前記予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定するように構成され、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表し、
前記フィルタリング部32は、さらに、前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記第1画像成分の参照値セットに含まれる参照値を比較して、最大の第1画像成分参照値と最小の第1画像成分参照値を決定するように構成される。
本願のいくつかの実施例では、前記フィルタリング部32は、さらに、前記最大の第1画像成分参照値および前記最小の第1画像成分参照値に対応する画素点のサンプル値に対して前記第1フィルタリング処理をそれぞれ実行して、フィルタリング後の最大の第1画像成分参照値およびフィルタリング後の最小の第1画像成分参照値を取得するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、および前記フィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、前記フィルタリング後の最小の第1画像成分参照値、および前記最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定するように構成され、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す。
本願のいくつかの実施例では、前記決定部31は、さらに、前記現在のブロックではない位置にある1つまたは複数の参照画素点を決定するように構成され、
前記取得部30は、さらに、前記1つまたは複数の参照画素点を前記1つまたは複数の第1画像成分参照値として決定するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記現在のブロックに隣接する画素点を前記1つまたは複数の参照画素点として決定するように構成される。
本願のいくつかの実施例では、前記フィルタリング部32は、さらに、前記第1画像成分の再構成値に対して第2フィルタリング処理を実行して、前記第1画像成分の再構成値の第2フィルタ値を取得し、前記成分線形モデルに基づいて、前記第2フィルタ値に対してマッピング処理を実行して、前記マッピング値を取得するように構成される。
本願のいくつかの実施例では、前記第2フィルタリング処理は、ダウンサンプリングフィルタリングまたはローパスフィルタリングである。
本願のいくつかの実施例では、前記予測部33は、さらに、前記マッピング値を前記現在のブロックの前記予測待ち画像成分の予測値として設定するように構成される。
本願のいくつかの実施例では、前記フィルタリング部32は、さらに、前記マッピング値に対して第3フィルタリング処理を実行して、マッピング値の第3フィルタ値を取得するように構成され、
前記予測部33は、さらに、前記第3フィルタ値を、前記現在のブロックの前記予測待ち画像成分の予測値として設定するように構成される。
本願のいくつかの実施例では、前記第3フィルタリング処理は、ローパスフィルタリングである。
本願のいくつかの実施例では、前記決定部31は、さらに、前記現在のブロックの予測待ち画像成分参照値を取得し、前記予測待ち画像成分参照値から、前記最大の予測待ち画像成分参照値および前記最小の予測待ち画像成分参照値を決定するように構成される。
本願のいくつかの実施例では、前記フィルタリング部32は、さらに、前記予測待ち画像成分参照値に対して第4フィルタリング処理を実行して、予測待ち画像成分再構成値を取得するように構成される。
本願のいくつかの実施例では、前記第4フィルタリング処理は、ローパスフィルタリングである。
本願のいくつかの実施例では、前記決定部31は、さらに、前記最大の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点の位置を、第1サンプリング点の位置に変換し、前記最大の予測待ち画像成分参照値を、前記予測待ち画像成分参照値のうち前記第1サンプリング点の位置における参照値として設定し、前記最小の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点の位置を、第2サンプリング点の位置に変換し、前記最小の予測待ち画像成分参照値を、前記予測待ち画像成分参照値のうち前記第2サンプリング点の位置における参照値として設定するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、およびプリセットされた初期線形モデル使用して、第1サブ成分線形モデルを構築し、前記フィルタリング後の最小の第1画像成分参照値、前記最小の予測待ち画像成分参照値、および前記プリセットされた初期線形モデルを使用して、第2サブ成分線形モデルを構築し、前記第1サブ成分線形モデルおよび前記第2サブ成分線形モデルに基づいて、モデルパラメータを取得し、前記モデルパラメータおよび前記プリセットされた初期線形モデルを使用して、前記成分線形モデルを構築するように構成される。
本願のいくつかの実施例では、前記決定部31は、さらに、前記成分線形モデルのパラメータが倍数因子と加法的オフセットを含み、前記最大の予測待ち画像成分参照値と前記最小の予測待ち画像成分参照値との間の第1差分値を計算し、前記最大の第1画像成分参照値と前記最小の第1画像成分参照値との間の第2差分値を計算し、前記倍数因子を、前記第1差分値と前記第2差分値の比率として設定し、前記最大の第1画像成分参照値と前記倍数因子との間の第1積を計算し、前記加法的オフセットを前記最大の予測待ち画像成分参照値と前記第1積との間の差分値として設定するか、または、前記最小の第1画像成分参照値と前記倍数因子との間の第2積を計算し、前記加法的オフセットを前記最小の予測待ち画像成分参照値と前記第2積との間の差分値として設定するように構成される。
本願のいくつかの実施例では、前記第1画像成分は輝度成分であり、前記予測待ち画像成分は第1または第2色差成分であるか、または、
前記第1画像成分は前記第1色差成分であり、前記予測待ち画像成分は前記輝度成分または前記第2色差成分であるか、または、
前記第1画像成分は前記第2色差成分であり、前記予測待ち画像成分は前記輝度成分または前記第1色差成分であるか、または、
前記第1画像成分は第1色成分であり、前記予測待ち画像成分は第2色成分または第3色成分であるか、または、
前記第1画像成分は前記第2色成分であり、前記予測待ち画像成分は前記第1色成分または前記第3色成分であるか、または、
前記第1画像成分は前記第3色成分であり、前記予測待ち画像成分は前記第2色成分または前記第1色成分である。
本願のいくつかの実施例では、前記第1色成分は赤成分であり、前記第2色成分は緑成分であり、前記第3色成分は青成分である。
本願のいくつかの実施例では、前記第1フィルタリング処理は、ダウンサンプリングフィルタリングまたはローパスフィルタリングである。
なお、本願の実施例では、上記のビデオ成分予測方法が、ソフトウェア機能モジュールの形で実行され、独立した製品として販売または使用される場合、コンピュータ可読記憶媒体に記憶されることもできる。このような理解に基づき、本願の実施例の技術的解決策の本質的な部分、すなわち、関連技術に貢献のある部分は、ソフトウェア製品の形で具現されることができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、電子機器(携帯電話、タブレットコンピュータ、パーソナルコンピュータ、携帯情報端末、ナビゲーター、デジタル電話、ビデオ電話、テレビ、感知機器、サーバなどであり得る)に、本願の各実施例に記載の方法の全部または一部を実行させるためのいくつかの命令を含む。上記の記憶媒体は、Uディスク、モバイルハードディスク、読み取り専用メモリ(ROM:Read Only Memory)、磁気ディスク、または光ディスクなど、プログラムコードを記憶することができる様々な媒体を含む。このように、本願の実施例は、特定のハードウェアおよびソフトウェアの組み合わせに限定されない。
実際の応用では、図9に示されるように、本願の実施例によるビデオ成分予測装置は、
実行可能なビデオ成分予測命令を記憶するように構成されるメモリ34と、
前記メモリ34に記憶された実行可能なビデオ成分予測命令を実行するときに、上記の実施例で提供されるビデオ成分予測方法のステップを実現するように構成されるプロセッサ35と、を備える。
これに対応して、本願の実施例は、ビデオ成分予測命令が記憶されたコンピュータ可読記憶媒体を提供し、当該ビデオ成分予測命令がプロセッサ35によって実行されるときに、上記の実施例で提供されるビデオ成分予測方法のステップを実現する。
ここで、記憶媒体および装置の実施例に関する上記の説明は、上記の方法の実施例に関する説明と同様であり、方法の実施例と同様の有益な効果を有することを指摘されたい。本願の記憶媒体および装置の実施例に開示されていない技術的詳細については、本願の方法の実施例の説明を参照することによって理解できる。
上記の内容は、本願の具体的な実施形態に過ぎず、本願の保護範囲はこれに限定されない。当業者は、本願で開示された技術的範囲内で容易に想到し得る変更または置換は、すべて本願の保護範囲内に含まれるべきである。したがって、本出願の保護範囲は、特許請求の保護範囲に従うものとする。
本願の実施例では、ビデオ成分予測装置は、まず、直接取得された、現在のブロックに対応する第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値的を決定し、次に、決定された複数の第1画像成分参照値に対応する位置に基づいてフィルタリング処理を実行して、成分線形モデルを構築する。このようにして、現在のブロックに対応する画素点のフィルタリング処理の作業負荷が軽減され、すなわち、フィルタリング操作が軽減され、これにより、成分線形モデルの構築の複雑さが軽減され、ビデオ成分予測の複雑さがさらに軽減され、予測効率が向上し、ビデオの符号化・復号化効率が向上する。

Claims (22)

  1. 画像成分予測方法であって、復号化器に適用され、
    現在のブロックの第1画像成分の参照値セットを決定することと、
    前記第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値を決定することと、
    前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を決定することと、
    前記複数のフィルタリング後の第1画像参照サンプル値および対応する予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することであって、前記予測待ち画像成分は、前記第1画像成分と異なる画像成分であり、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す、ことと、
    前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得することと、
    前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定することと、を含み、
    前記第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値を決定することは、
    プリセットされた位置に基づいて、前記現在のブロックの上側の複数の隣接行における画素点から、複数の参照画素点を選択し、プリセットされた位置に基づいて、前記現在のブロックの左側の複数の隣接列における画素点から、複数の参照画素点を選択することであって、前記プリセットされた位置の数が4つである、ことと、
    選択された参照画素点に基づいて、前記複数の第1画像成分参照値を決定することと、を含む、
    画像成分予測方法。
  2. 現在のブロックの第1画像成分の参照値セットを決定することは、
    前記現在のブロックではない位置にある複数の参照画素点を決定し、前記複数の参照画素点を前記第1画像成分の参照値セットとして決定することを含み、
    前記現在のブロックではない位置にある複数の参照画素点を決定することは、
    前記現在のブロックに隣接する複数の画素点を前記複数の参照画素点として決定することを含む、
    請求項1に記載の画像成分予測方法。
  3. 前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を決定することは、
    前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行し、フィルタリング後の参照値セットを得ることと、
    前記フィルタリング後の参照値セットに含まれる参照サンプル値を比較し、大きい第1画像成分参照値からなるセットと小さい第1画像成分参照値からなるセットとを決定することと、
    前記大きい第1画像成分参照値からなるセットと前記小さい第1画像成分参照値からなるセットとに基づいて、複数のフィルタリング後の第1画像参照サンプル値を決定することと、を含む、
    請求項1に記載の画像成分予測方法。
  4. 前記大きい第1画像成分参照値からなるセットと前記小さい第1画像成分参照値からなるセットとに基づいて、複数のフィルタリング後の第1画像参照サンプル値を決定することは、
    前記大きい第1画像成分参照値からなるセットに対して平均処理を実行し、フィルタリング後の最大の第1画像成分参照値を得ることと、
    前記小さい第1画像成分参照値からなるセットに対して平均処理を実行し、フィルタリング後の最小の第1画像成分参照値を得ることと、を含む、
    請求項3に記載の画像成分予測方法。
  5. 前記大きい第1画像成分参照値からなるセット内のサンプル値の数が2であり、前記小さい第1画像成分参照値からなるセット内のサンプル値の数が2である、
    請求項3に記載の画像成分予測方法。
  6. 前記方法は、
    前記フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、および前記フィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定することを含む、
    請求項4に記載の画像成分予測方法。
  7. 前記複数のフィルタリング後の第1画像参照サンプル値および対応する予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することは、
    前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、前記フィルタリング後の最小の第1画像成分参照値、および前記最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することを含み、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す、
    請求項6に記載の画像成分予測方法。
  8. 前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得することは、
    前記第1画像成分の再構成値に対して第2フィルタリング処理を実行して、前記第1画像成分の再構成値の第2フィルタ値を取得することと、
    前記成分線形モデルに基づいて、前記第2フィルタ値に対してマッピング処理を実行して、前記マッピング値を取得することと、を含み、
    前記第2フィルタリング処理は、ダウンサンプリングフィルタリングまたはローパスフィルタリングである、
    請求項1に記載の画像成分予測方法。
  9. 前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定することは、
    前記マッピング値を前記現在のブロックの前記予測待ち画像成分の予測値として設定することを含む、
    請求項1に記載の画像成分予測方法。
  10. 前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定することは、
    前記マッピング値に対して第3フィルタリング処理を実行して、マッピング値の第3フィルタ値を取得することと、
    前記第3フィルタ値を、前記現在のブロックの前記予測待ち画像成分の予測値として設定することと、を含み、
    前記第3フィルタリング処理は、ローパスフィルタリングである、
    請求項1に記載の画像成分予測方法。
  11. 前記フィルタリング後の最大の第1画像成分参照値に対応する最大の予測待ち画像成分参照値、および前記フィルタリング後の最小の第1画像成分参照値に対応する最小の予測待ち画像成分参照値を決定することは、
    前記大きい第1画像成分参照値からなるセット内の参照画素点の予測待ち画像成分参照値、及び前記小さい第1画像成分参照値からなるセット内の参照画素点の予測待ち画像成分参照値を取得することと、
    前記大きい第1画像成分参照値からなるセット内の参照画素点の予測待ち画像成分参照値に対して平均処理を実行し、前記最大の予測待ち画像成分参照値を決定することと、
    前記小さい第1画像成分参照値からなるセット内の参照画素点の予測待ち画像成分参照値に対して平均処理を実行し、前記最小の予測待ち画像成分参照値を決定することと、を含む、
    請求項6に記載の画像成分予測方法。
  12. 前記画像成分予測方法は、
    前記予測待ち画像成分参照値に対して第4フィルタリング処理を実行して、予測待ち画像成分再構成値を取得することをさらに含み、
    前記第4フィルタリング処理は、ローパスフィルタリングである、
    請求項11に記載の画像成分予測方法。
  13. 前記方法は、
    前記フィルタリング後の最大の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点の位置を、第1サンプリング点の位置に変換することと、
    前記最大の予測待ち画像成分参照値を、前記予測待ち画像成分参照値のうち前記第1サンプリング点の位置における参照値として設定することと、
    前記フィルタリング後の最小の第1画像成分参照値に対応する第1画像成分参照値のサンプリング点の位置を、第2サンプリング点の位置に変換することと、
    前記最小の予測待ち画像成分参照値を、前記予測待ち画像成分参照値のうち前記第2サンプリング点の位置における参照値として設定することと、を含む、
    請求項11に記載の画像成分予測方法。
  14. 前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、前記フィルタリング後の最小の第1画像成分参照値、および前記最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することは、
    前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、およびプリセットされた初期線形モデル使用して、第1サブ成分線形モデルを構築することと、
    前記フィルタリング後の最小の第1画像成分参照値、前記最小の予測待ち画像成分参照値、および前記プリセットされた初期線形モデルを使用して、第2サブ成分線形モデルを構築することと、
    前記第1サブ成分線形モデルおよび前記第2サブ成分線形モデルに基づいて、モデルパラメータを取得することと、
    前記モデルパラメータおよび前記プリセットされた初期線形モデルを使用して、前記成分線形モデルを構築することと、を含む、
    請求項7に記載の画像成分予測方法。
  15. 前記フィルタリング後の最大の第1画像成分参照値、前記最大の予測待ち画像成分参照値、前記フィルタリング後の最小の第1画像成分参照値、および前記最小の予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することは、
    前記成分線形モデルのパラメータが倍数因子と加法的オフセットを含み、
    前記最大の予測待ち画像成分参照値と前記最小の予測待ち画像成分参照値との間の第1差分値を計算することと、
    前記最大の第1画像成分参照値と前記最小の第1画像成分参照値との間の第2差分値を計算することと、
    前記倍数因子を、前記第1差分値と前記第2差分値の比率として設定することと、
    前記最大の第1画像成分参照値と前記倍数因子との間の第1積を計算し、前記加法的オフセットを前記最大の予測待ち画像成分参照値と前記第1積との間の差分値として設定するか、または、前記最小の第1画像成分参照値と前記倍数因子との間の第2積を計算し、前記加法的オフセットを前記最小の予測待ち画像成分参照値と前記第2積との間の差分値として設定することと、を含む、
    請求項7に記載の画像成分予測方法。
  16. 前記第1画像成分は輝度成分であり、前記予測待ち画像成分は第1または第2色差成分であり、または、
    前記第1画像成分は前記第1色差成分であり、前記予測待ち画像成分は前記輝度成分または前記第2色差成分であり、または、
    前記第1画像成分は前記第2色差成分であり、前記予測待ち画像成分は前記輝度成分または前記第1色差成分であり、または、
    前記第1画像成分は第1色成分であり、前記予測待ち画像成分は第2色成分または第3色成分であり、または、
    前記第1画像成分は前記第2色成分であり、前記予測待ち画像成分は前記第1色成分または前記第3色成分であり、または、
    前記第1画像成分は前記第3色成分であり、前記予測待ち画像成分は前記第2色成分または前記第1色成分であり、
    前記第1色成分は赤成分であり、前記第2色成分は緑成分であり、前記第3色成分は青成分である、
    請求項1に記載の画像成分予測方法。
  17. 前記第1フィルタリング処理は、ダウンサンプリングフィルタリングまたはローパスフィルタリングである、
    請求項1に記載の画像成分予測方法。
  18. 画像成分予測方法であって、符号化器に適用され、
    現在のブロックの第1画像成分の参照値セットを決定することと、
    前記第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値を決定することと、
    前記複数の第1画像成分参照値に対応する画素点のサンプル値に対して第1フィルタリング処理をそれぞれ実行して、複数のフィルタリング後の第1画像参照サンプル値を決定することと、
    前記複数のフィルタリング後の第1画像参照サンプル値および対応する予測待ち画像成分参照値に基づいて、成分線形モデルのパラメータを決定することであって、前記予測待ち画像成分は、前記第1画像成分と異なる画像成分であり、前記成分線形モデルは、前記第1画像成分のサンプル値を前記予測待ち画像成分のサンプル値にマッピングする線形マッピング関係を表す、ことと、
    前記成分線形モデルに基づいて、前記現在のブロックの前記第1画像成分の再構成値に対してマッピング処理を実行して、マッピング値を取得することと、
    前記マッピング値に基づいて、前記現在のブロックの前記予測待ち画像成分の予測値を決定することと、を含み、
    前記第1画像成分の参照値セットに基づいて、複数の第1画像成分参照値を決定することは、
    プリセットされた位置に基づいて、前記現在のブロックの上側の複数の隣接行における画素点から、複数の参照画素点を選択し、プリセットされた位置に基づいて、前記現在のブロックの左側の複数の隣接列における画素点から、複数の参照画素点を選択することであって、前記プリセットされた位置の数が4つである、ことと、
    選択された参照画素点に基づいて、前記複数の第1画像成分参照値を決定することと、を含む、
    画像成分予測方法。
  19. ビデオ成分予測装置であって、復号化器に適用され、
    実行可能なビデオ成分予測命令を記憶するように構成されるメモリと、
    前記メモリに記憶された実行可能なビデオ成分予測命令を実行するときに、請求項1ないし17のいずれか一項に記載の方法を実現するように構成されるプロセッサと、を備える、ビデオ成分予測装置。
  20. ビデオ成分予測装置であって、符号化器に適用され、
    実行可能なビデオ成分予測命令を記憶するように構成されるメモリと、
    前記メモリに記憶された実行可能なビデオ成分予測命令を実行するときに、請求項18に記載の方法を実現するように構成されるプロセッサと、を備える、ビデオ成分予測装置。
  21. プロセッサによって実行されるときに、請求項1ないし17のいずれか一項に記載の方法を実現するように構成される実行可能なビデオ成分予測命令が記憶された、コンピュータ可読記憶媒体。
  22. プロセッサによって実行されるときに、請求項18に記載の方法を実現するように構成される実行可能なビデオ成分予測命令が記憶された、コンピュータ可読記憶媒体。
JP2021517944A 2018-10-12 2019-10-11 ビデオ画像成分予測方法および装置、コンピュータ記憶媒体 Active JP7518065B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862744747P 2018-10-12 2018-10-12
US62/744,747 2018-10-12
PCT/CN2019/110633 WO2020073990A1 (zh) 2018-10-12 2019-10-11 视频图像分量预测方法及装置、计算机存储介质

Publications (3)

Publication Number Publication Date
JP2022503990A JP2022503990A (ja) 2022-01-12
JPWO2020073990A5 JPWO2020073990A5 (ja) 2022-09-22
JP7518065B2 true JP7518065B2 (ja) 2024-07-17

Family

ID=70164470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517944A Active JP7518065B2 (ja) 2018-10-12 2019-10-11 ビデオ画像成分予測方法および装置、コンピュータ記憶媒体

Country Status (14)

Country Link
US (3) US11388397B2 (ja)
EP (1) EP3843399B1 (ja)
JP (1) JP7518065B2 (ja)
KR (1) KR20210070368A (ja)
CN (2) CN113068030B (ja)
AU (1) AU2019357929A1 (ja)
BR (1) BR112021006138A2 (ja)
CA (1) CA3114816C (ja)
IL (1) IL281832A (ja)
MX (1) MX2021004090A (ja)
PH (1) PH12021550708A1 (ja)
SG (1) SG11202103312YA (ja)
WO (1) WO2020073990A1 (ja)
ZA (1) ZA202102207B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117426088A (zh) * 2021-09-17 2024-01-19 Oppo广东移动通信有限公司 视频编解码方法、设备、系统、及存储介质
WO2023197190A1 (zh) * 2022-04-12 2023-10-19 Oppo广东移动通信有限公司 编解码方法、装置、编码设备、解码设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017086823A1 (en) 2015-11-17 2017-05-26 Huawei Technologies Co., Ltd. Method and apparatus of adaptive filtering of samples for video coding
WO2020076835A1 (en) 2018-10-08 2020-04-16 Beijing Dajia Internet Information Technology Co., Ltd. Simplifications of cross-component linear model
JP2021517753A (ja) 2018-02-23 2021-07-26 キヤノン株式会社 線形成分サンプル予測のための新しいサンプルセット及び新しいダウンサンプリング方式

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103379321B (zh) * 2012-04-16 2017-02-01 华为技术有限公司 视频图像分量的预测方法和装置
RU2654129C2 (ru) 2013-10-14 2018-05-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Функциональные возможности режима внутреннего предсказания с блочным копированием для кодирования и декодирования видео и изображений
US10425648B2 (en) * 2015-09-29 2019-09-24 Qualcomm Incorporated Video intra-prediction using position-dependent prediction combination for video coding
CN106604028A (zh) * 2015-10-16 2017-04-26 中兴通讯股份有限公司 编码处理、解码处理方法及装置、编码器及解码器
US20170150186A1 (en) 2015-11-25 2017-05-25 Qualcomm Incorporated Flexible transform tree structure in video coding
US10390015B2 (en) * 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
JP2018056685A (ja) * 2016-09-27 2018-04-05 株式会社ドワンゴ 画像符号化装置、画像符号化方法、及び画像符号化プログラム、並びに、画像復号装置、画像復号方法、及び画像復号プログラム
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
CN114422780A (zh) * 2017-04-28 2022-04-29 夏普株式会社 图像解码装置以及图像编码装置
WO2018236031A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2019004283A1 (ja) * 2017-06-28 2019-01-03 シャープ株式会社 動画像符号化装置及び動画像復号装置
CN107580222B (zh) 2017-08-01 2020-02-14 北京交通大学 一种基于线性模型预测的图像或视频编码方法
JP2021010046A (ja) * 2017-10-06 2021-01-28 シャープ株式会社 画像符号化装置及び画像復号装置
WO2020053805A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Single-line cross component linear model prediction mode
KR20190083956A (ko) * 2018-01-05 2019-07-15 에스케이텔레콤 주식회사 YCbCr간의 상관 관계를 이용한 영상 부호화/복호화 방법 및 장치
WO2019201232A1 (en) * 2018-04-16 2019-10-24 Huawei Technologies Co., Ltd. Intra-prediction using cross-component linear model
EP3815370B1 (en) * 2018-07-12 2024-07-31 Huawei Technologies Co., Ltd. Intra-prediction using a cross-component linear model in video coding
CN110999290B (zh) * 2018-07-15 2021-07-16 华为技术有限公司 使用跨分量线性模型进行帧内预测的方法和装置
JP7461925B2 (ja) * 2018-07-16 2024-04-04 華為技術有限公司 ビデオ符号器、ビデオ復号器、並びに対応する符号化及び復号化方法
WO2020031902A1 (ja) * 2018-08-06 2020-02-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
WO2020036132A1 (ja) * 2018-08-15 2020-02-20 日本放送協会 画像符号化装置、画像復号装置、及びプログラム
CN110881126B (zh) * 2018-09-05 2024-01-30 华为技术有限公司 色度块预测方法以及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017086823A1 (en) 2015-11-17 2017-05-26 Huawei Technologies Co., Ltd. Method and apparatus of adaptive filtering of samples for video coding
JP2021517753A (ja) 2018-02-23 2021-07-26 キヤノン株式会社 線形成分サンプル予測のための新しいサンプルセット及び新しいダウンサンプリング方式
WO2020076835A1 (en) 2018-10-08 2020-04-16 Beijing Dajia Internet Information Technology Co., Ltd. Simplifications of cross-component linear model
JP2022500967A (ja) 2018-10-08 2022-01-04 ベイジン ダージャー インターネット インフォメーション テクノロジー カンパニー リミテッドBeijing Dajia Internet Information Technology Co., Ltd. クロスコンポーネント線形モデルの簡略化

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN, Jianle et al.,Algorithm Description of Joint Exploration Test Model 7 (JEM 7),JVET-G1001 (version 1),ITU,2017年08月19日,pp.10-13,[online],[retrieved on 2023-10-27],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/7_Torino/wg11/JVET-G1001-v1.zip>,JVET-G1001-v1.docx
LAROCHE, Guillaume et al.,CE3-5.1: On Cross-Component Linear Model Simplification,JVET-L0191 (version 3),ITU,2018年10月07日,pp.1-4,[online],[retrieved on 2023-10-31],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/12_Macao/wg11/JVET-L0191-v3.zip>,JVET-L0191r1.docx
MA, Xiang et al.,CE3-related: Classification-Based Mean Value for CCLM Coefficients Derivation,JVET-L0342 (version 4),ITU,2018年10月07日,pp.1-5,[online],[retrieved on 2023-10-31],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/12_Macao/wg11/JVET-L0342-v4.zip>,JVET-L0342_r2.docx
WANG, Meng et al.,CE3-1.5: CCLM derived with Four Neighbouring Samples,JVET-N0271 (version 1),ITU,2019年03月13日,pp.1-3,[online],[retrieved on 2024-05-30],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0271-v1.zip>,JVET-N0271.docx

Also Published As

Publication number Publication date
US20220239901A1 (en) 2022-07-28
CA3114816A1 (en) 2020-04-16
EP3843399C0 (en) 2023-09-06
CA3114816C (en) 2023-08-22
US11876958B2 (en) 2024-01-16
EP3843399A1 (en) 2021-06-30
US20210218958A1 (en) 2021-07-15
MX2021004090A (es) 2021-06-08
US20240098255A1 (en) 2024-03-21
AU2019357929A1 (en) 2021-04-29
PH12021550708A1 (en) 2021-11-03
BR112021006138A2 (pt) 2021-06-29
KR20210070368A (ko) 2021-06-14
WO2020073990A1 (zh) 2020-04-16
CN113068030B (zh) 2023-01-03
EP3843399B1 (en) 2023-09-06
SG11202103312YA (en) 2021-04-29
CN113068030A (zh) 2021-07-02
IL281832A (en) 2021-05-31
CN112335245A (zh) 2021-02-05
JP2022503990A (ja) 2022-01-12
EP3843399A4 (en) 2021-10-20
ZA202102207B (en) 2022-07-27
US11388397B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
JP2021516016A (ja) 変換領域における残差符号予測のための方法および装置
WO2020258010A1 (zh) 图像编解码方法、编码器、解码器以及存储介质
JP2014523698A (ja) 画像の輝度成分を用いて画像の色差成分を予測する方法及び予測装置
JP2022544164A (ja) フレームタイプに基づく適応分解能管理の暗示的信号伝達
KR20200091848A (ko) 인트라 예측 방법 및 그 장치
US20240098255A1 (en) Video picture component prediction method and apparatus, and computer storage medium
JP7384974B2 (ja) 適応乗算係数を用いた画像フィルタリングのための方法および装置
TW202029774A (zh) 藉由轉換域濾波之量化假影抑制及信號恢復
JP2022544159A (ja) サブフレームを使用した適応分解能管理
JP7481332B2 (ja) デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体
JP2024001313A (ja) 情報処理方法および装置、機器、記憶媒体
JP2022544157A (ja) 適応分解能管理予測再スケーリング
CN116723328A (zh) 一种视频编码方法、装置、设备及存储介质
KR20110126075A (ko) 확장 블록 필터링을 이용한 비디오 부호화, 복호화 방법 및 장치
WO2022077490A1 (zh) 一种帧内预测方法、编码器、解码器及存储介质
RU2800683C2 (ru) Способ и устройство предсказывания компонента видеоизображения и компьютерный носитель данных
US20210321091A1 (en) Intra prediction method and apparatus, and computer-readable storage medium
JP2024099733A (ja) デコードのための予測方法及びその装置、並びにコンピュータ記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240704

R150 Certificate of patent or registration of utility model

Ref document number: 7518065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150