JP2022097690A - 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置 - Google Patents

映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置 Download PDF

Info

Publication number
JP2022097690A
JP2022097690A JP2022078764A JP2022078764A JP2022097690A JP 2022097690 A JP2022097690 A JP 2022097690A JP 2022078764 A JP2022078764 A JP 2022078764A JP 2022078764 A JP2022078764 A JP 2022078764A JP 2022097690 A JP2022097690 A JP 2022097690A
Authority
JP
Japan
Prior art keywords
sample
upper peripheral
current block
peripheral
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022078764A
Other languages
English (en)
Other versions
JP7284318B2 (ja
Inventor
チン ホ
Jin Heo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2022097690A publication Critical patent/JP2022097690A/ja
Priority to JP2023082149A priority Critical patent/JP2023096116A/ja
Application granted granted Critical
Publication of JP7284318B2 publication Critical patent/JP7284318B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

【課題】現在ブロックの複数の周辺サンプルに基づいて生成された参照サンプルに基づくイントラ予測方法及び装置を提供する。【解決手段】本発明に従うデコーディング装置により行われる映像デコーディング方法は、現在ブロックに対するイントラ予測モードを導出する段階、現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出する段階、上側周辺サンプルに基づいて1行の上側参照サンプルを導出する段階、左側周辺サンプルに基づいて1列の左側参照サンプルを導出する段階、及びイントラ予測モードによって上側参照サンプル及び左側参照サンプルの少なくとも1つを用いて現在ブロックに対する予測サンプルを生成する段階を含むことを特徴とする。【選択図】図4

Description

本発明は、映像コーディング技術に関し、より詳細には、映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置に関する。
最近、HD(High Definition)映像及びUHD(Ultra High Definition)映像のような高解像度、高品質の映像に対する需要が多様な分野において増加している。映像データが高解像度、高品質になるほど従来の映像データに比べて相対的に送信される情報量またはビット量が増加するから、従来の有無線広帯域回線のような媒体を利用して映像データを送信するか、または従来の格納媒体を利用して映像データを格納する場合、送信費用と格納費用が増加する。
これにより、高解像度、高品質映像の情報を効果的に送信または格納し、再生するために高効率の映像圧縮技術が求められる。
本発明の技術的課題は、映像コーディング効率を高める方法及び装置を提供することにある。
本発明の他の技術的課題は、現在ブロックの複数の周辺サンプルに基づいて参照サンプルを生成し、前記参照サンプルに基づいて行うイントラ予測方法及び装置を提供することにある。
本発明の一実施形態によれば、デコーディング装置により行われる映像デコーディング方法が提供される。上記方法は、現在ブロックに対するイントラ予測モードを導出する段階、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出する段階、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出する段階、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出する段階、及び前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する段階を含むことを特徴とする。
本発明の他の実施形態によれば、映像デコーディングを行うデコーディング装置が提供される。前記デコーディング装置は、現在ブロックに対する予測情報を取得するエントロピーデコーディング部、及び現在ブロックに対するイントラ予測モードを導出し、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出し、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出し、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出し、前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する予測部を含むことを特徴とする。
本発明のさらに他の一実施形態によれば、エンコーディング装置により行われるビデオエンコーディング方法を提供する。上記方法は、現在ブロックに対するイントラ予測モードを決定する段階、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出する段階、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出する段階、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出する段階、前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する段階、及び前記現在ブロックに対する予測情報を生成してエンコードして出力する段階を含むことを特徴とする。
本発明のさらに他の一実施形態によれば、ビデオエンコーディング装置を提供する。前記エンコーディング装置は、現在ブロックに対するイントラ予測モードを決定し、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出し、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出し、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出し、前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する予測部、及び前記現在ブロックに対する予測情報を生成してエンコードして出力するエントロピーエンコーディング部を含むことを特徴とする。
本発明によれば、複数の周辺サンプルに基づいて現在ブロックに対する参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるため、全般的なコーディング効率を向上させることができる。
本発明によれば、現在ブロックに対するイントラ予測モードの予測方向に位置する複数の周辺サンプルに基づいて参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるため、全般的なコーディング効率を向上させることができる。
本発明によれば、複数の周辺サンプルに対する加重値を導出し、前記加重値及び前記周辺サンプルに基づいて参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるため、全般的なコーディング効率を向上させることができる。
本発明が適用できるビデオエンコーディング装置の構成を概略的に説明する図面である。 本発明が適用できるビデオデコーディング装置の構成を概略的に説明する図面である。 現在ブロックのイントラ予測に用いられる左側周辺サンプル及び上側周辺サンプルを例示する。 現在ブロックに対する複数の周辺サンプルに基づいて参照サンプルを導出する一例を示す。 現在ブロックに対する複数の周辺サンプルに基づいて参照サンプルを導出する一例を示す。 追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて現在ブロックの上側参照サンプルを生成する一例を示す。 分数サンプル位置に位置する周辺サンプルを導出する一例を示す。 追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて現在ブロックの上側参照サンプルを生成する一例を示す。 予測方向によってイントラ予測モードを区分する一例を示す。 追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて現在ブロックの上側参照サンプルを生成する一例を示す。 本発明に従うエンコーディング装置によるビデオエンコーディング方法を概略的に示す。 本発明に従うデコーディング装置によるビデオデコーディング方法を概略的に示す。
本発明は多様な変更を加えることができ、さまざまな実施形態を有することができるところ、特定の実施形態を図面に例示し、詳細に説明しようとする。しかしながら、これは本発明を特定の実施形態に対して限定しようとするものではない。本明細書で使用する用語は単に特定の実施形態を説明するために使われたものであって、本発明の技術的思想を限定しようとする意図として使われるものではない。単数の表現は文脈上、明白に異なる意味として使用されない限り、複数の表現を含む。本明細書で、“含む”または“有する”などの用語は明細書上に記載された特徴、数字、段階、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、1つまたはその以上の他の特徴や数字、段階、動作、構成要素、部品、またはこれらを組み合わせたものの存在または付加可能性を予め排除しないことと理解されるべきである。
一方、本発明で説明される図面上の各構成はビデオエンコーディング装置/デコーディング装置で互いに異なる特徴的な機能に関する説明の便宜のために独立的に図示されたものであって、各構成が互いに別のハードウェアや別のソフトウェアで具現されることを意味しない。例えば、各構成のうち、2つ以上の構成が合わさって1つの構成をなすこともでき、1つの構成が複数の構成に分けられることもできる。各構成が統合及び/又は分離された実施形態も本発明の本質から逸脱しない限り、本発明の権利範囲に含まれる。
以下、添付した図面を参照して、本発明の好ましい実施形態をより詳細に説明する。以下、図面上の同一な構成要素に対しては同一な参照符号を使用し、同一な構成要素に対して重複した説明は省略する。
本明細書において、ピクチャ(picture)は、一般的に特定時間帯の一つの映像を示す単位を意味し、スライス(slice)は、コーディングにおいてピクチャの一部を構成する単位である。一つのピクチャは、複数のスライスで構成されることができ、必要によって、ピクチャ及びスライスは、互いに混用されて使われることができる。
ピクセル(pixel)またはペル(pel)は、一つのピクチャ(または、映像)を構成する最小の単位を意味する。また、特定なピクセルの値を示す用語として‘サンプル(sample)’が使われることができる。サンプルは、一般的にピクセルの値を示すことができ、輝度(luma)成分のピクセル値のみを示すこともでき、彩度(chroma)成分のピクセル値のみを示すこともできる。
ユニット(unit)は、映像処理の基本単位を示す。ユニットは、ピクチャの特定領域及び該当領域に関連した情報のうち少なくとも一つを含むことができる。ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用して使われることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプルまたは変換係数(transform coefficient)のセットを示すことができる。
図1は、本発明が適用できるビデオエンコーディング装置の構成を概略的に説明する図面である。
図1を参照すると、ビデオエンコーディング装置100は、ピクチャ分割部105、予測部110、減算部115、変換部120、 量子化部125、再整列部130、エントロピーエンコーディング部135、残差(residual)処理部140、加算部150、フィルタ部155、及びメモリ160を含むことができる。残差処理部140は、逆量子化部141、及び逆変換部142を含むことができる。
ピクチャ分割部105は、入力されたピクチャを少なくとも一つの処理ユニット(processing unit)に分割することができる。
一例として、処理ユニットはコーディングユニット(coding unit、CU)とも呼ばれ得る。この場合、コーディングユニットは、最大のコーディングユニット(largest coding unit、LCU)からQTBT(Quad-tree binary-tree)の構造によって、帰納的(recursively)に分割されることができる。例えば、一つのコーディングユニットは、クワッドツリー構造及び/又はバイナリツリー構造に基づき、下位(deeper)デプスの複数のコーディングユニットに分割されることができる。この場合、例えば、クワッドツリー構造が先に適用され、バイナリツリー構造が後に適用されることができる。或いは、バイナリツリー構造が先に適用されることもできる。これ以上分割されない最終のコーディングユニットに基づき、本発明に係るコーディング手続が行われることができる。この場合、画像特性によるコーディングの効率等に基づき、最大のコーディングユニットが直ぐ最終のコーディングユニットとして用いられてもよく、又は必要に応じて、コーディングユニットは帰納的に(recursively)、より下位デプスのコーディングユニットに分割され、最適のサイズのコーディングユニットが最終のコーディングユニットとして用いられてもよい。ここで、コーディング手続とは、後述する予測、変換、及び復元等の手続を含み得る。
他の例として、処理ユニットは、コーディングユニット(coding unit、CU)、予測ユニット(prediction unit、PU)又は変換ユニット(transform unit、TU)を含むこともできる。コーディングユニットは、最大のコーディングユニット(largest coding unit、LCU)からクワッドツリー構造に沿って、下位(deeper)デプスのコーディングユニットに分割(split)されることができる。この場合、画像の特性によるコーディングの効率等に基づき、最大のコーディングユニットが直ぐ最終のコーディングユニットとして用いられてもよく、又は必要に応じて、コーディングユニットは帰納的に(recursively)、より下位デプスのコーディングユニットに分割され、最適のサイズのコーディングユニットが最終のコーディングユニットとして用いられてもよい。最小のコーディングユニット(smallest coding unit、SCU)が設定された場合、コーディングユニットは、最小のコーディングユニットよりもさらに小さいコーディングユニットに分割されることができない。ここで、最終のコーディングユニットとは、予測ユニット又は変換ユニットにパーティショニング又は分割されるベースとなるコーディングユニットを意味する。予測ユニットは、コーディングユニットからパーティショニング (partitioning)されるユニットであって、サンプル予測のユニットであり得る。このとき、予測ユニットはサブブロック(sub block)に分けられてもよい。変換ユニットは、コーディングユニットからクワッドツリー構造に沿って分割されることができ、変換係数を誘導するユニット及び/又は変換係数から残差信号(residual signal)を誘導するユニットであり得る。以下、コーディングユニットはコーディングブロック(coding block、CB)、予測ユニットは予測ブロック(prediction block、PB)、変換ユニットは変換ブロック(transform block、TB)と呼ばれ得る。予測ブロック又は予測ユニットは、ピクチャ内でブロック形態の特定領域を意味してもよく、予測サンプルのアレイ(array)を含んでもよい。また、変換ブロック又は変換ユニットは、ピクチャ内でブロック形態の特定領域を意味してもよく、変換係数又は残差サンプルのアレイを含んでもよい。
予測部110は、処理対象ブロック(以下、現在ブロックという)に対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成することができる。予測部110で実行される予測の単位は、コーディングブロック、または変換ブロック、または予測ブロックである。
予測部110は、現在ブロックにイントラ予測が適用されるか、インター予測が適用されるかを決定することができる。一例として、予測部110は、CU単位にイントラ予測またはインター予測が適用されるかを決定することができる。
イントラ予測の場合、予測部110は、現在ブロックが属するピクチャ(以下、現在のピクチャ)内の現在ブロックの外部の参照サンプルに基づいて、現在ブロックに対する予測サンプルを誘導することができる。このとき、予測部110は、(i)現在ブロックの周辺(neighboring)参照サンプルの平均(average)或いは補間(interpolation)に基づいて予測サンプルを誘導してもよく、(ii)現在ブロックの周辺の参照サンプルのうち、予測サンプルに対して特定(予測)方向に存在する参照サンプルに基づいて前記予測サンプルを誘導してもよい。(i)の場合は非方向性モード又は非角度モード、(ii)の場合は方向性(directional)モード又は角度(angular)モードであると呼ばれ得る。イントラ予測における予測モードは、例えば、33個の方向性予測モードと、少なくとも2個以上の非方向性モードを有することができる。非方向性モードは、DC予測モード及びプラナーモード(Planarモード)を含むことができる。予測部110は、周辺ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測の場合、予測部110は、参照ピクチャ上で動きベクトルによって特定されるサンプルに基づき、現在ブロックに対する予測サンプルを誘導することができる。予測部110は、スキップ(skip)モード、マージ(merge)モード、及びMVP(motion vector prediction)モードの何れかを適用し、現在ブロックに対する予測サンプルを誘導することができる。スキップモードとマージモードの場合、予測部110は周辺ブロックの動き情報を現在ブロックの動き情報に用いることができる。スキップモードの場合、マージモードと異なり、予測サンプルと原本サンプルとの間の差(残差)が転送されない。MVPモードの場合、周辺ブロックの動きベクトルを動きベクトル予測子(Motion Vector Predictor)として用いて、現在ブロックの動きベクトル予測子として用いて、現在ブロックの動きベクトルを誘導することができる。
インター予測の場合、周辺ブロックは現在のピクチャ内に存在する空間的周辺ブロック(spatial neighboring block)と参照ピクチャ(reference picture)に存在する時間的周辺ブロック(temporal neighboring block)を含むことができる。前記時間的周辺ブロックを含む参照ピクチャは、同じ位置のピクチャ(collocated picture、colPic)とも呼ばれ得る。動き情報(motion information)は、動きベクトルと参照ピクチャインデックスを含むことができる。予測モード情報と動き情報等の情報は、(エントロピー)エンコーディングされてビットストリームの形態で出力されることができる。
スキップモードとマージモードで時間的周辺ブロックの動き情報が用いられる場合、参照ピクチャリスト(reference picture list)上の最上位のピクチャが参照ピクチャとして用いられることもある。参照ピクチャリスト(Picture Order Count)に含まれる参照ピクチャは、現在ピクチャと該当参照ピクチャとの間のPOC(Picture order count)の差異に基づいて整列されることができる。POCは、ピクチャのディスプレイの順序に対応し、コーディングの順序と区分されることができる。
減算部115は、原本サンプルと予測サンプルとの間の差異である残差サンプルを生成する。スキップモードが適用される場合には、前述した通り、残差サンプルを生成しないことがある。
変換部120は変換ブロックの単位で残差サンプルを変換して、変換係数(transform coefficient)を生成する。変換部120は、該当変換ブロックのサイズと、該当変換ブロックと空間的に重なるコーディングブロック又は予測ブロックに適用された予測モードによって変換を行うことができる。例えば、前記変換ブロックと重なる前記コーディングブロック又は前記予測ブロックにイントラ予測が適用され、前記変換ブロックが4×4の残差アレイ(array)であれば、残差サンプルはDST(Discrete Sine Transform)変換カーネルを用いて変換され、それ以外の場合であれば、残差サンプルはDCT(Discrete Cosine Transform)変換カーネルを用いて変換できる。
量子化部125は変換係数を量子化し、量子化された変換係数を生成することができる。
再整列部130は、量子化された変換係数を再整列する。再整列部130は係数のスキャニング(scanning)方法を通じてブロック形態の量子化された変換係数を1次元のベクトル形態で再整列することができる。ここで、再整列部130は別途の構成で説明したが、再整列部130は量子化部125の一部であってもよい。
エントロピーエンコーディング部135は、量子化された変換係数に対するエントロピーエンコーディングを行うことができる。エントロピーエンコーディングは、例えば、指数ゴロム(exponential Golomb)、CAVLC(context-adaptive variable length coding)、CABAC(context-adaptive binary arithmetic coding)等のようなエンコーディング方法を含むことができる。エントロピーエンコーディング部135は、量子化された変換係数以外にビデオの復元に必要な情報(例えば、シンタックス要素(syntax element)の値等)を一緒に又は別にエンコーディングすることもできる。エントロピーエンコーディングされた情報は、ビットストリームの形態でNAL(network abstraction layer)ユニットの単位で転送又は格納されることができる。
逆量子化部141は、量子化部125で量子化された値(量子化された変換係数)を逆量子化し、逆変換部142は、逆量子化部141で逆量子化された値を逆変換して残差サンプルを生成する。
加算部150は、残差サンプルと予測サンプルとを合わせてピクチャを復元する。残差サンプルと予測サンプルはブロックの単位で加わって復元ブロックが生成されることができる。ここで、加算部150は別途の構成で説明したが、加算部150は予測部110の一部であってもよい。一方、加算部150は復元部又は復元ブロック生成部とも呼ばれ得る。
復元されたピクチャ(reconstructed picture)に対して、フィルタ部155はデブロッキングフィルタ及び/又はサンプル適応オフセット(sample adaptive offset)を適用することができる。デブロッキングフィルタリング及び/又はサンプル適応オフセットを通じて、復元ピクチャ内のブロックの境界のアーチファクトや量子化過程での歪みが補正されることができる。サンプル適応オフセットはサンプルの単位で適用されることができ、デブロッキングフィルタリングの過程が完了した後に適用されることができる。フィルタ部155は、ALF(Adaptive Loop Filter)を復元されたピクチャに適用することもできる。ALFはデブロッキングフィルタ及び/又はサンプル適応オフセットが適用された後の復元されたピクチャに対して適用されることができる。
メモリ160は、復元ピクチャ(デコーディングされたピクチャ)又はエンコーディング/デコーディングに必要な情報を格納することができる。ここで、復元ピクチャは、前記フィルタ部155によってフィルタリング手続が完了した復元ピクチャであってもよい。前記格納された復元ピクチャは、他のピクチャの(インター)予測のための参照ピクチャとして活用されることができる。例えば、メモリ160は、インター予測に用いられる(参照)ピクチャを格納することができる。このとき、インター予測に用いられるピクチャは、参照ピクチャセット(reference picture set)或いは参照ピクチャリスト(reference picture list)によって指定されることができる。
図2は、本発明が適用できるビデオデコーディング装置の構成を概略的に説明する図面である。
図2を参照すると、ビデオデコード装置200は、エントロピーデコード部210、レジデュアル処理部220、予測部230、加算部240、フィルタ部250及びメモリ260を含むことができる。ここで、レジデュアル処理部220は、再整列部221、逆量子化部222、逆変換部223を含むことができる。
ビデオ情報を含むビットストリームが入力されると、ビデオデコーディング装置200は、ビデオエンコーディング装置でビデオ情報が処理されたプロセスに対応してビデオを復元することができる。
例えば、ビデオデコード装置200は、ビデオエンコード装置で適用された処理ユニットを利用して、ビデオデコードを行うことができる。したがって、ビデオデコードの処理ユニットブロックは、一例としてコーディングユニットでありえ、他の例としてコーディングユニット、予測ユニットまたは変換ユニットでありうる。コーディングユニットは、最大コーディングユニットからクオッドツリー構造及び/またはバイナリツリー構造に従って分割されることができる。
予測ユニット及び変換ユニットが場合によってさらに使用されることができ、この場合、予測ブロックは、コーディングユニットから導出またはパーティショニングされるブロックであって、サンプル予測のユニットでありうる。このとき、予測ユニットは、サブブロックに分けられることもできる。変換ユニットは、コーディングユニットからクオッドツリー構造に従って分割されることができ、変換係数を誘導するユニットまたは変換係数からレジデュアル信号を誘導するユニットでありうる。
エントロピーデコーディング部210は、ビットストリームをパーシングしてビデオ復元またはピクチャ復元に必要な情報を出力することができる。例えば、エントロピーデコーディング部210は、指数ゴロム符号化、CAVLCまたはCABACなどのコーディング方法に基づいてビットストリーム内の情報をデコーディングし、ビデオ復元に必要なシンタックスエレメントの値、レジデュアルに対する変換係数の量子化された値を出力することができる。
さらに詳細に述べると、CABACエントロピーデコード方法は、ビットストリームで各構文要素に該当するビンを受信し、デコード対象構文要素情報と周辺及びデコード対象ブロックのデコード情報あるいは以前ステップでデコードされたシンボル/ビンの情報を利用して文脈(context)モデルを決定し、決定された文脈モデルに応じてビン(bin)の発生確率を予測して、ビンの算術デコード(arithmetic decoding)を行なって各構文要素の値に該当するシンボルを生成できる。このとき、CABACエントロピーデコード方法は、文脈モデル決定後に次のシンボル/ビンの文脈モデルのためにデコードされたシンボル/ビンの情報を利用して、文脈モデルをアップデートできる。
エントロピーデコード部210においてデコードされた情報のうち、予測に関する情報は、予測部230に提供され、エントロピーデコード部210においてエントロピーデコードが行われたレジデュアル値、すなわち量子化された変換係数は、再整列部221に入力されることができる。
再整列部221は、量子化されている変換係数を2次元のブロック形態で再整列できる。再整列部221は、エンコード装置で行われた係数スキャニングに対応して再整列を行うことができる。ここで、再整列部221は、別の構成として説明したが、再整列部221は、逆量子化部222の一部でありうる。
逆量子化部222は、量子化されている変換係数を(逆)量子化パラメータに基づいて逆量子化して変換係数を出力することができる。このとき、量子化パラメータを誘導するための情報は、エンコーディング装置からシグナリングされることができる。
逆変換部223は、変換係数を逆変換してレジデュアルサンプルを誘導することができる。
予測部230は、現在ブロックに対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測ブロックを生成することができる。予測部230で実行される予測の単位は、コーディングブロック、または変換ブロック、または予測ブロックである。
予測部230は、イントラ予測を適用するか、インター予測を適用するかを決定することができる。このとき、イントラ予測とインター予測のうちいずれかを適用するかを決定する単位と予測サンプルを生成する単位は異なる。併せて、インター予測とイントラ予測において、予測サンプルを生成する単位も異なる。例えば、インター予測とイントラ予測のうちいずれかを適用するかは、CU単位に決定できる。また、例えば、インター予測において、PU単位に予測モードを決定して予測サンプルを生成することができ、イントラ予測において、PU単位に予測モードを決定して、TU単位に予測サンプルを生成することもできる。
イントラ予測の場合に、予測部230は、現在ピクチャ内の隣接参照サンプルに基づいて現在ブロックに対する予測サンプルを誘導することができる。予測部230は、現在ブロックの隣接参照サンプルに基づいて方向性モードまたは非方向性モードを適用して現在ブロックに対する予測サンプルを誘導することができる。このとき、隣接ブロックのイントラ予測モードを利用して現在ブロックに適用する予測モードが決定されることもできる。
インター予測の場合に、予測部230は、参照ピクチャ上において動きベクトルにより参照ピクチャ上において特定されるサンプルに基づいて、現在ブロックに対する予測サンプルを誘導できる。予測部230は、スキップ(skip)モード、マージ(merge)モード及びMVPモードのうち、いずれか一つを適用して、現在ブロックに対する予測サンプルを誘導できる。このとき、ビデオエンコード装置から提供された現在ブロックのインター予測に必要な動き情報、例えば動きベクトル、参照ピクチャインデックスなどに関する情報は、前記予測に関する情報に基づいて獲得または誘導されることができる
スキップモードとマージモードの場合に、周辺ブロックの動き情報が現在ブロックの動き情報として利用されることができる。このとき、周辺ブロックは、空間的周辺ブロックと時間的周辺ブロックを含むことができる。
予測部230は、可用の周辺ブロックの動き情報でマージ候補リストを構成し、マージインデックスがマージ候補リスト上において指示する情報を現在ブロックの動きベクトルとして使用することができる。マージインデックスは、エンコード装置からシグナリングされることができる。動き情報は、動きベクトルと参照ピクチャを含むことができる。スキップモードとマージモードにおいて時間的周辺ブロックの動き情報が利用される場合に、参照ピクチャリスト上の最上位ピクチャが参照ピクチャとして利用されることができる。
スキップモードの場合、マージモードとは異なり、予測サンプルと原本サンプルとの間の差(レジデュアル)が送信されない。
MVPモードの場合、周辺ブロックの動きベクトルを動きベクトル予測子(Motion Vector Predictor)として利用して、現在ブロックの動きベクトルが誘導されることができる。このとき、周辺ブロックは、空間的周辺ブロックと時間的周辺ブロックを含むことができる。
一例として、マージモードが適用される場合、復元された空間的周辺ブロックの動きベクトル及び/または時間的周辺ブロックであるColブロックに対応する動きベクトルを利用して、マージ候補リストが生成されることができる。マージモードでは、マージ候補リストにおいて選択された候補ブロックの動きベクトルが現在ブロックの動きベクトルとして使用される。前記予測に関する情報は、前記マージ候補リストに含まれた候補ブロックのうち選択された最適の動きベクトルを有する候補ブロックを指示するマージインデックスを含むことができる。このとき、予測部230は、前記マージインデックスを利用して、現在ブロックの動きベクトルを導き出すことができる。
他の例として、MVP(Motion Vector Prediction)モードが適用される場合、復元された空間的周辺ブロックの動きベクトル及び/または時間的周辺ブロックであるColブロックに対応する動きベクトルを利用して、動きベクトル予測子候補リストが生成されることができる。すなわち、復元された空間的周辺ブロックの動きベクトル及び/または時間的周辺ブロックであるColブロックに対応する動きベクトルは、動きベクトル候補として使用されることができる。前記予測に関する情報は、前記リストに含まれた動きベクトル候補のうち選択された最適の動きベクトルを指示する予測動きベクトルインデックスを含むことができる。このとき、予測部230は、前記動きベクトルインデックスを利用して、動きベクトル候補リストに含まれた動きベクトル候補のうち、現在ブロックの予測動きベクトルを選択できる。エンコード装置の予測部は、現在ブロックの動きベクトルと動きベクトル予測子間の動きベクトルの差分(MVD)を求めることができ、これをエンコードしてビットストリーム形態で出力できる。すなわち、MVDは、現在ブロックの動きベクトルから前記動きベクトル予測子を引いた値で求めることができる。このとき、予測部230は、前記予測に関する情報に含まれた動きベクトルの差分を獲得し、前記動きベクトルの差分と前記動きベクトル予測字の加算を介して、現在ブロックの前記動きベクトルを導き出すことができる。予測部は、また参照ピクチャを指示する参照ピクチャインデックスなどを前記予測に関する情報から獲得または誘導できる。
加算部240は、レジデュアルサンプルと予測サンプルを足して現在ブロックあるいは現在ピクチャを復元できる。加算部240は、レジデュアルサンプルと予測サンプルをブロック単位で足して、現在ピクチャを復元することもできる。スキップモードが適用された場合には、レジデュアルが送信されないので、予測サンプルが復元サンプルになることができる。ここでは、加算部240を別の構成として説明したが、加算部240は、予測部230の一部でありうる。一方、加算部240は、復元部または復元ブロック生成部と呼ばれることもできる。
フィルタ部250は、復元されたピクチャにデブロッキングフィルタリングサンプル適応的オフセット、及び/またはALFなどを適用できる。このとき、サンプル適応的オフセットは、サンプル単位で適用されることができ、デブロッキングフィルタリング以後に適用されることもできる。ALFは、デブロッキングフィルタリング及び/またはサンプル適応的オフセット以後に適用されることもできる。
メモリ260は、復元ピクチャ(デコードされたピクチャ)またはデコードに必要な情報を格納することができる。ここで復元ピクチャは、前記フィルタ部250によってフィルタリング手順が完了した復元ピクチャでありうる。例えば、メモリ260は、インター予測に使用されるピクチャを格納することができる。このとき、インター予測に使用されるピクチャは、参照ピクチャセットあるいは参照ピクチャリストにより指定されることもできる。復元されたピクチャは、他のピクチャに対する参照ピクチャとして利用されることができる。また、メモリ260は、復元されたピクチャを出力順序にしたがって出力することもできる。
前述したように現在ブロックに対してイントラ予測が行われる場合、前記現在ブロックのデコーディング時点で既にエンコーディング/デコーディングが行われた周辺サンプルに基づいて前記イントラ予測が行われる。すなわち、前記現在ブロックの予測サンプルは、既に復元された前記現在ブロックの左側周辺サンプル及び上側周辺サンプルを用いて復元されることができる。以下、前記左側周辺サンプル及び前記上側周辺サンプルを図3のように示す。
図3は、前記現在ブロックのイントラ予測に用いられる前記左側周辺サンプル及び上側周辺サンプルを例示する。前記現在ブロックにイントラ予測が行われる場合、前記現在ブロックに対するイントラ予測モードが導出されることができ、前記イントラ予測モードによって前記左側周辺サンプル及び上側周辺サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルが生成できる。ここで、イントラ予測モードは、例えば、2個の非方向性イントラ予測モードと33個の方向性イントラ予測モードを含むことができる。ここで、0番ないし1番のイントラ予測モードは前記非方向性イントラ予測モードであり、0番のイントラ予測モードはイントラプラナー(Planar)モードを示し、1番のイントラ予測モードはイントラDCモードを示す。残りの2番ないし34番のイントラ予測モードは前記方向性イントラ予測モードであり、それぞれ予測方向を有する。前記方向性イントラ予測モードは、イントラアンギュラー(angular)モードと呼ばれることができる。現在、ブロックの現在サンプルの予測サンプル値は、前記現在ブロックに対するイントラ予測モードに基づいて導出することができる。
例えば、現在ブロックに対するイントラ予測モードが前記方向性イントラモードのうち1つである場合、前記現在ブロック内の前記現在サンプルを基準に前記現在ブロックに対する前記イントラ予測モードの予測方向に位置する周辺サンプルの値が前記現在サンプルの予測サンプル値として導出されることができる。もし、現在サンプルを基準に予測方向に整数サンプル単位の周辺サンプルが位置しない場合、該当予測方向の周辺に位置する整数サンプル単位の周辺サンプルに対する補間に基づいて、該当予測方向位置に分数サンプル単位のサンプルを導出して、前記分数サンプル単位のサンプル値を前記現在サンプルの予測サンプル値として導出することができる。
一方、前述したように前記左側周辺サンプル及び上側周辺サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルが生成される場合、前記予測サンプルと周辺サンプルとの距離が遠くなるほど予測正確度が低下することがある。また、1つの行又は列の周辺サンプルのみを参照して前記予測サンプルが生成されるので、前記現在ブロックに隣接する位置のサンプルにノイズ(noise)情報が含まれる場合、前記現在ブロックに対する予測正確度が大きく低下することがあり、これにより、全般的なコーディング効率が低下することがある。従って、本発明は、イントラ予測の予測正確度を向上させ、コーディング効率を向上させるために、複数の左側周辺サンプル及び上側周辺サンプル、すなわち、複数列の左側周辺サンプル及び複数行の上側周辺サンプルに基づいて参照サンプルを生成し、前記生成された参照サンプルに基づいてイントラ予測を行う方法を提案する。一方、後述する実施形態において、4個の左側周辺サンプル(又は、上側周辺サンプル)に基づいて1つの左側参照サンプル(又は、上側参照サンプル)を生成する方法について説明するが、任意のN(N>1)個の前記左側周辺サンプル(又は、上側周辺サンプル)が用いられて前記左側参照サンプル(又は、上側参照サンプル)が生成されることができる。
図4は、現在ブロックに対する複数の周辺サンプルに基づいて参照サンプルを導出する一例を示す図である。図4を参照すると、前記現在ブロックのサイズがN×Nサイズである場合、2N×4サイズの領域内の上側周辺サンプルに基づいて2N個の上側参照サンプルが生成されることができ、4×2Nサイズの領域内の左側周辺サンプルに基づいて2N個の左側参照サンプルが生成されることができる。具体的には、前記上側周辺サンプルのうち特定列に位置する4個の上側周辺サンプルに基づいて前記特定列に位置する1つの上側参照サンプルが生成されることができ、前記左側周辺サンプルのうち特定行に位置する4個の左側周辺サンプルに基づいて前記特定行に位置する1つの左側参照サンプルが生成されることができる。例えば、上側周辺サンプルのうちx列に位置する4個の上側周辺サンプルのサンプル値の平均値が前記x列の上側参照サンプルのサンプル値として導出されることができる。また、左側周辺サンプルのうちy列に位置する4個の左側周辺サンプルのサンプル値の平均値が前記y列の左側参照サンプルのサンプル値として導出されることができる。
一方、前述したように参照サンプルを生成するために用いられる周辺サンプルに同一の加重値{1/4、1/4、1/4、1/4}が割り当てられることができるが、すなわち、前記参照サンプルの生成のための周辺サンプルに対する加重値が1/4として同一であることができるが、エンコーディング対象となる前記現在ブロックと周辺サンプルとの距離に比例して予測正確度が減少することがある。従って、前記4個の上側周辺サンプルを下から上の方向に1番目の行の上側周辺サンプル、2番目の行の上側周辺サンプル、3番目の行の上側周辺サンプル、及び4番目の行の上側周辺サンプルであると示すとき、前記1番目の行の上側周辺サンプルの加重値は1/2、前記2番目の行の上側周辺サンプルの加重値は1/4、前記3番目の行の上側周辺サンプル及び4番目の行の上側周辺サンプルの加重値は1/8として割り当てられることができる。これにより、前記上側周辺サンプルのうち前記現在ブロックとの距離が近いサンプルがより大きい比重で前記上側参照サンプルの生成に用いられる。また、前記4個の左側周辺サンプルを右から左の方向に1番目の列の左側周辺サンプル、2番目の列の左側周辺サンプル、3番目の列の左側周辺サンプル、及び4番目の列の左側周辺サンプルであると示すとき、前記1番目の列の左側周辺サンプルの加重値は1/2、前記2番目の列の左側周辺サンプルの加重値は1/4、前記3番目の列の左側周辺サンプル及び4番目の列の左側周辺サンプルの加重値は1/8として割り当てられることができる。
また、他の例として、前記1番目の行の上側周辺サンプル及び前記2番目の行の上側周辺サンプルの加重値は2/5、前記3番目の行の上側周辺サンプル及び4番目の行の上側周辺サンプルの加重値は1/10として割り当てられることができる。さらに、前記1番目の列の左側周辺サンプルの加重値は1/2、前記2番目の列の左側周辺サンプルの加重値は1/4、前記3番目の列の左側周辺サンプル及び4番目の列の左側周辺サンプルの加重値は1/8として割り当てられることができる。
また、各周辺サンプルに対する加重値を割り当てる方法は、前述した例以外の多様な方法があり得る。例えば、各周辺サンプルと前記現在ブロックとの距離によって前記各周辺サンプルの加重値が割り当てられることができ、前記現在ブロックのサイズによって前記各周辺サンプルの加重値が割り当てられることもでき、前記現在のブロックの量子化パラメータ(quantization parameter:QP)によって前記各周辺サンプルの加重値が割り当てられることもできる。それ以外にも、多様な基準に基づいて前記各周辺サンプルの加重値が割り当てられることができる。前記上側参照サンプルは、前記上側周辺サンプル及び前記上側周辺サンプルのそれぞれに割り当てられた加重値に基づいて導出されることができる。また、前記左側参照サンプルは、前記左側周辺サンプル及び前記左側周辺サンプルのそれぞれに割り当てられた加重値に基づいて導出されることができる。さらに、前記上側参照サンプル又は左側参照サンプルは、次の数式に基づいて導出されることができる。
Figure 2022097690000002
ここで、D’は前記上側参照サンプル(又は、左側参照サンプル)を示し、w1は前記1番目の行の上側周辺サンプル(又は、前記1番目の列の左側周辺サンプル)の加重値、w2は前記2番目の行の上側周辺サンプル(又は、前記2番目の列の左側周辺サンプル)の加重値、w3は前記3番目の行の上側周辺サンプル(又は、前記3番目の列の左側周辺サンプル)の加重値、w4は前記4番目の行の上側周辺サンプル(又は、前記4番目の列の左側周辺サンプル)の加重値を示す。また、Dは前記1番目の行の上側周辺サンプル(又は、前記1番目の列の左側周辺サンプル)、Cは前記2番目の行の上側周辺サンプル(又は、前記2番目の列の左側周辺サンプル)、Bは前記3番目の行の上側周辺サンプル(又は、前記3番目の列の左側周辺サンプル)、Aは前記4番目の行の上側周辺サンプル(又は前記4番目の列の左側周辺サンプル)を示す。
一方、前述したように複数列又は行の2N個の周辺サンプルに基づいて前記現在ブロックの参照サンプルが導出されることができるが、前記現在ブロックの予測方向によって複数列又は行の2N個より多くの周辺サンプルに基づいて前記参照サンプルが導出されることができる。
図5は、現在ブロックに対する複数の周辺サンプルに基づいて参照サンプルを導出する一例を示す図である。図5を参照すると、前記現在ブロックのイントラ予測モードが導出されることができ、前記イントラ予測モードによる予測方向が導出されることができる。前記現在ブロックの参照サンプルは、前記予測方向に位置する周辺サンプルに基づいて生成されることができる。この場合、図5に示すように、前記現在ブロックの予測方向が右上側から左下側に向い、図5に示す追加領域510に位置する上側周辺サンプルが前記現在ブロックの予測のために必要であり得る。すなわち、前記1番目の行に位置する2N個の上側周辺サンプルと共にL個の上側周辺サンプルが前記現在ブロックの予測のために必要であり得る。また、前記第4の行に位置する2N個の上側周辺サンプルと共にM個の上側周辺サンプルが前記現在ブロックの予測のために必要であり得る。従って、前記追加領域510に位置する周辺サンプルが生成され、前記追加領域510を含む周辺サンプルのうち前記現在ブロックの予測方向に位置する周辺サンプルに基づいて前記現在ブロックの参照サンプルが生成されることができる。前記追加領域510に位置するサンプルは、各行の上側周辺サンプルのうち最右側の上側周辺サンプルのサンプル値をパディング(padding)して生成されることができる。すなわち、前記追加領域510に位置するサンプルのサンプル値は、前記各行の上側周辺サンプルのうち前記最右側の上側周辺サンプルのサンプル値と同一に導出されることができる。一方、前記左側周辺サンプルに対する追加領域に位置するサンプルを生成する例については図示していないが、前記追加領域510に位置するサンプルが生成される例と類似して前記左側周辺サンプルに対する追加領域に位置するサンプルが生成されることができる。具体的には、前記左側周辺サンプルに対する追加領域に位置するサンプルは、各列の左側周辺サンプルのうち最下側の左側周辺サンプルのサンプル値をパディングして生成されることができる。
一方、前記追加領域510の上側周辺サンプルを含む上側周辺サンプルが導出された場合、前記上側周辺サンプルに基づいて前記現在ブロックの上側参照サンプルが生成されることができる。以下、前記上側参照サンプルが生成される実施形態を図に示す。
図6は、追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて前記現在ブロックの上側参照サンプルを生成する一例を示す図である。図6の(b)は、新しく生成される上側参照サンプルの位置を示す。この場合、上側参照サンプル610の位置において前記現在ブロックの予測方向に対応する位置の前記上側周辺サンプルが上側参照サンプル610の生成に用いられる。例えば、図6の(a)に示すように、上側参照サンプル610の位置において前記現在ブロックの予測方向に対応する位置の前記上側周辺サンプルである上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDは、上側参照サンプル610の生成に用いられる。上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDの位置が全て整数サンプル位置(integer sample position)である場合、すなわち、上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDが全て整数サンプルである場合、上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDのサンプル値に基づいて上側参照サンプル610が生成される。これと類似して、左側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する左側周辺サンプルが導出されることができ、前記左側周辺サンプルに基づいて左側参照サンプルが生成される。
一方、上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDの位置のうち前記整数サンプル位置でない位置が存在する場合、すなわち、上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、及び上側周辺サンプルDのうち分数サンプル(fractional sample)が存在する場合、前記分数サンプルは、次の図に示すように導出されることができる。
図7は、分数サンプル位置に位置する前記周辺サンプルを導出する一例を示す図である。図7に示すように、分数サンプルの周辺サンプルXのサンプル値は、前記周辺サンプルの左右に隣接する整数サンプルD1とD2のサンプル値が線形補間(linear interpolation)されて生成される。すなわち、上側周辺サンプルA、上側周辺サンプルB、上側周辺サンプルC、又は上側周辺サンプルDが前記分数サンプルである場合、前記分数サンプルに隣接する整数サンプル位置の上側周辺サンプルに基づいて前記分数サンプルが導出されることができる。前記分数サンプルは、次の数式に基づいて導出されることができる。
Figure 2022097690000003
ここで、Xは前記分数サンプル、D1は前記分数サンプルの左側に隣接する整数サンプル、D2は前記分数サンプルの右側に隣接する整数サンプル、d1は前記D2とX間の距離、d2は前記D1とX間の距離を示す。
上記方法により前記上側参照サンプルを生成するための前記上側周辺サンプルのそれぞれの値が導出されることができる。前記整数サンプル位置又は前記分数サンプル位置の前記上側周辺サンプルが導出された場合、前記上側周辺サンプルに基づいて前記上側参照サンプルが生成されることができる。前記上側参照サンプルは、前述したように、それぞれの上側参照サンプルに同一の加重値を割り当てて生成されることができる。または、前記現在ブロックと前記それぞれの上側参照サンプル間の距離を考慮して前記それぞれの上側参照サンプルに対する加重値が割り当てられることができ、前記それぞれの上側参照サンプル及び前記加重値に基づいて前記上側参照サンプルが生成されることができる。または、前記現在ブロックのサイズ又はQPなどの多様な基準に基づいて前記それぞれの上側参照サンプルに対する加重値が割り当てられることができ、前記それぞれの上側参照サンプル及び前記加重値に基づいて前記上側参照サンプルが生成されることができる。また、前記上側参照サンプルは、前述した数式1に前記上側周辺サンプル及び前記上側周辺サンプルのそれぞれに割り当てられた加重値を代入して生成されることができる。さらに、左側周辺サンプルのうち前記分数サンプルが存在する場合、前述したのと類似して前記分数サンプルが導出されることができ、前記分数サンプルに基づいて前記左側参照サンプルが導出されることができる。
一方、前記現在ブロックの予測方向に位置する周辺サンプルに基づいて参照サンプルが生成される場合、前述したように参照サンプルを生成するために用いられる周辺サンプルに同一の加重値{1/4、1/4、1/4、1/4}が割り当てられることができ、又は、各周辺サンプルと前記現在ブロックとの距離によって前記各周辺サンプルの加重値が割り当てられることもできる。または、前記現在ブロックのサイズ又は前記現在のブロックの量子化パラメータ(quantization parameter:QP)によって前記各周辺サンプルの加重値が割り当てられることもできる。それ以外にも、多様な基準に基づいて前記各周辺サンプルの加重値が割り当てられることができる。前記上側参照サンプルは、前記上側周辺サンプル及び前記上側周辺サンプルのそれぞれに割り当てられた加重値に基づいて導出されることができる。また、前記左側参照サンプルは、前記左側周辺サンプル及び前記左側周辺サンプルのそれぞれに割り当てられた加重値に基づいて導出されることができる。
一方、前述したように前記現在ブロックの予測方向によって複数列又は行の2N個の周辺サンプル及び前述した追加領域に含まれた周辺サンプルに基づいて前記参照サンプルが導出される場合、前記追加領域に位置するサンプルは前述したようにパディングにより生成されることができるが、前記追加領域に位置する周辺サンプルが既に復元された場合、前記追加領域の復元された周辺サンプルが用いられることができ、前記追加領域に位置する周辺サンプルが復元されない場合は、前述したパディングにより前記周辺サンプルが生成されることができる。
図8は、追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて前記現在ブロックの上側参照サンプルを生成する一例を示す図である。前述したように、前記現在ブロックのイントラ予測モードが導出されることができ、前記現在ブロックの参照サンプルは前記予測方向に位置する周辺サンプルに基づいて生成されることができる。この場合、図8の(a)に示すように、前記現在ブロックの予測方向が右上側から左下側に向かうことができ、図8の(a)に示す追加領域810に位置する上側周辺サンプルが前記現在ブロックの予測のために必要であり得る。追加領域810に含まれた上側周辺サンプルが既に復元された場合、前記復元された上側周辺サンプルは前記上側参照サンプルを生成するために用いられる。一方、図8の(b)に示すように、追加領域820に位置する上側周辺サンプルが復元されない場合、追加領域820に位置するサンプルは、各行の上側周辺サンプルのうち最右側の上側周辺サンプルのサンプル値をパディングして生成される。すなわち、追加領域820に位置するサンプルのサンプル値は、前記各行の上側周辺サンプルのうち前記最右側の上側周辺サンプルのサンプル値と同一に導出されることができる。図面では左側周辺サンプルに対する追加領域を示していないが、前述した追加領域810に含まれた上側周辺サンプルを導出する方法と類似して前記左側周辺サンプルに対する追加領域に含まれた左側周辺サンプルが導出されることができる。
一方、前述した参照サンプルを生成する実施形態は、現在ブロックの予測方向に基づいて選択される。すなわち、イントラ予測モードによって他の方法により前記現在ブロックの参照サンプルが生成されることができる。
図9は、予測方向によってイントラ予測モードを区分する一例を示す図である。図9を参照すると、前記イントラ予測モードは、予測方向によって4つの領域に区分される。図9に示すように、イントラ予測モードは、予測方向によってA領域、B領域、C領域、又はD領域に含まれることができる。具体的には、例えば、イントラ予測モードのうち2番ないし9番のイントラ予測モードは前記A領域に含まれ、10番ないし17番のイントラ予測モードは前記B領域に含まれ、18番ないし26番のイントラ予測モードは前記C領域に含まれ、27番ないし34番のイントラ予測モードは前記D領域に含まれることができる。現在ブロックに適用されているイントラ予測モードに基づいて前記現在ブロックの参照サンプルを導出する方法が決定される。
例えば、前記現在ブロックに前記D領域に含まれたイントラ予測モードが適用される場合、前記現在ブロックの参照サンプルは、前述した図8に示す方法により導出されることができる。すなわち、前記現在ブロックの複数行の2N個の上側周辺サンプル及び追加領域の上側周辺サンプルが生成されることができ、前記複数行の2N個の上側周辺サンプル及び前記追加領域の上側周辺サンプルのうち前記現在ブロックの上側参照サンプルの位置において予測方向に位置する周辺サンプルに基づいて前記現在ブロックの上側参照サンプルが生成されることができる。前記追加領域の上側周辺サンプルが既に復元された場合、復元された上側周辺サンプルが前記現在ブロックの前記参照サンプルを生成するために用いられ、前記追加領域の上側周辺サンプルが復元されない場合、各行の2N個の上側周辺サンプルのうち最右側の上側周辺サンプルのサンプル値をパディングして生成される。
他の例として、前記現在ブロックに前記C領域に含まれたイントラ予測モードが適用される場合、後述する図10に示すように前記現在ブロックの参照サンプルが生成される。
図10は、追加で生成された上側周辺サンプルを含む上側周辺サンプルに基づいて前記現在ブロックの上側参照サンプルを生成する一例を示す図である。図10の(b)に示す上側参照サンプルD’が生成される場合、図10の(a)に示す前記D’の位置において前記現在ブロックの予測方向に対応する位置の上側周辺サンプルA、B、C、及びDに基づいて前記D’が生成される。上側周辺サンプルA、B、C、及びDの位置が全て整数サンプル位置(integer sample position)である場合、すなわち、前記A、B、C及びDが全て整数サンプルである場合、前記A、B、C、及びDのサンプル値に基づいて前記D’が生成される。上側周辺サンプルA、B、C、及びDの位置のうち分数サンプル位置のサンプルが存在する場合、すなわち、前記A、B、C、及びDのうち分数サンプルが存在する場合、前述したように、前記分数サンプルは前記分数サンプルの左右に隣接する整数サンプルのサンプル値が線形補間(linear interpolation)されて生成されることができ、前記生成された分数サンプルに基づいて前記D’が生成されることができる。また、図10の(a)に示す前記H’の位置において前記現在ブロックの予測方向に対応する位置の上側周辺サンプルE、F、G、及びHに基づいて前記H’が生成される。前記上側周辺サンプルE、F、G、及びHの位置が全て整数サンプル位置(integer sample position)である場合、すなわち、前記E、F、G、及びHが全て整数サンプルである場合、前記E、F、G、及びHのサンプル値に基づいて前記H’が生成されることができる。前記上側周辺サンプルE、F、G、及びHの位置のうち分数サンプル位置のサンプルが存在する場合、すなわち、前記E、F、G、及びHのうち分数サンプルが存在する場合、前述したように、前記分数サンプルは前記分数サンプルの左右に隣接する整数サンプルのサンプル値が線形補間(linear interpolation)されて生成されることができ、前記生成された分数サンプルに基づいて前記H’が生成されることができる。
一方、前記現在ブロックに前記B領域に含まれたイントラ予測モードが適用される場合、前述した前記現在ブロックに前記C領域に含まれたイントラ予測モードが適用された場合に前記現在ブロックの参照サンプルを導出する方法と同一の方法により前記現在ブロックの参照サンプルが生成されることができる。また、前記現在ブロックに前記A領域に含まれたイントラ予測モードが適用される場合、前述した前記現在ブロックに前記D領域に含まれたイントラ予測モードが適用された場合に前記現在ブロックの参照サンプルを導出する方法と同一の方法により前記現在ブロックの参照サンプルが生成されることができる。
図11は、本発明に従うエンコーディング装置によるビデオエンコーディング方法を概略的に示す図である。図11に開示される方法は、図1に開示されたエンコーディング装置により行われることができる。具体的には、例えば、図11のS1100~S1140は前記エンコーディング装置の予測部により行われ、S1150は前記エンコーディング装置のエントロピーエンコーディング部により行われることができる。
エンコーディング装置は、現在ブロックに対するイントラ予測モードを決定する(S1100)。エンコーディング装置は、多様なイントラ予測モードを行って最適なRDコストを有するイントラ予測モードを前記現在ブロックに対するイントラ予測モードとして導出することができる。前記イントラ予測モードは、2個の非方向性予測モードと33個の方向性予測モードの1つであり得る。前記2個の非方向性予測モードは、イントラDCモード及びイントラプラナーモードを含むことができることは前述した通りである。
エンコーディング装置は、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出する(S1110)。エンコーディング装置は、前記現在ブロックに対する複数行の上側周辺サンプルを導出することができる。例えば、エンコーディング装置は、前記現在ブロックに対する4行の上側周辺サンプルを導出することができる。また、例えば、前記現在ブロックのサイズがN×Nである場合、エンコーディング装置は、前記複数行の各行ごとに2N個の上側周辺サンプルを導出することができる。前記各行に対する2N個の上側周辺サンプルは、第1上側周辺サンプルと呼ばれることができる。
一方、後述するように、上側参照サンプルが、前記上側参照サンプルの位置及び前記現在ブロックに対する前記イントラ予測モードの予測方向に基づいて導出される特定上側周辺サンプルに基づいて導出されることができる。この場合、前記現在ブロックの予測方向によって前記第1上側周辺サンプル以外の上側周辺サンプルが前記上側参照サンプルを導出するために用いられる。
例えば、前記現在ブロックのサイズがN×Nである場合、前記複数行の上側周辺サンプルのうちn番目の行の上側周辺サンプルの数は2N個より多いことがある。他の例として、前記n番目の行が1番目の行である場合、前記n番目の行の上側周辺サンプルの数は2N個であり、n+1番目の行の上側周辺サンプルの数は2N個より多いことがある。また、前記現在ブロックに対する複数行の上側周辺サンプルのうちn番目の行の上側周辺サンプルの数がn+1番目の行の上側周辺サンプルの数より少ないことがある。具体的には、前記n+1番目の行の上側周辺サンプルの数は2N個より多いことがあり、前記n+1番目の行の上側周辺サンプルのうち2N番目以後の上側周辺サンプルは、前記n+1番目の行の上側周辺サンプルのうち2N番目の上側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する前記予測サンプルが生成される前に前記n+1番目の行の上側周辺サンプルのうち2N番目以後の上側周辺サンプルに対応する復元サンプルが生成された場合、前記復元サンプルが前記2N番目以後の上側周辺サンプルとして導出されることができる。
他の例として、前記現在ブロックのサイズがN×Nである場合、エンコーディング装置は、前記現在ブロックの予測方向に基づいて前記各行に対する第2上側周辺サンプルを導出することができる。ここで、前記第2上側周辺サンプルは、前記各行に対する前記第1上側周辺サンプル以外の上側周辺サンプルを示す。前記予測方向に基づいて前記各行に対する第2上側周辺サンプルの数が決定される。前記各行に対する前記第2上側周辺サンプルは、前記各行に対する第1上側周辺サンプルのうち最右側に位置する第2上側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する予測サンプルが生成される前に前記第2上側周辺サンプルに対する復元サンプルが生成された場合、前記復元サンプルが前記第2上側周辺サンプルとして導出されることができ、前記現在ブロックに対する前記予測サンプルが生成される前に前記第2上側周辺サンプルに対する復元サンプルが生成されない場合、前記各行に対する前記第2上側周辺サンプルは、前記各行に対する第1上側周辺サンプルのうち最右側に位置する第2上側周辺サンプルをパディングして導出されることができる。
また他の一例として、エンコーディング装置は、前記現在ブロックに対する複数列の左側周辺サンプルを導出することができる。例えば、エンコーディング装置は、前記現在ブロックに対する4列の左側周辺サンプルを導出することができる。また、例えば、前記現在ブロックのサイズがN×Nである場合、エンコーディング装置は、前記複数列の各列ごとに2N個の左側周辺サンプルを導出することができる。前記各列に対する2N個の左側周辺サンプルは、第1左側周辺サンプルと呼ばれることができる。
一方、後述するように、左側参照サンプルが、前記左側参照サンプルの位置及び前記現在ブロックに対する前記イントラ予測モードの予測方向に基づいて導出される特定左側周辺サンプルに基づいて導出されることができる。この場合、前記現在ブロックの予測方向によって前記第1左側周辺サンプル以外の左側周辺サンプルが前記左側参照サンプルを導出するために用いられる。
例えば、前記現在ブロックのサイズがN×Nである場合、前記複数列の左側周辺サンプルのうちn番目の列の左側周辺サンプルの数は2N個より多いことがある。他の例として、n番目の列が1番目の列である場合、n番目の列の左側周辺サンプルの数は2N個であり、n+1番目の列の左側周辺サンプルの数は2N個より多いことがある。また、前記現在ブロックに対する複数列の左側周辺サンプルのうちn番目の列の左側周辺サンプルの数がn+1番目の列の左側周辺サンプルの数より少ないことがある。具体的には、前記n+1番目の列の左側周辺サンプルの数は2N個より多いことがあり、前記n+1番目の列の左側周辺サンプルのうち2N番目以後の左側周辺サンプルは、前記n+1番目の列の左側周辺サンプルのうち2N番目の左側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する前記予測サンプルが生成される前に前記n+1番目の列の左側周辺サンプルのうち2N番目以後の左側周辺サンプルに対応する復元サンプルが生成された場合、前記復元サンプルが前記2N番目以後の左側周辺サンプルとして導出されることができる。
他の例として、前記現在ブロックのサイズがN×Nである場合、エンコーディング装置は、前記現在ブロックの予測方向に基づいて前記各列に対する第2左側周辺サンプルを導出することができる。ここで、前記第2左側周辺サンプルは、前記各行に対する前記第1左側周辺サンプル以外の左側周辺サンプルを示す。前記予測方向に基づいて前記各列に対する第2左側周辺サンプルの数が決定される。前記各列に対する前記第2左側周辺サンプルは、前記各列に対する第1左側周辺サンプルのうち最下側に位置する第2左側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する予測サンプルが生成される前に前記第2左側周辺サンプルに対する復元サンプルが生成された場合、前記復元サンプルが前記第2左側周辺サンプルとして導出されることができ、前記現在ブロックに対する前記予測サンプルが生成される前に前記第2左側周辺サンプルに対する復元サンプルが生成されない場合、前記各列に対する前記第2左側周辺サンプルは、前記各列に対する第1左側周辺サンプルのうち最下側に位置する第2左側周辺サンプルをパディングして導出されることができる。
エンコーディング装置は、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出する(S1120)。エンコーディング装置は、前記複数行の前記上側周辺サンプルに基づいて1行の前記上側参照サンプルを導出することができる。
例えば、上側参照サンプルのうちx列に位置する上側参照サンプルは、上側周辺サンプルのうちx列に位置する上側周辺サンプルに基づいて導出されることができる。この場合、前記x列に位置する前記上側周辺サンプルのサンプル値の平均値が前記x列に位置する前記上側参照サンプルのサンプル値として導出されることができる。また、前記x列に位置する前記上側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記x列に位置する前記上側周辺サンプルに基づいて前記x列に位置する前記上側参照サンプルが導出されることができる。前記x列に位置する前記上側周辺サンプルに対する加重値が導出された場合、前記上側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記上側周辺サンプルと前記x列に位置する前記上側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記x列に位置する前記上側周辺サンプルのうち該当上側周辺サンプルに対する加重値は、前記該当上側周辺サンプルと前記上側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当上側周辺サンプルの加重値は前記該当上側周辺サンプルと前記上側参照サンプル間の距離に反比例する。具体的には、4行の上側周辺サンプルが導出された場合、前記上側周辺サンプルの加重値は、下から上への順序で1/2、1/4、1/8、1/8として導出されることができる。または、前記上側周辺サンプルの加重値は、下から上への順序で2/5、2/5、1/10、1/10として導出されることができる。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出される。
他の例として、上側参照サンプルのうち第1上側参照サンプルは、前記第1上側参照サンプルの位置及び前記現在ブロックの予測方向に基づいて導出される特定上側周辺サンプルに基づいて導出されることができる。具体的には、前記上側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定上側周辺サンプルが導出されることができ、前記特定上側周辺サンプルに基づいて前記上側参照サンプルが導出されることができる。この場合、前記特定上側周辺サンプルのサンプル値の平均値が前記第1上側参照サンプルのサンプル値として導出されることができる。また、前記特定上側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記特定上側周辺サンプルに基づいて前記第1上側参照サンプルを導出されることができる。前記特定上側周辺サンプルに対する加重値が導出された場合、前記第1上側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記特定上側周辺サンプルと前記第1上側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記特定上側周辺サンプルのうち該当特定上側周辺サンプルに対する加重値は、前記該当特定上側周辺サンプルと前記第1上側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当特定上側周辺サンプルの加重値は、前記該当特定上側周辺サンプルと前記第1上側参照サンプル間の距離に反比例する。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
一方、前記現在ブロックの予測方向に基づいて導出された前記特定上側周辺サンプルに分数サンプル(fractional sample)である上側周辺サンプルが含まれた場合、前記分数サンプルである上側周辺サンプルのサンプル値は、前記分数サンプルである上側周辺サンプルの左右に隣接する整数サンプルのサンプル値間の線形補間(linear interpolation)により導出されることができる。例えば、前記分数サンプルである上側周辺サンプルのサンプル値は、前述した数式2に基づいて導出されることができる。
一方、前記現在ブロックのイントラ予測モードに基づいて前記上側参照サンプルが導出される方法が決定される。例えば、前記現在ブロックのイントラ予測モードが垂直モード(vertical mode)より予測角度が大きいモードである場合、すなわち、前記現在ブロックのイントラ予測モードが27番ないし34番のイントラ予測モードのうち1つである場合、前記上側参照サンプルの該当上側参照サンプルは、前記該当上側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定上側周辺サンプルに基づいて導出されることができる。ここで、前記垂直モードは、26番のイントラ予測モードに対応することができる。また、前記現在ブロックのイントラ予測モードが垂直モードより予測角度が小さいか同一のモードである場合、すなわち、前記現在ブロックのイントラ予測モードが18番ないし26番のイントラ予測モードのうち1つである場合、前記上側参照サンプルの該当上側参照サンプルは、前記該当上側参照サンプルと同一の列に位置する上側周辺サンプルに基づいて導出されることができる。
エンコーディング装置は、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出する(S1130)。エンコーディング装置は、前記複数列の前記左側周辺サンプルに基づいて1列の前記左側参照サンプルを導出することができる。
例えば、左側参照サンプルのうちy行に位置する左側参照サンプルは、左側周辺サンプルのうちy行に位置する左側周辺サンプルに基づいて導出されることができる。この場合、前記y行に位置する前記左側周辺サンプルのサンプル値の平均値が前記y行に位置する前記左側参照サンプルのサンプル値として導出されることができる。また、前記y行に位置する前記左側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記y行に位置する前記左側周辺サンプルに基づいて前記y行に位置する前記左側参照サンプルが導出されることができる。前記y行に位置する前記左側周辺サンプルに対する加重値が導出された場合、前記左側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記左側周辺サンプルと前記y行に位置する前記左側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記y行に位置する前記左側周辺サンプルのうち該当左側周辺サンプルに対する加重値は、前記該当左側周辺サンプルと前記左側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当左側周辺サンプルの加重値は、前記該当左側周辺サンプルと前記左側参照サンプル間の距離に反比例する。具体的には、4列の左側周辺サンプルが導出された場合、前記左側周辺サンプルの加重値は右から左への順序で1/2、1/4、1/8、1/8として導出されることができる。または、前記左側周辺サンプルの加重値は、右から左への順序で2/5、2/5、1/10、1/10として導出されることができる。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
他の例として、左側参照サンプルのうち第1左側参照サンプルは、前記第1左側参照サンプルの位置及び前記現在ブロックの予測方向に基づいて導出される特定左側周辺サンプルに基づいて導出されることができる。具体的には、前記左側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定左側周辺サンプルが導出されることができ、前記特定左側周辺サンプルに基づいて前記左側参照サンプルが導出されることができる。この場合、前記特定左側周辺サンプルのサンプル値の平均値が前記第1左側参照サンプルのサンプル値として導出されることができる。また、前記特定左側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記特定左側周辺サンプルに基づいて前記第1左側参照サンプルが導出されることができる。前記特定左側周辺サンプルに対する加重値が導出された場合、前記第1左側参照サンプルは前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記特定左側周辺サンプルと前記第1左側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記特定左側周辺サンプルのうち該当特定左側周辺サンプルに対する加重値は、前記該当特定左側周辺サンプルと前記第1左側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当特定左側周辺サンプルの加重値は、前記該当特定左側周辺サンプルと前記第1左側参照サンプル間の距離に反比例する。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
一方、前記現在ブロックの予測方向に基づいて導出された前記特定左側周辺サンプルに分数サンプル(fractional sample)である左側周辺サンプルが含まれた場合、前記分数サンプルである左側周辺サンプルのサンプル値は、前記分数サンプルである左側周辺サンプルの左右に隣接する整数サンプルのサンプル値間の線形補間(linear interpolation)により導出されることができる。例えば、前記分数サンプルである左側周辺サンプルのサンプル値は、前述した数式2に基づいて導出されることができる。
一方、前記現在ブロックのイントラ予測モードに基づいて前記左側参照サンプルが導出される方法が決定される。例えば、前記現在ブロックのイントラ予測モードが水平モード(horizontal mode)より予測角度が大きいモードである場合、すなわち、前記現在ブロックのイントラ予測モードが2番ないし9番のイントラ予測モードのうち1つである場合、前記左側参照サンプルの該当左側参照サンプルは、前記該当左側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定左側周辺サンプルに基づいて導出されることができる。ここで、前記水平モードは、10番のイントラ予測モードに対応することができる。また、前記現在ブロックのイントラ予測モードが水平モードより予測角度が小さいか同一のモードである場合、すなわち、前記現在ブロックのイントラ予測モードが10番ないし17番のイントラ予測モードのうち1つである場合、前記左側参照サンプルの該当左側参照サンプルは、前記該当左側参照サンプルと同一の行に位置する左側周辺サンプルに基づいて導出されることができる。
エンコーディング装置は、前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する(S1140)。エンコーディング装置は、前記予測サンプルの位置を基準に前記イントラ予測モードの予測方向に位置する上側参照サンプル又は左側参照サンプルに基づいて前記予測サンプルを生成することができる。
エンコーディング装置は、前記現在ブロックに対する予測情報を生成してエンコードして出力する(S1150)。エンコーディング装置は、前記現在ブロックに対するイントラ予測モードに関する情報をエンコードしてビットストリーム形態で出力することができる。エンコーディング装置は、前記イントラ予測モードを示すイントラ予測モードに関する情報を生成し、エンコードしてビットストリーム形態で出力することができる。前記イントラ予測モードに関する情報は、前記現在ブロックに対するイントラ予測モードを直接的に示す情報を含むこともでき、又は、前記現在ブロックの左側もしくは上側ブロックのイントラ予測モードに基づいて導出されたイントラ予測モード候補リストのうちいずれか1つの候補を示す情報を含むこともできる。
図12は、本発明に従うデコーディング装置によるビデオデコーディング方法を概略的に示す図である。図12に開示される方法は、図2に開示されるデコーディング装置により行われる。具体的には、例えば、図12のS1200~S1240は、前記デコーディング装置の予測部により行われる。
デコーディング装置は、現在ブロックに対するイントラ予測モードを導出する(S1200)。デコーディング装置は、ビットストリームを介して前記現在ブロックに対する予測情報を取得することができる。前記予測情報は、前記現在ブロックに対するイントラ予測モードを直接的に示す情報を含むこともでき、又は、前記現在ブロックの左側もしくは上側ブロックのイントラ予測モードに基づいて導出されたイントラ予測モード候補リストのうちいずれか1つの候補を示す情報を含むこともできる。デコーディング装置は、前記取得された予測情報に基づいて前記現在ブロックに対するイントラ予測モードを導出することができる。前記イントラ予測モードは、2個の非方向性予測モードと33個の方向性予測モードのうち1つであり得る。前記2個の非方向性予測モードは、イントラDCモード及びイントラプラナーモードを含むことができることは前述した通りである。
デコーディング装置は、前記現在ブロックに対する複数行の上側周辺サンプル及び複数列の左側周辺サンプルを導出する(S1210)。デコーディング装置は、前記現在ブロックに対する複数行の上側周辺サンプルを導出することができる。例えば、デコーディング装置は、前記現在ブロックに対する4行の上側周辺サンプルを導出することができる。また、例えば、前記現在ブロックのサイズがN×Nである場合、デコーディング装置は、前記複数行の各行ごとに2N個の上側周辺サンプルを導出することができる。前記各行に対する2N個の上側周辺サンプルは、第1上側周辺サンプルと呼ばれることができる。
一方、後述するように、上側参照サンプルが、前記上側参照サンプルの位置及び前記現在ブロックに対する前記イントラ予測モードの予測方向に基づいて導出される特定上側周辺サンプルに基づいて導出されることができる。この場合、前記現在ブロックの予測方向によって前記第1上側周辺サンプル以外の上側周辺サンプルが前記上側参照サンプルを導出するために用いられる。
例えば、前記現在ブロックのサイズがN×Nである場合、前記複数行の上側周辺サンプルのうちn番目の行の上側周辺サンプルの数は2N個より多いことがある。他の例として、前記n番目の行が1番目の行である場合、前記n番目の行の上側周辺サンプルの数は2N個であり、n+1番目の行の上側周辺サンプルの数は2N個より多いことがある。また、前記現在ブロックに対する複数行の上側周辺サンプルのうちn番目の行の上側周辺サンプルの数がn+1番目の行の上側周辺サンプルの数より少ないことがある。具体的には、前記n+1番目の行の上側周辺サンプルの数は2N個より多いことがあり、前記n+1番目の行の上側周辺サンプルのうち2N番目以後の上側周辺サンプルは、前記n+1番目の行の上側周辺サンプルのうち2N番目の上側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する前記予測サンプルが生成される前に前記n+1番目の行の上側周辺サンプルのうち2N番目以後の上側周辺サンプルに対応する復元サンプルが生成された場合、前記復元サンプルが前記2N番目以後の上側周辺サンプルとして導出されることができる。
他の例として、前記現在ブロックのサイズがN×Nである場合、デコーディング装置は、前記現在ブロックの予測方向に基づいて前記各行に対する第2上側周辺サンプルを導出することができる。ここで、前記第2上側周辺サンプルは、前記第1上側周辺サンプル以外の前記各行に対する上側周辺サンプルを示す。前記予測方向に基づいて前記各行に対する第2上側周辺サンプルの数が決定される。前記各行に対する前記第2上側周辺サンプルは、前記各行に対する第1上側周辺サンプルのうち最右側に位置する第1上側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する予測サンプルが生成される前に前記第2上側周辺サンプルに対する復元サンプルが生成された場合、前記復元サンプルが前記第2上側周辺サンプルとして導出されることができ、前記現在ブロックに対する前記予測サンプルが生成される前に前記第2上側周辺サンプルに対する復元サンプルが生成されない場合、前記各行に対する前記第2上側周辺サンプルは、前記各行に対する第1上側周辺サンプルのうち最右側に位置する第1上側周辺サンプルをパディングして導出されることができる。
また他の一例として、デコーディング装置は、前記現在ブロックに対する複数列の左側周辺サンプルを導出することができる。例えば、デコーディング装置は、前記現在ブロックに対する4列の左側周辺サンプルを導出することができる。また、例えば、前記現在ブロックのサイズがN×Nである場合、デコーディング装置は、前記複数列の各列ごとに2N個の左側周辺サンプルを導出することができる。前記各列に対する2N個の左側周辺サンプルは、第1左側周辺サンプルと呼ばれることができる。
一方、後述するように、左側参照サンプルが、前記左側参照サンプルの位置及び前記現在ブロックに対する前記イントラ予測モードの予測方向に基づいて導出される特定左側周辺サンプルに基づいて導出されることができる。この場合、前記現在ブロックの予測方向によって前記第1左側周辺サンプル以外の左側周辺サンプルが前記左側参照サンプルを導出するために用いられる。
例えば、前記現在ブロックのサイズがN×Nである場合、前記複数列の左側周辺サンプルのうちn番目の列の左側周辺サンプルの数は2N個より多いことがある。他の例として、前記n番目の列が1番目の列である場合、前記n番目の列の左側周辺サンプルの数は2N個であり、n+1番目の列の左側周辺サンプルの数は2N個より多いことがある。また、前記現在ブロックに対する複数列の左側周辺サンプルのうちn番目の列の左側周辺サンプルの数がn+1番目の列の左側周辺サンプルの数より少ないことがある。具体的には、前記n+1番目の列の左側周辺サンプルの数は2N個より多いことがあり、前記n+1番目の列の左側周辺サンプルのうち2N番目以後の左側周辺サンプルは、前記n+1番目の列の左側周辺サンプルのうち2N番目の左側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する前記予測サンプルが生成される前に前記n+1番目の列の左側周辺サンプルのうち2N番目以後の左側周辺サンプルに対応する復元サンプルが生成された場合、前記復元サンプルが前記2N番目以後の左側周辺サンプルとして導出されることができる。
他の例として、前記現在ブロックのサイズがN×Nである場合、デコーディング装置は、前記現在ブロックの予測方向に基づいて前記各列に対する第2左側周辺サンプルを導出することができる。前記予測方向に基づいて前記各列に対する第2左側周辺サンプルの数が決定される。前記各列に対する前記第2左側周辺サンプルは、前記各列に対する第1左側周辺サンプルのうち最下側に位置する第1左側周辺サンプルをパディングして導出されることができる。または、前記現在ブロックに対する予測サンプルが生成される前に前記第2左側周辺サンプルに対する復元サンプルが生成された場合、前記復元サンプルが前記第2左側周辺サンプルとして導出されることができ、前記現在ブロックに対する前記予測サンプルが生成される前に前記第2左側周辺サンプルに対する復元サンプルが生成されない場合、前記各列に対する前記第2左側周辺サンプルは、前記各列に対する第1左側周辺サンプルのうち最下側に位置する第1左側周辺サンプルをパディングして導出されることができる。
デコーディング装置は、前記上側周辺サンプルに基づいて1行の上側参照サンプルを導出する(S1220)。デコーディング装置は、前記複数行の前記上側周辺サンプルに基づいて1行の前記上側参照サンプルを導出することができる。
例えば、上側参照サンプルのうちx列に位置する上側参照サンプルは、上側周辺サンプルのうちx列に位置する上側周辺サンプルに基づいて導出されることができる。この場合、前記x列に位置する前記上側周辺サンプルのサンプル値の平均値が前記x列に位置する前記上側参照サンプルのサンプル値として導出されることができる。また、前記x列に位置する前記上側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記x列に位置する前記上側周辺サンプルに基づいて前記x列に位置する前記上側参照サンプルが導出されることができる。前記x列に位置する前記上側周辺サンプルに対する加重値が導出された場合、前記上側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記上側周辺サンプルと前記x列に位置する前記上側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記x列に位置する前記上側周辺サンプルのうち該当上側周辺サンプルに対する加重値は、前記該当上側周辺サンプルと前記上側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当上側周辺サンプルの加重値は、前記該当上側周辺サンプルと前記上側参照サンプル間の距離に反比例する。具体的には、4行の上側周辺サンプルが導出された場合、前記上側周辺サンプルの加重値は、下から上への順序で1/2、1/4、1/8、1/8として導出されることができる。または、前記上側周辺サンプルの加重値は、下から上への順序で2/5、2/5、1/10、1/10として導出されることができる。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
他の例として、上側参照サンプルのうち第1上側参照サンプルは、前記第1上側参照サンプルの位置及び前記現在ブロックの予測方向に基づいて導出される特定上側周辺サンプルに基づいて導出されることができる。具体的には、前記上側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定上側周辺サンプルが導出されることができ、前記特定上側周辺サンプルに基づいて前記上側参照サンプルが導出されることができる。この場合、前記特定上側周辺サンプルのサンプル値の平均値が前記第1上側参照サンプルのサンプル値として導出されることができる。また、前記特定上側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記特定上側周辺サンプルに基づいて前記第1上側参照サンプルが導出されることができる。前記特定上側周辺サンプルに対する加重値が導出された場合、前記第1上側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記特定上側周辺サンプルと前記第1上側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記特定上側周辺サンプルのうち該当特定上側周辺サンプルに対する加重値は、前記該当特定上側周辺サンプルと前記第1上側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当特定上側周辺サンプルの加重値は、前記該当特定上側周辺サンプルと前記第1上側参照サンプル間の距離に反比例する。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
一方、前記現在ブロックの予測方向に基づいて導出された前記特定上側周辺サンプルに分数サンプル(fractional sample)である上側周辺サンプルが含まれた場合、前記分数サンプルである上側周辺サンプルのサンプル値は、前記分数サンプルである上側周辺サンプルの左右に隣接する整数サンプルのサンプル値間の線形補間(linear interpolation)により導出されることができる。例えば、前記分数サンプルである上側周辺サンプルのサンプル値は、前述した数式2に基づいて導出されることができる。
一方、前記現在ブロックのイントラ予測モードに基づいて前記上側参照サンプルが導出される方法が決定される。例えば、前記現在ブロックのイントラ予測モードが垂直モード(vertical mode)より予測角度が大きいモードである場合、すなわち、前記現在ブロックのイントラ予測モードが27番ないし34番のイントラ予測モードのうち1つである場合、前記上側参照サンプルの該当上側参照サンプルは、前記該当上側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定上側周辺サンプルに基づいて導出されることができる。ここで、前記垂直モードは、26番のイントラ予測モードに対応することができる。また、前記現在ブロックのイントラ予測モードが垂直モード(vertical mode)より予測角度が小さいか同一のモードである場合、すなわち、前記現在ブロックのイントラ予測モードが18番ないし26番のイントラ予測モードのうち1つである場合、前記上側参照サンプルの該当上側参照サンプルは、前記該当上側参照サンプルと同一の列に位置する上側周辺サンプルに基づいて導出されることができる。
デコーディング装置は、前記左側周辺サンプルに基づいて1列の左側参照サンプルを導出する(S1230)。デコーディング装置は、前記複数列の前記左側周辺サンプルに基づいて1列の前記左側参照サンプルを導出することができる。
例えば、左側参照サンプルのうちy行に位置する左側参照サンプルは、左側周辺サンプルのうちy行に位置する左側周辺サンプルに基づいて導出されることができる。この場合、前記y行に位置する前記左側周辺サンプルのサンプル値の平均値が前記y行に位置する前記左側参照サンプルのサンプル値として導出されることができる。また、前記y行に位置する前記左側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記y行に位置する前記左側周辺サンプルに基づいて前記y行に位置する前記左側参照サンプルが導出されることができる。前記y行に位置する前記左側周辺サンプルに対する加重値が導出された場合、前記左側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記左側周辺サンプルと前記y行に位置する前記左側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記y行に位置する前記左側周辺サンプルのうち該当左側周辺サンプルに対する加重値は、前記該当左側周辺サンプルと前記左側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当左側周辺サンプルの加重値は、前記該当左側周辺サンプルと前記左側参照サンプル間の距離に反比例する。具体的には、4列の左側周辺サンプルが導出された場合、前記左側周辺サンプルの加重値は、右から左への順序で1/2、1/4、1/8、1/8として導出されることができる。または、前記左側周辺サンプルの加重値は、右から左への順序で2/5、2/5、1/10、1/10として導出されることができる。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
他の例として、左側参照サンプルのうち第1左側参照サンプルは、前記第1左側参照サンプルの位置及び前記現在ブロックの予測方向に基づいて導出される特定左側周辺サンプルに基づいて導出されることができる。具体的には、前記左側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定左側周辺サンプルが導出されることができ、前記特定左側周辺サンプルに基づいて前記左側参照サンプルが導出されることができる。この場合、前記特定左側周辺サンプルのサンプル値の平均値が前記第1左側参照サンプルのサンプル値として導出されることができる。また、前記特定左側周辺サンプルに対する加重値が導出されることができ、前記加重値及び前記特定左側周辺サンプルに基づいて前記第1左側参照サンプルが導出されることができる。前記特定左側周辺サンプルに対する加重値が導出された場合、前記第1左側参照サンプルは、前述した数式1に基づいて導出されることができる。
一方、例えば、前記加重値は、前記特定左側周辺サンプルと前記第1左側参照サンプル間の距離に基づいて導出されることができる。すなわち、前記特定左側周辺サンプルのうち該当特定左側周辺サンプルに対する加重値は、前記該当特定左側周辺サンプルと前記第1左側参照サンプル間の距離に基づいて導出されることができるところ、例えば、前記該当特定左側周辺サンプルの加重値は、前記該当特定左側周辺サンプルと前記第1左側参照サンプル間の距離に反比例する。
また、他の例として、前記加重値は、前記現在ブロックのサイズ又は量子化パラメータ(quantization parameter:QP)に基づいて導出されることができる。さらに、前記加重値は、多様な基準に基づいて導出されることができる。
一方、前記現在ブロックの予測方向に基づいて導出された前記特定左側周辺サンプルに分数サンプル(fractional sample)である左側周辺サンプルが含まれた場合、前記分数サンプルである左側周辺サンプルのサンプル値は、前記分数サンプルである左側周辺サンプルの左右に隣接する整数サンプルのサンプル値間の線形補間(linear interpolation)により導出されることができる。例えば、前記分数サンプルの左側周辺サンプルのサンプル値は、前述した数式2に基づいて導出されることができる。
一方、前記現在ブロックのイントラ予測モードに基づいて前記左側参照サンプルが導出される方法が決定される。例えば、前記現在ブロックのイントラ予測モードが水平モード(horizontal mode)より予測角度が大きいモードである場合、すなわち、前記現在ブロックのイントラ予測モードが2番ないし9番のイントラ予測モードのうち1つである場合、前記左側参照サンプルの該当左側参照サンプルは、前記該当左側参照サンプルの位置を基準に前記現在ブロックの予測方向に位置する特定左側周辺サンプルに基づいて導出されることができる。ここで、前記水平モードは、10番のイントラ予測モードに対応することができる。また、前記現在ブロックのイントラ予測モードが水平モード(horizontal mode)より予測角度が小さいか同一のモードである場合、すなわち、前記現在ブロックのイントラ予測モードが10番ないし17番のイントラ予測モードのうち1つである場合、前記左側参照サンプルの該当左側参照サンプルは、前記該当左側参照サンプルと同一の行に位置する左側周辺サンプルに基づいて導出されることができる。
デコーディング装置は、前記イントラ予測モードによって前記上側参照サンプル及び前記左側参照サンプルのうち少なくとも1つを用いて前記現在ブロックに対する予測サンプルを生成する(S1240)。デコーディング装置は、前記予測サンプルの位置を基準に前記イントラ予測モードの予測方向に位置する上側参照サンプル又は左側参照サンプルに基づいて前記予測サンプルを生成することができる。
一方、図示されてはいないが、デコーディング装置は、予測モードによって前記予測サンプルを直ちに復元サンプルとして用いることもでき、又は、前記予測サンプルにレジデュアルサンプルを加えて復元サンプルを生成することもできる。デコーディング装置は、前記対象ブロックに対するレジデュアルサンプルが存在する場合、前記対象ブロックに対するレジデュアルに関する情報を受信することができ、前記レジデュアルに関する情報は前記ペースに関する情報に含まれることができる。前記レジデュアルに関する情報は、前記レジデュアルサンプルに関する変換係数を含むことができる。デコーディング装置は、前記レジデュアル情報に基づいて前記対象ブロックに対する前記レジデュアルサンプル(又は、レジデュアルサンプルアレイ)を導出することができる。デコーディング装置は、前記予測サンプルと前記レジデュアルサンプルに基づいて復元サンプルを生成することができ、前記復元サンプルに基づいて復元ブロック又は復元ピクチュアを導出することができる。その後、デコーディング装置は、必要に応じて主観的/客観的画質を向上させるためにデブロッキングフィルタリング及び/又はSAO手順などのインループフィルタリング手順を前記復元ピクチャに適用できることは前述した通りである。
前述した本発明によれば、複数の周辺サンプルに基づいて現在ブロックに対する参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるところ、これにより、全般的なコーディング効率を向上させることができる。
また、本発明によれば、現在ブロックに対するイントラ予測モードの予測方向に位置する複数の周辺サンプルに基づいて参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるところ、これにより、全般的なコーディング効率を向上させることができる。
さらに、本発明によれば、複数の周辺サンプルに対する加重値を導出し、前記加重値及び前記周辺サンプルに基づいて参照サンプルを導出することができ、前記参照サンプルに基づいてイントラ予測を行って前記現在ブロックに対する予測正確度を向上させることができるところ、これにより、全般的なコーディング効率を向上させることができる。
上述した実施例では、方法は、一連のステップまたはブロックすることでフローチャートをもとに説明されているが、本発明は、段階の順序に限定されるものではなく、どのような手順は、上述したよう他のステップとは異なる順序で、または同時に発生することができている。また、当業者であれば、フローチャートに表される段階が排他的ではなく、他のステップが含まれていたり、フローチャートの1つまたは複数のステップが、本発明の範囲に影響を与えずに削除されることを理解できるだろう。
上述した本発明による方法は、ソフトウェア形態で具現されることができ、本発明によるエンコード装置及び/またはデコード装置は、例えばTV、コンピュータ、スマートフォン、セットボックス、ディスプレイ装置などの映像処理を行う装置に含まれることができる。
本発明において実施の形態がソフトウェアにより具現化されるとき、上述した方法は、上述した機能を行うモジュール(過程、機能など)により具現化されることができる。モジュールは、メモリに格納され、プロセッサにより実行されることができる。メモリは、プロセッサの内部または外部にあることができ、よく知られた多様な手段でプロセッサと接続されることができる。プロセッサは、ASIC(Application Specific Integrated Circuit)、他のチプセット、論理回路及び/またはデータ処理装置を含むことができる。メモリは、ROM(read-only memory)、RAM(random access memory)、フラッシュメモリ、メモリカード、格納媒体及び/または他の格納装置を含むことができる。

Claims (15)

  1. デコーディング装置により実行されるビデオをデコーディングする方法において、
    予測モード情報から現在ブロックのイントラ予測モードを導出するステップと、
    前記現在ブロックの上側周辺サンプル及び左側周辺サンプルを含む周辺サンプルを導出するステップと、
    前記周辺サンプル及び前記イントラ予測モードに基づいて前記現在ブロックの予測サンプルを生成するステップと、を含み、
    前記上側周辺サンプルは、前記現在ブロックの最上の行から上方向に位置するn番目の行の上側周辺サンプルを含み、
    前記左側周辺サンプルは、前記現在ブロックの最左の列から左方向に位置するn番目の列の左側周辺サンプルを含み、
    前記nは1より大きく、
    前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の行の上側周辺サンプルの数は2Nより大きく、Nは正の整数であり、
    前記n番目の行の上側周辺サンプルのうちの2N番目の上側周辺サンプルの右に位置する追加の上側周辺サンプルのサンプル値は、前記追加の上側周辺サンプルが利用可能でないサンプル位置に位置するか否かを決定することなしに、前記2N番目の上側周辺サンプルのサンプル値と等しくなるように導出される、ビデオデコーディング方法。
  2. 前記追加の上側周辺サンプルは、前記イントラ予測モードの予測方向に基づいて導出される、請求項1に記載のビデオデコーディング方法。
  3. 前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の列の左側周辺サンプルの数は2Nより大きく、Nは正の整数である、請求項1に記載のビデオデコーディング方法。
  4. 前記n番目の列の左側周辺サンプルのうちの2N番目の左側周辺サンプルの下に位置する追加の左側周辺サンプルのサンプル値は、前記2N番目の左側周辺サンプルのサンプル値と等しくなるように導出され、
    前記追加の左側周辺サンプルは、前記イントラ予測モードの予測方向に基づいて導出される、請求項3に記載のビデオデコーディング方法。
  5. 前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の行の上側周辺サンプルの数は、n+1番目の行の上側周辺サンプルの数より少なく、Nは正の整数である、請求項1に記載のビデオデコーディング方法。
  6. 前記n+1番目の行の上側周辺サンプルの数は2Nより大きく、
    前記n+1番目の行の上側周辺サンプルのうち、2N番目の上側周辺サンプル以後の上側周辺サンプルは、前記n+1番目の行の上側周辺サンプルのうち、前記2N番目の上側周辺サンプルをパディングすることにより導出される、請求項5に記載のビデオデコーディング方法。
  7. 前記現在ブロックの予測サンプルが生成される前に、前記n+1番目の行の上側周辺サンプルのうち、2N番目の上側周辺サンプル以後の上側周辺サンプルに関連する復元サンプルが生成された場合に基づいて、前記復元サンプルは、前記n+1番目の行の上側周辺サンプルのうち、前記2N番目の上側周辺サンプル以後の上側周辺サンプルとして導出される、請求項5に記載のビデオデコーディング方法。
  8. エンコーディング装置により実行されるビデオをエンコーディングする方法において、
    現在ブロックのイントラ予測モードを決定するステップと、
    前記現在ブロックの上側周辺サンプル及び左側周辺サンプルを含む周辺サンプルを導出するステップと、
    前記周辺サンプル及び前記イントラ予測モードに基づいて前記現在ブロックの予測サンプルを生成するステップと、
    前記現在ブロックの予測モード情報をエンコーディングするステップと、を含み、
    前記上側周辺サンプルは、前記現在ブロックの最上の行から上方向に位置するn番目の行の上側周辺サンプルを含み、
    前記左側周辺サンプルは、前記現在ブロックの最左の列から左方向に位置するn番目の列の左側周辺サンプルを含み、
    前記nは1より大きく、
    前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の行の上側周辺サンプルの数は2Nより大きく、Nは正の整数であり、
    前記n番目の行の上側周辺サンプルのうちの2N番目の上側周辺サンプルの右に位置する追加の上側周辺サンプルのサンプル値は、前記上側周辺サンプルのうちの前記追加の上側周辺サンプルが利用可能でないサンプル位置に位置するか否かを決定することなしに、前記2N番目の上側周辺サンプルのサンプル値と等しくなるように導出される、ビデオエンコーディング方法。
  9. 前記追加の上側周辺サンプルは、前記イントラ予測モードの予測方向に基づいて導出される、請求項8に記載のビデオエンコーディング方法。
  10. 前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の列の左側周辺サンプルの数は2Nより大きく、Nは正の整数である、請求項8に記載のビデオエンコーディング方法。
  11. 前記n番目の列の左側周辺サンプルのうちの2N番目の左側周辺サンプルの下に位置する追加の左側周辺サンプルのサンプル値は、前記2N番目の左側周辺サンプルのサンプル値と等しくなるように導出され、
    前記追加の左側周辺サンプルは、前記イントラ予測モードの予測方向に基づいて導出される、請求項10に記載のビデオエンコーディング方法。
  12. 前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の行の上側周辺サンプルの数は、n+1番目の行の上側周辺サンプルの数より少なく、Nは正の整数である、請求項8に記載のビデオエンコーディング方法。
  13. 前記n+1番目の行の上側周辺サンプルの数は2Nより大きく、
    前記n+1番目の行の上側周辺サンプルのうち、2N番目の上側周辺サンプル以後の上側周辺サンプルは、前記n+1番目の行の上側周辺サンプルのうち、前記2N番目の上側周辺サンプルをパディングすることにより導出される、請求項12に記載のビデオエンコーディング方法。
  14. 前記現在ブロックの予測サンプルが生成される前に、前記n+1番目の行の上側周辺サンプルのうち、2N番目の上側周辺サンプル以後の上側周辺サンプルに関連する復元サンプルが生成された場合に基づいて、前記復元サンプルは、前記n+1番目の行の上側周辺サンプルのうち、前記2N番目の上側周辺サンプル以後の上側周辺サンプルとして導出される、請求項12に記載のビデオエンコーディング方法。
  15. 非一時的コンピュータ読み取り可能記憶媒体であって、
    実行されるとき、ビデオデコーディング装置に、
    予測モード情報から現在ブロックのイントラ予測モードを導出し、
    前記現在ブロックの上側周辺サンプル及び左側周辺サンプルを含む周辺サンプルを導出し、
    前記周辺サンプル及び前記イントラ予測モードに基づいて前記現在ブロックの予測サンプルを生成することを含む動作を実行させる命令に関する情報を格納し、
    前記上側周辺サンプルは、前記現在ブロックの最上の行から上方向に位置するn番目の行の上側周辺サンプルを含み、
    前記左側周辺サンプルは、前記現在ブロックの最左の列から左方向に位置するn番目の列の左側周辺サンプルを含み、
    前記nは1より大きく、
    前記現在ブロックのサイズがN×Nであることに基づいて、前記n番目の行の上側周辺サンプルの数は2Nより大きく、Nは正の整数であり、
    前記n番目の行の上側周辺サンプルのうちの2N番目の上側周辺サンプルの右に位置する追加の上側周辺サンプルのサンプル値は、前記上側周辺サンプルのうちの前記追加の上側周辺サンプルが利用可能でないサンプル位置に位置するか否かを決定することなしに、前記2N番目の上側周辺サンプルのサンプル値と等しくなるように導出される、非一時的コンピュータ読み取り可能記憶媒体。
JP2022078764A 2016-10-11 2022-05-12 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置 Active JP7284318B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023082149A JP2023096116A (ja) 2016-10-11 2023-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662406410P 2016-10-11 2016-10-11
US62/406,410 2016-10-11
JP2019519637A JP6913749B2 (ja) 2016-10-11 2017-08-30 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
JP2021083793A JP7074913B2 (ja) 2016-10-11 2021-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021083793A Division JP7074913B2 (ja) 2016-10-11 2021-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023082149A Division JP2023096116A (ja) 2016-10-11 2023-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Publications (2)

Publication Number Publication Date
JP2022097690A true JP2022097690A (ja) 2022-06-30
JP7284318B2 JP7284318B2 (ja) 2023-05-30

Family

ID=61905793

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019519637A Active JP6913749B2 (ja) 2016-10-11 2017-08-30 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
JP2021083793A Active JP7074913B2 (ja) 2016-10-11 2021-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
JP2022078764A Active JP7284318B2 (ja) 2016-10-11 2022-05-12 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
JP2023082149A Pending JP2023096116A (ja) 2016-10-11 2023-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019519637A Active JP6913749B2 (ja) 2016-10-11 2017-08-30 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
JP2021083793A Active JP7074913B2 (ja) 2016-10-11 2021-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023082149A Pending JP2023096116A (ja) 2016-10-11 2023-05-18 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置

Country Status (11)

Country Link
US (5) US10805636B2 (ja)
EP (1) EP3512201A4 (ja)
JP (4) JP6913749B2 (ja)
KR (4) KR102569476B1 (ja)
CN (1) CN109891892A (ja)
AU (4) AU2017342627B2 (ja)
BR (3) BR112019007423B1 (ja)
CA (2) CA3040236C (ja)
MX (2) MX2019004151A (ja)
RU (4) RU2721160C1 (ja)
WO (1) WO2018070661A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11570436B2 (en) * 2019-01-28 2023-01-31 Apple Inc. Video signal encoding/decoding method and device therefor
CN113382251B (zh) * 2019-06-21 2022-04-08 杭州海康威视数字技术股份有限公司 一种编解码方法、装置、设备及存储介质
WO2024025316A1 (ko) * 2022-07-25 2024-02-01 주식회사 케이티 영상 부호화/복호화 방법 및 비트스트림을 저장하는 기록 매체
WO2024025317A1 (ko) * 2022-07-25 2024-02-01 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008271371A (ja) * 2007-04-24 2008-11-06 Sharp Corp 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラム
JP2010538520A (ja) * 2007-09-02 2010-12-09 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
JP2013141187A (ja) * 2012-01-06 2013-07-18 Sony Corp 画像処理装置及び画像処理方法
WO2014005930A1 (en) * 2012-07-04 2014-01-09 Thomson Licensing Spatial prediction with increased number of possible coding modes
WO2018016823A1 (ko) * 2016-07-18 2018-01-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101244917B1 (ko) * 2007-06-11 2013-03-18 삼성전자주식회사 조도 보상 방법 및 장치, 이를 이용한 영상의 부호화,복호화 방법 및 장치
CN103338365B (zh) * 2007-06-29 2017-04-12 夏普株式会社 图像编码装置、图像编码方法、图像译码装置、图像译码方法
WO2009136743A2 (ko) * 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
KR101605220B1 (ko) 2009-01-15 2016-03-21 르네사스 일렉트로닉스 가부시키가이샤 화상 처리 장치, 디코드 방법, 프레임 내 복호 장치, 프레임 내 복호 방법, 및 프레임 내 부호화 장치
JP5169978B2 (ja) * 2009-04-24 2013-03-27 ソニー株式会社 画像処理装置および方法
FR2948845A1 (fr) * 2009-07-30 2011-02-04 Thomson Licensing Procede de decodage d'un flux representatif d'une sequence d'images et procede de codage d'une sequence d'images
CN101715135B (zh) * 2009-09-30 2013-01-09 武汉大学 基于匹配模板的自适应帧内预测滤波编码方法
SI3745721T1 (sl) * 2010-05-25 2022-04-29 Lg Electronics Inc. Nov planarni način napovedovanja
SG188255A1 (en) * 2010-09-30 2013-04-30 Panasonic Corp Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
KR101912307B1 (ko) * 2010-12-08 2018-10-26 엘지전자 주식회사 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치
US9462272B2 (en) * 2010-12-13 2016-10-04 Electronics And Telecommunications Research Institute Intra prediction method and apparatus
US20130272393A1 (en) 2011-01-05 2013-10-17 Koninklijke Philips N.V. Video coding and decoding devices and methods preserving ppg relevant information
US20130336398A1 (en) * 2011-03-10 2013-12-19 Electronics And Telecommunications Research Institute Method and device for intra-prediction
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
US20120314767A1 (en) * 2011-06-13 2012-12-13 Qualcomm Incorporated Border pixel padding for intra prediction in video coding
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
CN104935942B (zh) 2011-10-24 2016-08-24 英孚布瑞智有限私人贸易公司 对帧内预测模式进行解码的方法
RU2510944C2 (ru) * 2012-07-03 2014-04-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ кодирования/декодирования многоракурсной видео последовательности на основе адаптивной локальной коррекции яркости опорных кадров без передачи дополнительных параметров (варианты)
US9380289B2 (en) * 2012-07-20 2016-06-28 Qualcomm Incorporated Parameter sets in video coding
EP2904794A4 (en) * 2012-10-03 2016-03-09 Mediatek Inc METHOD AND APPARATUS FOR INTER-COMPONENT MOTION PREDICTION DURING THREE-DIMENSIONAL VIDEO CODING
EP2923491B1 (en) * 2013-04-10 2018-10-31 HFI Innovation Inc. Method and apparatus for bi-prediction of illumination compensation
WO2014166119A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Stereo compatibility high level syntax
US9288507B2 (en) * 2013-06-21 2016-03-15 Qualcomm Incorporated More accurate advanced residual prediction (ARP) for texture coding
WO2015003383A1 (en) * 2013-07-12 2015-01-15 Mediatek Singapore Pte. Ltd. Methods for inter-view motion prediction
US9860529B2 (en) * 2013-07-16 2018-01-02 Qualcomm Incorporated Processing illumination compensation for video coding
US9762927B2 (en) * 2013-09-26 2017-09-12 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
US9667996B2 (en) * 2013-09-26 2017-05-30 Qualcomm Incorporated Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC
CN105637872B (zh) * 2013-10-16 2019-01-01 夏普株式会社 图像解码装置、图像编码装置
US9503751B2 (en) 2013-10-17 2016-11-22 Hfi Innovation Inc. Method and apparatus for simplified depth coding with extended prediction modes
KR102248848B1 (ko) * 2013-10-26 2021-05-06 삼성전자주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
KR20150109282A (ko) * 2014-03-19 2015-10-01 주식회사 케이티 다시점 비디오 신호 처리 방법 및 장치
WO2015194896A1 (ko) * 2014-06-18 2015-12-23 삼성전자 주식회사 휘도차를 보상하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US10218957B2 (en) * 2014-06-20 2019-02-26 Hfi Innovation Inc. Method of sub-PU syntax signaling and illumination compensation for 3D and multi-view video coding
SG11201703015PA (en) * 2014-10-31 2017-05-30 Mediatek Inc Method of improved directional intra prediction for video coding
KR20180019092A (ko) * 2015-06-16 2018-02-23 엘지전자 주식회사 영상 코딩 시스템에서 조도 보상에 기반한 블록 예측 방법 및 장치
JP6599552B2 (ja) 2015-09-10 2019-10-30 エルジー エレクトロニクス インコーポレイティド ビデオコーディングシステムにおけるイントラ予測方法及び装置
KR20180075660A (ko) * 2015-11-24 2018-07-04 삼성전자주식회사 비디오 복호화 방법 및 그 장치 및 비디오 부호화 방법 및 그 장치
WO2018062702A1 (ko) * 2016-09-30 2018-04-05 엘지전자 주식회사 영상 코딩 시스템에서 인트라 예측 방법 및 장치
CA3142170C (en) * 2017-05-31 2023-07-04 Lg Electronics Inc. Method and device for performing image decoding on basis of intra prediction in image coding system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008271371A (ja) * 2007-04-24 2008-11-06 Sharp Corp 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法およびプログラム
JP2010538520A (ja) * 2007-09-02 2010-12-09 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
JP2013141187A (ja) * 2012-01-06 2013-07-18 Sony Corp 画像処理装置及び画像処理方法
WO2014005930A1 (en) * 2012-07-04 2014-01-09 Thomson Licensing Spatial prediction with increased number of possible coding modes
WO2018016823A1 (ko) * 2016-07-18 2018-01-25 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIAHAO LI ET AL.: "EE6: Multiple line-based intra prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-D0149, JPN6020011944, 8 October 2016 (2016-10-08), pages 1 - 5, ISSN: 0005039638 *
JIAHAO LI ET AL.: "Multiple line-based intra prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-C0071, JPN6020011934, May 2016 (2016-05-01), pages 1 - 6, ISSN: 0005039640 *
QIANG YAO, KEI KAWAMURA AND SEI NAITO: "Reference Line Generation For Intra Prediction", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-D0045, JPN6020011942, 5 October 2016 (2016-10-05), pages 1 - 4, ISSN: 0005039637 *
YAO-JEN CHANG ET AL.: "Arbitrary reference tier for intra directional modes", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-C0043r1, JPN6020011936, May 2016 (2016-05-01), pages 1 - 5, ISSN: 0005039639 *

Also Published As

Publication number Publication date
RU2732820C2 (ru) 2020-09-22
CA3040236C (en) 2023-01-24
RU2764028C1 (ru) 2022-01-12
CA3145758A1 (en) 2018-04-19
MX2019004151A (es) 2019-08-05
RU2020115171A (ru) 2020-05-27
US20190320200A1 (en) 2019-10-17
US20240048760A1 (en) 2024-02-08
MX2023000288A (es) 2023-02-09
RU2747381C1 (ru) 2021-05-04
JP2021122146A (ja) 2021-08-26
KR20230125341A (ko) 2023-08-29
BR112019007423A2 (pt) 2019-07-02
US11838546B2 (en) 2023-12-05
US20200221124A1 (en) 2020-07-09
JP2023096116A (ja) 2023-07-06
RU2020115171A3 (ja) 2020-07-13
AU2022252821A8 (en) 2023-11-23
EP3512201A4 (en) 2019-08-14
AU2017342627B2 (en) 2020-10-15
WO2018070661A1 (ko) 2018-04-19
BR122021021179B1 (pt) 2022-06-14
AU2022252821A1 (en) 2022-11-10
AU2021200247B2 (en) 2022-07-21
BR112019007423B1 (pt) 2022-06-14
CA3040236A1 (en) 2018-04-19
RU2721160C1 (ru) 2020-05-18
KR20220047682A (ko) 2022-04-18
AU2022252821B2 (en) 2023-12-07
US10805636B2 (en) 2020-10-13
AU2021200247A1 (en) 2021-03-18
JP7074913B2 (ja) 2022-05-24
EP3512201A1 (en) 2019-07-17
KR102385396B1 (ko) 2022-04-11
AU2017342627A1 (en) 2019-05-02
KR102447511B1 (ko) 2022-09-26
US10924762B2 (en) 2021-02-16
JP2019531663A (ja) 2019-10-31
KR20190042094A (ko) 2019-04-23
AU2024201491A1 (en) 2024-03-28
CN109891892A (zh) 2019-06-14
JP7284318B2 (ja) 2023-05-30
KR20220131365A (ko) 2022-09-27
JP6913749B2 (ja) 2021-08-04
US20210136410A1 (en) 2021-05-06
BR122021021189B1 (pt) 2022-06-14
US20220417556A1 (en) 2022-12-29
KR102569476B1 (ko) 2023-08-24
US11463728B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
RU2722394C1 (ru) Способ преобразования в системе кодирования изображений и устройство для его осуществления
JP6798015B2 (ja) 画像コーディングシステムにおけるブロック分割及びイントラ予測方法並びに装置
JP6781340B2 (ja) 映像コーディングシステムにおける照度補償基盤インター予測方法及び装置
US10721479B2 (en) Intra prediction method and apparatus in image coding system
JP7074913B2 (ja) 映像コーディングシステムにおいてイントラ予測による映像デコーディング方法及び装置
KR20200003210A (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
US10841574B2 (en) Image decoding method and device using intra prediction in image coding system
JP2022036083A (ja) 変換に基づく映像コーディング方法及びその装置
US11064205B2 (en) Image decoding method and device according to intra prediction in image coding system
RU2787216C1 (ru) Способ и устройство декодирования изображения на основе интра-предсказания в системе кодирования изображения

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230518

R150 Certificate of patent or registration of utility model

Ref document number: 7284318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113