JP7462740B2 - Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法 - Google Patents

Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法 Download PDF

Info

Publication number
JP7462740B2
JP7462740B2 JP2022517416A JP2022517416A JP7462740B2 JP 7462740 B2 JP7462740 B2 JP 7462740B2 JP 2022517416 A JP2022517416 A JP 2022517416A JP 2022517416 A JP2022517416 A JP 2022517416A JP 7462740 B2 JP7462740 B2 JP 7462740B2
Authority
JP
Japan
Prior art keywords
current block
prediction
block
prof
affine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022517416A
Other languages
English (en)
Other versions
JP2022548704A (ja
Inventor
パク,ナリ
ナム,ジョンハク
ジャン,ヒョンムン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2022548704A publication Critical patent/JP2022548704A/ja
Application granted granted Critical
Publication of JP7462740B2 publication Critical patent/JP7462740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本開示は、画像符号化/復号化方法、装置、及びビットストリームを伝送する方法に係り、より詳細には、PROF(Prediction Refinement with Optical Flow)を行う画像符号化/復号化方法、装置、及び本開示の画像符号化方法/装置によって生成されたビットストリームを伝送する方法に関する。
最近、高解像度、高品質の画像、例えばHD(High Definition)画像及びUHD(Ultra High Definition)画像への需要が多様な分野で増加している。画像データが高解像度、高品質になるほど、従来の画像データに比べて、伝送される情報量又はビット量が相対的に増加する。伝送される情報量又はビット量の増加は、伝送費用と保存費用の増加をもたらす。
これにより、高解像度、高品質画像の情報を効果的に伝送又は保存し、再生するための高効率の画像圧縮技術が求められる。
本開示は、符号化/復号化効率が向上した画像符号化/復号化方法及び装置を提供することを目的とする。
また、本開示は、PROFを行う画像符号化/復号化方法及び装置を提供することを目的とする。
また、本開示は、現在ピクチャのサイズと参照ピクチャのサイズを考慮してPROFを行う画像符号化/復号化方法及び装置を提供することを目的とする。
また、本開示は、本開示による画像符号化方法又は装置によって生成されたビットストリームを伝送する方法を提供することを目的とする。
また、本開示は、本開示による画像符号化方法又は装置によって生成されたビットストリームを保存した記録媒体を提供することを目的とする。
また、本開示は、本開示による画像復号化装置によって受信され、復号化されて画像の復元に利用されるビットストリームを保存した記録媒体を提供することを目的とする。
本開示で解決しようとする技術的課題は上述した技術的課題に制限されず、上述していない別の技術的課題は以降の記載から本開示の属する技術分野における通常の知識を有する者に明確に理解できるだろう。
本開示の一態様による画像復号化方法は、画像復号化装置によって行われる画像復号化方法であって、現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出するステップと、前記現在ブロックに対するRPR(Reference Picture Resampling)条件を導出するステップと、前記RPR条件に基づいて前記現在ブロックにPROF(Prediction Refinement with Optical Flow)を適用するか否かを決定するステップと、前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出するステップと、を含むことができる。
本開示の画像復号化方法において、前記RPR条件は、前記現在ブロックの参照ピクチャのサイズ及び現在ピクチャのサイズに基づいて導出されることができる。
本開示の画像復号化方法において、前記現在ブロックの参照ピクチャのサイズと前記現在ピクチャのサイズが異なる場合、前記RPR条件は第1値として導出され、前記現在ブロックの参照ピクチャのサイズと前記現在ピクチャのサイズが同一である場合、前記RPR条件は第2値として導出されることができる。
本開示の画像復号化方法において、前記RPR条件が第1値である場合、前記現在ブロックにPROFを適用しないものと決定することができる。
本開示の画像復号化方法において、前記現在ブロックにPROFを適用するか否かは、前記現在ブロックのサイズに基づいて決定されることができる。
本開示の画像復号化方法において、前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)との積が128よりも小さい場合、前記現在ブロックにPROFを適用しないものと決定することができる。
本開示の画像復号化方法において、前記現在ブロックがアフィンマージモードであるか否かを示す情報は、前記現在ブロックのサイズに基づいてビットストリームからパーシングされることができる。
本開示の画像復号化方法において、前記現在ブロックがアフィンマージモードであるか否かを示す情報は、前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)がそれぞれ8以上であり、w*hが128以上である場合、前記ビットストリームからパーシングされることができる。
本開示の画像復号化方法において、前記現在ブロックがアフィンMVPモードであるか否かを示す情報は、前記現在ブロックのサイズに基づいてビットストリームからパーシングされることができる。
本開示の画像復号化方法において、前記現在ブロックがアフィンMVPモードであるか否かを示す情報は、前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)がそれぞれ8以上であり、w*hが128以上である場合、前記ビットストリームからパーシングされることができる。
本開示の画像復号化方法において、前記現在ブロックにPROFを適用するか否かは、前記現在ブロックにBCW又はWPが適用されるか否かに基づいて決定されることができる。
本開示の画像復号化方法において、前記現在ブロックにBCW又はWPが適用される場合、前記現在ブロックにPROFを適用しないものと決定することができる。
本開示の別の態様による画像復号化装置は、メモリと少なくとも一つのプロセッサとを含み、前記少なくとも一つのプロセッサは、現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出し、前記現在ブロックに対するRPR条件を導出し、前記RPR条件に基づいて前記現在ブロックにPROFを適用するか否かを決定し、前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出することができる。
本発明の別の態様による画像符号化方法は、画像符号化装置によって行われる画像符号化方法であって、現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出するステップと、前記現在ブロックに対するRPR条件を導出するステップと、前記RPR条件に基づいて前記現在ブロックにPROFを適用するか否かを決定するステップと、前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出するステップと、を含むことができる。
本開示の別の態様による伝送方法は、本開示の画像符号化方法及び/又は画像符号化装置によって生成されたビットストリームを画像復号化装置に伝送することができる。
本開示の別の態様によるコンピュータ可読記録媒体は、本開示の画像符号化方法又は画像符号化装置によって生成されたビットストリームを保存することができる。
本開示について簡略に要約して上述した特徴は、後述する本開示の詳細な説明の例示的な態様に過ぎず、本開示の範囲を制限するものではない。
本開示によれば、符号化/復号化効率が向上した画像符号化/復号化方法及び装置が提供されることができる。
また、本開示によれば、PROFを行う画像符号化/復号化方法及び装置が提供されることができる。
また、本開示によれば、現在ピクチャのサイズと参照ピクチャのサイズを考慮してPROFを行う画像符号化/復号化方法及び装置が提供されることができる。
また、本開示によれば、本開示による画像符号化方法又は装置によって生成されたビットストリームを伝送する方法が提供されることができる。
また、本開示によれば、本開示による画像符号化方法又は装置によって生成されたビットストリームを保存した記録媒体が提供されることができる。
また、本開示によれば、本開示による画像復号化装置によって受信され、復号化されて画像の復元に利用されるビットストリームを保存した記録媒体が提供されることができる。
本開示で得られる効果は、上述した効果に限定されず、上述していない別の効果は、以降の記載から、本開示の属する技術分野における通常の知識を有する者に明確に理解できるだろう。
本開示による実施例が適用できるビデオコーディングシステムを概略的に示す図である。 本開示による実施例が適用できる画像符号化装置を概略的に示す図である。 本開示による実施例が適用できる画像復号化装置を概略的に示す図である。 インター予測に基づくビデオ/画像符号化方法を示すフローチャートである。 本開示によるインター予測部180の構成を例示的に示す図である。 インター予測に基づくビデオ/画像復号化方法を示すフローチャートである。 本開示によるインター予測部260の構成を例示的に示す図である。 アフィンモードで表現可能な動きを例示的に示す図である。 アフィンモードのパラメータモデルを説明するための図である。 アフィンマージ候補リストを生成する方法を説明するための図である。 周辺ブロックから誘導されるCPMVを説明するための図である。 継承アフィンマージ候補を誘導するための周辺ブロックを説明するための図である。 組み合わせアフィンマージ候補を誘導するための周辺ブロックを説明するための図である。 アフィンMVP候補リストを生成する方法を説明するための図である。 サブブロックベースのTMVPモードの周辺ブロックを説明するための図である。 サブブロックベースのTMVPモードに従って動きベクトルフィールドを誘導する方法を説明するための図である。 BDOFを行うために拡張されたCUを示す図である。 Δv(i,j)、v(i,j)及びサブブロック動きベクトルの関係を示す図である。 本開示によるBDOFの適用有無決定過程を示す一例である。 本開示によるPROFの適用有無決定過程を示す一例である。 本開示の一例によってサブブロックマージモードの適用有無を指示する情報のシグナリングを説明するための図である。 本開示の一例によってアフィンMVPモードの適用有無を指示する情報のシグナリングを説明するための図である。 本開示の他の実施例によってPROFの適用有無決定過程を示す図である。 本開示の別の実施例によってサブブロックマージモードの適用有無を指示する情報のシグナリングを説明するための図である。 本開示の別の実施例によってアフィンMVPモードの適用有無を指示する情報のシグナリングを説明するための図である。 本開示の別の実施例によるPROFの適用有無決定過程を示す図である。 本開示の別の実施例によるPROFの適用有無決定過程を示す図である。 本開示によってPROFを行う方法を説明するための図である。 本開示の別の実施例によるPROFの適用有無決定過程を示す図である。 本開示の別の実施例によるPROFの適用有無決定過程を示す図である。 本開示の実施例が適用できるコンテンツストリーミングシステムを例示する図である。
以下、添付図面を参照して、本開示の実施例について、本開示の属する技術分野における通常の知識を有する者が容易に実施し得るように詳細に説明する。しかし、本開示は、様々な異なる形態で実現でき、ここで説明する実施例に限定されない。
本開示の実施例を説明するにあたり、公知の構成又は機能についての具体的な説明が本開示の要旨を不明確にするおそれがあると判断される場合には、それについての詳細な説明は省略する。そして、図面において、本開示についての説明と関係ない部分は省略し、同様の部分には同様の図面符号を付した。
本開示において、ある構成要素が他の構成要素と「連結」、「結合」又は「接続」されているとするとき、これは、直接的な連結関係だけでなく、それらの間に別の構成要素が存在する間接的な連結関係も含むことができる。また、ある構成要素が他の構成要素を「含む」又は「有する」(備える;構成する;構築する;包接する;包含する;含有する)とするとき、これは、特に反対される記載がない限り、別の構成要素を排除するのではなく、別の構成要素をさらに含むことができることを意味する。
本開示において、「第1」、「第2」などの用語は、一つの構成要素を他の構成要素から区別する目的のみで使用され、特に言及されない限り、構成要素間の順序又は重要度などを限定しない。したがって、本開示の範囲内において、一実施例の第1構成要素を他の実施例で第2構成要素と呼んでもよく、これと同様に、一実施例の第2構成要素を他の実施例で第1構成要素と呼んでもよい。
本開示において、互いに区別される構成要素は、それぞれの特徴を明確に説明するためのものであり、構成要素が必ずしも分離されることを意味するものではない。つまり、複数の構成要素が統合されて一つのハードウェア又はソフトウェア単位で構成されてもよく、一つの構成要素が分散されて複数のハードウェア又はソフトウェア単位で構成されてもよい。よって、別に言及しなくても、このように統合された又は分散された実施例も本開示の範囲に含まれる。
本開示において、さまざまな実施例で説明する構成要素が必ず必要不可欠な構成要素を意味するものではなく、一部は選択的な構成要素であり得る。したがって、一実施例で説明する構成要素の部分集合で構成される実施例も本開示の範囲に含まれる。また、様々な実施例で説明する構成要素にさらに他の構成要素を含む実施例も、本開示の範囲に含まれる。
本開示は、画像の符号化及び復号化に関するものであって、本開示で使用される用語は、本開示で新たに定義されない限り、本開示の属する技術分野における通常の意味を持つことができる。
本開示において、「ピクチャ(picture)」は、一般的に、特定の時間帯のいずれか一つの画像を示す単位を意味し、スライス(slice)/タイル(tile)は、ピクチャの一部を構成する符号化単位であって、一つのピクチャは、一つ以上のスライス/タイルで構成できる。また、スライス/タイルは、一つ以上のCTU(coding tree unit)を含むことができる。
本開示において、「ピクセル(pixel)」又は「ペル(pel)」は、一つのピクチャ(又は画像)を構成する最小の単位を意味することができる。また、ピクセルに対応する用語として「サンプル(sample)」が使用できる。サンプルは、一般的に、ピクセル又はピクセルの値を示すことができ、ルマ(luma)成分のピクセル/ピクセル値のみを示すこともでき、クロマ(chroma)成分のピクセル/ピクセル値のみを示すこともできる。
本開示において、「ユニット(unit)」は、画像処理の基本単位を示すことができる。ユニットは、ピクチャの特定の領域及び当該領域に関連する情報のうちの少なくとも一つを含むことができる。ユニットは、場合に応じて、「サンプルアレイ」、「ブロック(block)」又は「領域(area)」などの用語と混用して使用できる。一般な場合、M×Nブロックは、M個の列とN個の行からなるサンプル(又はサンプルアレイ)又は変換係数(transform coefficient)のセット(又はアレイ)を含むことができる。
本開示において、「現在ブロック」は、「現在コーディングブロック」、「現在コーディングユニット」、「符号化対象ブロック」、「復号化対象ブロック」又は「処理対象ブロック」のうちのいずれか一つを意味することができる。予測が行われる場合、「現在ブロック」は、「現在予測ブロック」又は「予測対象ブロック」を意味することができる。変換(逆変換)/量子化(逆量子化)が行われる場合、「現在ブロック」は「現在変換ブロック」又は「変換対象ブロック」を意味することができる。フィルタリングが行われる場合、「現在ブロック」は「フィルタリング対象ブロック」を意味することができる。
本開示において、「/」と「、」は「及び/又は」と解釈されることができる。例えば、「A/B」と「A、B」は「A及び/又はB」と解釈されることができる。また、「A/B/C」と「A、B、C」は、「A、B及び/又はCのうちの少なくとも一つ」を意味することができる。
本開示において、「又は」は「及び/又は」と解釈されることができる。例えば、「A又はB」は、1)「A」のみを意味するか、2)「B」のみを意味するか、3)「A及びB」を意味することができる。又は、本開示において、「又は」は、「追加的に又は代替的に(additionally or alternatively)」を意味することができる。
ビデオコーディングシステムの概要
図1は本開示によるビデオコーディングシステムを示す図である。
一実施例によるビデオコーディングシステムは、符号化装置10及び復号化装置20を含むことができる。符号化装置10は、符号化されたビデオ(video)及び/又は画像(image)情報又はデータをファイルまたはストリーミング形式でデジタル記憶媒体又はネットワークを介して復号化装置20へ伝達することができる。
一実施例による符号化装置10は、ビデオソース生成部11、符号化部12及び伝送部13を含むことができる。一実施例による復号化装置20は、受信部21、復号化部22及びレンダリング部23を含むことができる。前記符号化部12は、ビデオ/画像符号化部と呼ばれることができ、前記復号化部22は、ビデオ/画像復号化部と呼ばれることができる。伝送部13は、符号化部12に含まれることができる。受信部21は、復号化部22に含まれることができる。レンダリング部23は、ディスプレイ部を含むこともでき、ディスプレイ部は、別個のデバイス又は外部コンポーネントとして構成されることもできる。
ビデオソース生成部11は、ビデオ/画像のキャプチャ、合成又は生成過程などを介してビデオ/画像を取得することができる。ビデオソース生成部11は、ビデオ/画像キャプチャデバイス及び/又はビデオ/画像生成デバイスを含むことができる。ビデオ/画像キャプチャデバイスは、例えば、一つ以上のカメラ、以前にキャプチャされたビデオ/画像を含むビデオ/画像アーカイブなどを含むことができる。ビデオ/画像生成デバイスは、例えば、コンピュータ、タブレット及びスマートフォンなどを含むことができ、(電子的に)ビデオ/画像を生成することができる。例えば、コンピュータなどを介して仮想のビデオ/画像が生成されることができ、この場合、ビデオ/画像キャプチャ過程は、関連データが生成される過程に置き換えられることができる。
符号化部12は、入力ビデオ/画像を符号化することができる。符号化部12は、圧縮及び符号化効率のために、予測、変換、量子化などの一連の手順を行うことができる。符号化部12は、符号化されたデータ(符号化されたビデオ/画像情報)をビットストリーム(bitstream)形式で出力することができる。
伝送部13は、ビットストリーム形式で出力された、符号化されたビデオ/画像情報又はデータを、ファイルまたはストリーミング形式でデジタル記憶媒体又はネットワークを介して復号化装置20の受信部21に伝達することができる。デジタル記憶媒体は、USB、SD、CD、DVD、Blu-ray(登録商標)、HDD、SSDなどのさまざまな記憶媒体を含むことができる。伝送部13は、予め決められたファイルフォーマットを介してメディアファイルを生成するためのエレメントを含むことができ、放送/通信ネットワークを介して伝送するためのエレメントを含むことができる。受信部21は、前記記憶媒体又はネットワークから前記ビットストリームを抽出/受信して復号化部22に伝達することができる。
復号化部22は、符号化部12の動作に対応する逆量子化、逆変換、予測などの一連の手順を行ってビデオ/画像を復号化することができる。
レンダリング部23は、復号化されたビデオ/画像をレンダリングすることができる。レンダリングされたビデオ/画像は、ディスプレイ部を介して表示されることができる。
画像符号化装置の概要
図2は本開示による実施例が適用できる画像符号化装置を概略的に示す図である。
図2に示されているように、画像符号化装置100は、画像分割部110、減算部115、変換部120、量子化部130、逆量子化部140、逆変換部150、加算部155、フィルタリング部160、メモリ170、インター予測部180、イントラ予測部185及びエントロピー符号化部190を含むことができる。インター予測部180及びイントラ予測部185は、合わせて「予測部」と呼ばれることができる。変換部120、量子化部130、逆量子化部140及び逆変換部150は、レジデュアル(residual)処理部に含まれることができる。レジデュアル処理部は減算部115をさらに含むこともできる。
画像符号化装置100を構成する複数の構成部の全部又は少なくとも一部は、実施例によって一つのハードウェアコンポーネント(例えば、エンコーダ又はプロセッサ)で実現されることができる。また、メモリ170は、DPB(decoded picture buffer)を含むことができ、デジタル記憶媒体によって実現できる。
画像分割部110は、画像符号化装置100に入力された入力画像(又は、ピクチャ、フレーム)を一つ以上の処理ユニット(processing unit)に分割することができる。一例として、前記処理ユニットは、コーディングユニット(coding unit、CU)と呼ばれることができる。コーディングユニットは、コーディングツリーユニット(coding tree unit、CTU)又は最大コーディングユニット(largest coding unit、LCU)をQT/BT/TT(Quad-tree/binary-tree/ternary-tree)構造によって再帰的に(recursively)分割することにより取得されることができる。例えば、一つのコーディングニットは、四分木構造、二分木構造及び/又は三分木構造に基づいて、下位(deeper)デプスの複数のコーディングユニットに分割されることができる。コーディングユニットの分割のために、四分木構造が先に適用され、二分木構造及び/又は三分木構造が後で適用されることができる。それ以上分割されない最終コーディングユニットを基に、本開示によるコーディング手順が行われることができる。最大コーディングユニットが最終コーディングユニットとして使用されることができ、最大コーディングユニットを分割して取得した下位デプスのコーディングユニットが最終コーディングユニットとして使用されることもできる。ここで、コーディング手順とは、後述する予測、変換及び/又は復元などの手順を含むことができる。他の例として、前記コーディング手順の処理ユニットは、予測ユニット(PU:Prediction Unit)又は変換ユニット(TU:Transform Unit)であることができる。前記予測ユニット及び前記変換ユニットは、それぞれ前記最終コーディングユニットから分割又はパーティショニングされることができる。前記予測ユニットは、サンプル予測の単位であることができ、前記変換ユニットは、変換係数を誘導する単位、及び/又は変換係数からレジデュアル信号(residual signal)を誘導する単位であることができる。
予測部(インター予測部180又はイントラ予測部185)は、処理対象ブロック(現在ブロック)に対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、現在ブロック又はCU単位でイントラ予測が適用されるか、或いはインター予測が適用されるかを決定することができる。予測部は、現在ブロックの予測に関するさまざまな情報を生成してエントロピー符号化部190に伝達することができる。予測に関する情報は、エントロピー符号化部190で符号化されてビットストリーム形式で出力されることができる。
イントラ予測部185は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。参照される前記サンプルは、イントラ予測モード及び/又はイントラ予測技法に従って、前記現在ブロックの周辺(neighbor)に位置することもでき、或いは離れて位置することもできる。イントラ予測モードは、複数の非方向性モードと複数の方向性モードを含むことができる。非方向性モードは、例えば、DCモード及びプランナーモード(Planarモード)を含むことができる。方向性モードは、予測方向の細かい程度に応じて、例えば33個の方向性予測モード又は65個の方向性予測モードを含むことができる。ただし、これは例示に過ぎず、設定に基づいてそれ以上又はそれ以下の個数の方向性予測モードが使用できる。イントラ予測部185は、周辺ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測部180は、参照ピクチャ上で動きベクトルによって特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。この時、インター予測モードで伝送される動き情報の量を減らすために、周辺ブロックと現在ブロックとの動き情報の相関性に基づいて動き情報をブロック、サブブロック又はサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測など)情報をさらに含むことができる。インター予測の場合、周辺ブロックは、現在ピクチャ内に存在する空間周辺ブロック(spatial neighboring block)と、参照ピクチャに存在する時間周辺ブロック(temporal neighboring block)を含むことができる。前記参照ブロックを含む参照ピクチャと、前記時間周辺ブロックを含む参照ピクチャとは、同一でもよく、互いに異なってもよい。前記時間周辺ブロックは、コロケート参照ブロック(collocated reference block)、コロケートCU(colCU)などの名前で呼ばれることができる。前記時間周辺ブロックを含む参照ピクチャは、コロケートピクチャ(collocated picture、colPic)と呼ばれることができる。例えば、インター予測部180は、周辺ブロックに基づいて動き情報候補リストを構成し、前記現在ブロックの動きベクトル及び/又は参照ピクチャインデックスを導出するために、どの候補が使用されるかを指示する情報を生成することができる。様々な予測モードに基づいてインター予測が行われることができ、例えばスキップモードとマージモードの場合に、インター予測部180は、周辺ブロックの動き情報を現在ブロックの動き情報として用いることができる。スキップモードの場合、マージモードとは異なり、レジデュアル信号が伝送されないことができる。動き情報予測(motion vector prediction、MVP)モードの場合、周辺ブロックの動きベクトルを動きベクトル予測子(motion vector predictor)として用い、動きベクトル差分(motion vector difference)及び動きベクトル予測子に対するインジケータ(indicator)を符号化することにより、現在ブロックの動きベクトルをシグナリングすることができる。動きベクトル差分は、現在ブロックの動きベクトルと動きベクトル予測子との差を意味することができる。
予測部は、後述する様々な予測方法及び/又は予測技法に基づいて予測信号を生成することができる。例えば、予測部は、現在ブロックの予測のために、イントラ予測又はインター予測を適用することができるだけでなく、イントラ予測とインター予測を同時に適用することができる。現在ブロックの予測のためにイントラ予測とインター予測を同時に適用する予測方法は、CIIP(combined inter and intra prediction)と呼ばれることができる。また、予測部は、現在ブロックの予測のためにイントラブロックコピー(intra block copy、IBC)を行うこともできる。イントラブロックコピーは、例えば、SCC(screen content coding)などのようにゲームなどのコンテンツ画像/動画コーディングのために使用できる。IBCは、現在ブロックから所定の距離だけ離れた位置の現在ピクチャ内の既に復元された参照ブロックを用いて現在ブロックを予測する方法である。IBCが適用される場合、現在ピクチャ内の参照ブロックの位置は、前記所定の距離に該当するベクトル(ブロックベクトル)として符号化されることができる。
予測部によって生成された予測信号は、復元信号を生成するために用いられるか、或いはレジデュアル信号を生成するために用いられることができる。減算部115は、入力画像信号(原本ブロック、原本サンプルアレイ)から、予測部から出力された予測信号(予測されたブロック、予測サンプルアレイ)を減算して、レジデュアル信号(residual signal、残余ブロック、残余サンプルアレイ)を生成することができる。生成されたレジデュアル信号は、変換部120に伝送されることができる。
変換部120は、レジデュアル信号に変換技法を適用して変換係数(transform coefficients)を生成することができる。例えば、変換技法は、DCT(Discrete Cosine Transform)、DST(Discrete Sine Transform)、KLT(Karhunen-Loeve Transform)、GBT(Graph-Based Transform)、又はCNT(Conditionally Non-linear Transform)のうちの少なくとも一つを含むことができる。ここで、GBTは、ピクセル間の関係情報をグラフで表現するとするとき、このグラフから得られた変換を意味する。CNTは、以前に復元されたすべてのピクセル(all previously reconstructed pixel)を用いて予測信号を生成し、それに基づいて取得される変換を意味する。変換過程は、正方形の同じサイズを有するピクセルブロックに適用されることもでき、正方形ではない、可変サイズのブロックに適用されることもできる。
量子化部130は、変換係数を量子化してエントロピー符号化部190に伝送することができる。エントロピー符号化部190は、量子化された信号(量子化された変換係数に関する情報)を符号化してビットストリーム形式で出力することができる。前記量子化された変換係数に関する情報は、レジデュアル情報と呼ばれることができる。量子化部130は、係数スキャン順序(scan order)に基づいて、ブロック形式の量子化された変換係数を1次元ベクトル形式で再整列することができ、前記1次元ベクトル形式の量子化された変換係数に基づいて、前記量子化された変換係数に関する情報を生成することもできる。
エントロピー符号化部190は、例えば、指数ゴロム(exponential Golomb)、CAVLC(context-adaptive variable length coding)、CABAC(context-adaptive binary arithmetic coding)などの様々な符号化方法を行うことができる。エントロピー符号化部190は、量子化された変換係数の他に、ビデオ/画像復元に必要な情報(例えば、シンタックス要素(syntax elements)の値など)を一緒に又は別々に符号化することもできる。符号化された情報(例えば、符号化されたビデオ/画像情報)は、ビットストリーム形式でNAL(network abstraction layer)ユニット単位で伝送又は保存されることができる。前記ビデオ/画像情報は、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)又はビデオパラメータセット(VPS)などの様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/画像情報は、一般制限情報(general constraint information)をさらに含むことができる。本開示で言及されたシグナリング情報、伝送される情報及び/又はシンタックス要素は、上述した符号化手順を介して符号化されて前記ビットストリームに含まれることができる。
前記ビットストリームは、ネットワークを介して伝送されることができ、又はデジタル記憶媒体に保存されることができる。ここで、ネットワークは、放送網及び/又は通信網などを含むことができ、デジタル記憶媒体は、USB、SD、CD、DVD、Blu-ray(登録商標)、HDD、SSDなどのさまざまな記憶媒体を含むことができる。エントロピー符号化部190から出力された信号を伝送する伝送部(図示せず)及び/又は保存する保存部(図示せず)が画像符号化装置100の内/外部要素として備えられることができ、又は伝送部はエントロピー符号化部190の構成要素として備えられることもできる。
量子化部130から出力された、量子化された変換係数は、レジデュアル信号を生成するために用いられることができる。例えば、量子化された変換係数に逆量子化部140及び逆変換部150を介して逆量子化及び逆変換を適用することにより、レジデュアル信号(レジデュアルブロック又はレジデュアルサンプル)を復元することができる。
加算部155は、復元されたレジデュアル信号をインター予測部180又はイントラ予測部185から出力された予測信号に加えることにより、復元(reconstructed)信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)を生成することができる。スキップモードが適用された場合のように処理対象ブロックに対するレジデュアルがない場合、予測されたブロックが復元ブロックとして使用されることができる。加算部155は、復元部又は復元ブロック生成部と呼ばれることができる。生成された復元信号は、現在ピクチャ内の次の処理対象ブロックのイントラ予測のために使用されることができ、後述するようにフィルタリングを経て次のピクチャのインター予測のために使用されることもできる。
一方、後述するように、ピクチャ符号化過程でLMCS(luma mapping with chroma scaling)が適用されることもできる。
フィルタリング部160は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部160は、復元ピクチャに様々なフィルタリング方法を適用して、修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ170、具体的にはメモリ170のDPBに保存することができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルタ(adaptive loop filter)、双方向フィルタ(bilateral filter)などを含むことができる。フィルタリング部160は、各フィルタリング方法についての説明で後述するようにフィルタリングに関する様々な情報を生成してエントロピー符号化部190に伝達することができる。フィルタリングに関する情報は、エントロピー符号化部190で符号化されてビットストリーム形式で出力されることができる。
メモリ170に伝送された、修正された復元ピクチャは、インター予測部180で参照ピクチャとして使用されることができる。画像符号化装置100は、これを介してインター予測が適用される場合、画像符号化装置100と画像復号化装置での予測ミスマッチを回避することができ、符号化効率も向上させることができる。
メモリ170内のDPBは、インター予測部180での参照ピクチャとして使用するために、修正された復元ピクチャを保存することができる。メモリ170は、現在ピクチャ内の動き情報が導出された(又は符号化された)ブロックの動き情報及び/又は既に復元されたピクチャ内ブロックの動き情報を保存することができる。前記保存された動き情報は、空間周辺ブロックの動き情報又は時間周辺ブロックの動き情報として活用するために、インター予測部180に伝達されることができる。メモリ170は、現在ピクチャ内の復元されたブロックの復元サンプルを保存することができ、イントラ予測部185に伝達することができる。
画像復号化装置の概要
図3は本開示による実施例が適用できる画像復号化装置を概略的に示す図である。
図3に示されているように、画像復号化装置200は、エントロピー復号化部210、逆量子化部220、逆変換部230、加算部235、フィルタリング部240、メモリ250、インター予測部260及びイントラ予測部265を含んで構成できる。インター予測部260及びイントラ予測部265を合わせて「予測部」と呼ばれることができる。逆量子化部220、逆変換部230はレジデュアル処理部に含まれることができる。
画像復号化装置200を構成する複数の構成部の全部又は少なくとも一部は、実施例によって一つのハードウェアコンポーネント(例えば、デコーダ又はプロセッサ)で実現されることができる。また、メモリ170は、DPBを含むことができ、デジタル記憶媒体によって実現できる。
ビデオ/画像情報を含むビットストリームを受信した画像復号化装置200は、図1の画像符号化装置100で行われたプロセスに対応するプロセスを実行して画像を復元することができる。例えば、画像復号化装置200は、画像符号化装置で適用された処理ユニットを用いて復号化を行うことができる。したがって、復号化の処理ユニットは、例えばコーディングユニットであることができる。コーディングユニットは、コーディングツリーユニット又は最大コーディングユニットを分割して取得できる。そして、画像復号化装置200を介して復号化及び出力された復元画像信号は、再生装置(図示せず)を介して再生できる。
画像復号化装置200は、図1の画像符号化装置から出力された信号をビットストリーム形式で受信することができる。受信された信号は、エントロピー復号化部210を介して復号化できる。例えば、エントロピー復号化部210は、前記ビットストリームをパーシングして画像復元(又はピクチャ復元)に必要な情報(例えば、ビデオ/画像情報)を導出することができる。前記ビデオ/画像情報は、適応パラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)又はビデオパラメータセット(VPS)などの様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/画像情報は、一般制限情報(general constraint information)をさらに含むことができる。画像復号化装置は、画像を復号化するために、前記パラメータセットに関する情報及び/又は前記一般制限情報をさらに用いることができる。本開示で言及されたシグナリング情報、受信される情報及び/又はシンタックス要素は、前記復号化手順を介して復号化されることにより、前記ビットストリームから取得されることができる。例えば、エントロピー復号化部210は、指数ゴロム符号化、CAVLC又はCABACなどのコーディング方法に基づいてビットストリーム内の情報を復号化し、画像復元に必要なシンタックス要素の値、レジデュアルに関する変換係数の量子化された値を出力することができる。より詳細には、CABACエントロピー復号化方法は、ビットストリームから各シンタックス要素に該当するビン(bin)を受信し、復号化対象シンタックス要素情報と周辺ブロック及び復号化対象ブロックの復号化情報、或いは以前ステップで復号化されたシンボル/ビンの情報を用いてコンテキスト(context)モデルを決定し、決定されたコンテキストモデルに基づいてビン(bin)の発生確率を予測してビンの算術復号化(arithmetic decoding)を行うことにより、各シンタックス要素の値に該当するシンボルを生成することができる。この時、CABACエントロピー復号化方法は、コンテキストモデルの決定後、次のシンボル/ビンのコンテキストモデルのために、復号化されたシンボル/ビンの情報を用いてコンテキストモデルを更新することができる。エントロピー復号化部210で復号化された情報のうち、予測に関する情報は、予測部(インター予測部260及びイントラ予測部265)に提供され、エントロピー復号化部210でエントロピー復号化が行われたレジデュアル値、すなわち量子化された変換係数及び関連パラメータ情報は、逆量子化部220に入力されることができる。また、エントロピー復号化部210で復号化された情報のうち、フィルタリングに関する情報は、フィルタリング部240に提供されることができる。一方、画像符号化装置から出力された信号を受信する受信部(図示せず)が画像復号化装置200の内/外部要素としてさらに備えられることができ、又は受信部はエントロピー復号化部210の構成要素として備えられることもできる。
一方、本開示による画像復号化装置は、ビデオ/画像/ピクチャ復号化装置と呼ばれることができる。前記画像復号化装置は、情報デコーダ(ビデオ/画像/ピクチャ情報デコーダ)及び/又はサンプルデコーダ(ビデオ/画像/ピクチャサンプルデコーダ)を含むこともできる。前記情報デコーダは、エントロピー復号化部210を含むことができ、前記サンプルデコーダは、逆量子化部220、逆変換部230、加算部235、フィルタリング部240、メモリ250、インター予測部260及びイントラ予測部265のうちの少なくとも一つを含むことができる。
逆量子化部220では、量子化された変換係数を逆量子化して変換係数を出力することができる。逆量子化部220は、量子化された変換係数を2次元のブロック形式で再整列することができる。この場合、前記再整列は、画像符号化装置で行われた係数スキャン順序に基づいて行われることができる。逆量子化部220は、量子化パラメータ(例えば、量子化ステップサイズ情報)を用いて、量子化された変換係数に対する逆量子化を行い、変換係数(transform coefficient)を取得することができる。
逆変換部230では、変換係数を逆変換してレジデュアル信号(レジデュアルブロック、レジデュアルサンプルアレイ)を取得することができる。
予測部は、現在ブロックに対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、エントロピー復号化部210から出力された前記予測に関する情報に基づいて、前記現在ブロックにイントラ予測が適用されるか或いはインター予測が適用されるかを決定することができ、具体的なイントラ/インター予測モード(予測技法)を決定することができる。
予測部が後述の様々な予測方法(技法)に基づいて予測信号を生成することができるのは、画像符号化装置100の予測部についての説明で述べたのと同様である。
イントラ予測部265は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。イントラ予測部185についての説明は、イントラ予測部265に対しても同様に適用されることができる。
インター予測部260は、参照ピクチャ上で動きベクトルによって特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。この時、インター予測モードで伝送される動き情報の量を減らすために、周辺ブロックと現在ブロックとの動き情報の相関性に基づいて動き情報をブロック、サブブロック又はサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測など)情報をさらに含むことができる。インター予測の場合に、周辺ブロックは、現在ピクチャ内に存在する空間周辺ブロック(spatial neighboring block)と参照ピクチャに存在する時間周辺ブロック(temporal neighboring block)を含むことができる。例えば、インター予測部260は、周辺ブロックに基づいて動き情報候補リストを構成し、受信した候補選択情報に基づいて前記現在ブロックの動きベクトル及び/又は参照ピクチャインデックスを導出することができる。様々な予測モード(技法)に基づいてインター予測が行われることができ、前記予測に関する情報は、前記現在ブロックに対するインター予測のモード(技法)を指示する情報を含むことができる。
加算部235は、取得されたレジデュアル信号を予測部(インター予測部260及び/又はイントラ予測部265を含む)から出力された予測信号(予測されたブロック、予測サンプルアレイ)に加えることにより、復元信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)を生成することができる。加算部155についての説明は、加算部235に対しても同様に適用されることができる。
一方、後述するように、ピクチャ復号化過程でLMCS(luma mapping with chroma scaling)が適用されることもできる。
フィルタリング部240は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部240は、復元ピクチャに様々なフィルタリング方法を適用して、修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ250、具体的にはメモリ250のDPBに保存することができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルタ(adaptive loop filter)、双方向フィルタ(bilateral filter)などを含むことができる。
メモリ250のDPBに保存された(修正された)復元ピクチャは、インター予測部260で参照ピクチャとして使用されることができる。メモリ250は、現在ピクチャ内の動き情報が導出された(又は復号化された)ブロックの動き情報及び/又は既に復元されたピクチャ内のブロックの動き情報を保存することができる。前記保存された動き情報は、空間周辺ブロックの動き情報又は時間周辺ブロックの動き情報として活用するために、インター予測部260に伝達することができる。メモリ250は、現在ピクチャ内の復元されたブロックの復元サンプルを保存することができ、イントラ予測部265に伝達することができる。
本明細書において、画像符号化装置100のフィルタリング部160、インター予測部180及びイントラ予測部185で説明された実施例は、それぞれ画像復号化装置200のフィルタリング部240、インター予測部260及びイントラ予測部265にも、同様に又は対応するように適用されることができる。
インター予測の概要
画像符号化/復号化装置は、ブロック単位でインター予測を行って予測サンプルを導出することができる。インター予測は、現在ピクチャ以外のピクチャ(ら)のデータ要素に依存的な方法で導出される予測技法を意味することができる。現在ブロックに対してインター予測が適用される場合、参照ピクチャ上で動きベクトルによって特定される参照ブロックに基づいて、現在ブロックに対する予測ブロックが誘導されることができる。
このとき、インター予測モードで伝送される動き情報の量を減らすために、周辺ブロックと現在ブロックとの動き情報の相関性に基づいて現在ブロックの動き情報が誘導されることができ、ブロック、サブブロック又はサンプル単位で動き情報が誘導されることができる。このとき、動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。動き情報はインター予測タイプ情報をさらに含むことができる。ここで、インター予測タイプ情報はインター予測の方向性情報を意味することができる。インター予測タイプ情報は、現在ブロックがL0予測、L1予測及びBi予測のうちのいずれか一つを用いて予測されることを指示することができる。
現在ブロックに対してインター予測が適用される場合、現在ブロックの周辺ブロックは、現在ピクチャ内に存在する空間周辺ブロック(spatial neighbouring block)と参照ピクチャに存在する時間周辺ブロック(temporal neighbouring block)を含むことができる。このとき、現在ブロックに対する参照ブロックを含む参照ピクチャと、前記時間周辺ブロックを含む参照ピクチャとは、同一でもよく、異なっていてもよい。前記時間周辺ブロックは、コロケート参照ブロック(collocated reference block)、コロケート符号化ユニット(colCU)などと呼ばれることができる。前記時間周辺ブロックを含む参照ピクチャは、コロケートピクチャ(collocated picture、colPic)と呼ばれることができる。
一方、現在ブロックの周辺ブロックに基づいて動き情報候補リストが構成されることができ、このとき、現在ブロックの動きベクトル及び/又は参照ピクチャインデックスを導出するためにどの候補が使用されるかを指示するフラグ又はインデックス情報がシグナリングされることができる。
動き情報は、インター予測タイプに基づいてL0動き情報及び/又はL1動き情報を含むことができる。L0方向の動きベクトルは、L0動きベクトル又はMVL0と定義されることができ、L1方向の動きベクトルは、L1動きベクトル又はMVL1と定義されることができる。L0動きベクトルに基づいた予測はL0予測と定義されることができ、L1動きベクトルに基づいた予測はL1予測と定義されることができ、前記L0動きベクトル及び前記L1動きベクトルの両方ともに基づいた予測は双予測(Bi prediction)と定義されることができる。ここで、L0動きベクトルは、参照ピクチャリストL0に関連した動きベクトルを意味することができ、L1動きベクトルは、参照ピクチャリストL1に関連した動きベクトルを意味することができる。
参照ピクチャリストL0は、前記現在ピクチャよりも出力順序における以前のピクチャを参照ピクチャとして含むことができ、参照ピクチャリストL1は、前記現在ピクチャよりも出力順序における以後のピクチャを含むことができる。このとき、以前のピクチャは、順方向(参照)ピクチャと定義することができ、前記以後のピクチャは、逆方向(参照ピクチャ)と定義することができる。一方、参照ピクチャリストL0は、現在ピクチャよりも出力順序における以後のピクチャをさらに含むことができる。この場合、参照ピクチャリストL0内で以前ピクチャが先にインデックス化され、以後のピクチャは、その次にインデックス化されることができる。参照ピクチャリストL1は、現在ピクチャよりも出力順序における以前のピクチャをさらに含むことができる。この場合、参照ピクチャリストL1内で以後のピクチャが先にインデックス化され、以前のピクチャはその次にインデックス化されることができる。ここで、出力順序は、POC(picture order count)順序(order)に対応することができる。
図4はインター予測に基づくビデオ/画像符号化方法を示すフローチャート図である。
図5は本開示によるインター予測部180の構成を例示的に示す図である。
図4の符号化方法は、図2の画像符号化装置によって行われることができる。具体的に、ステップS410は、インター予測部180によって行われることができ、ステップS420は、レジデュアル処理部によって行われることができる。具体的に、ステップS420は、減算部115によって行われることができる。ステップS430は、エントロピー符号化部190によって行われることができる。ステップS430の予測情報はインター予測部180によって導出され、ステップS430のレジデュアル情報はレジデュアル処理部によって導出されることができる。前記レジデュアル情報は、前記レジデュアルサンプルに対する量子化された変換係数に関する情報を含むことができる。前述したように、前記レジデュアルサンプルは、画像符号化装置の変換部120を介して変換係数として導出され、前記変換係数は、量子化部130を介して量子化された変換係数として導出されることができる。前記量子化された変換係数に関する情報がレジデュアルコーディング手順を介してエントロピー符号化部190で符号化されることができる。
画像符号化装置は、現在ブロックに対するインター予測を行うことができる(S410)。画像符号化装置は、現在ブロックのインター予測モード及び動き情報を導出し、前記現在ブロックの予測サンプルを生成することができる。ここで、インター予測モードの決定、動き情報の導出及び予測サンプルの生成手順は、同時に行われてもよく、いずれか一つの手順が他の手順よりも先に行われてもよい。例えば、図5に示されているように、画像符号化装置のインター予測部180は、予測モード決定部181、動き情報導出部182、及び予測サンプル導出部183を含むことができる。予測モード決定部181で前記現在ブロックに対する予測モードを決定し、動き情報導出部182で前記現在ブロックの動き情報を導出し、予測サンプル導出部183で前記現在ブロックの予測サンプルを導出することができる。例えば、画像符号化装置のインター予測部180は、動き推定(motion estimation)を介して参照ピクチャの一定の領域(探索領域)内で前記現在ブロックと類似のブロックを探索し、前記現在ブロックとの差が最小又は一定の基準以下である参照ブロックを導出することができる。これに基づいて、前記参照ブロックが位置する参照ピクチャを指す参照ピクチャインデックスを導出し、前記参照ブロックと前記現在ブロックとの位置差に基づいて動きベクトルを導出することができる。画像符号化装置は、様々な予測モードのうち、前記現在ブロックに対して適用されるモードを決定することができる。画像符号化装置は、前記様々なインター予測モードに対するレート歪みコスト(Rate-Distortion(RD) cost)を比較し、前記現在ブロックに対する最適の予測モードを決定することができる。しかし、画像符号化装置が現在ブロックに対するインター予測モードを決定する方法は、上記の例に限定されず、様々な方法が利用できる。
例えば、現在ブロックに対するインター予測モードは、マージモード(merge mode)、スキップモード(skip mode)、MVPモード(Motion Vector Prediction mode)、SMVDモード(Symmetric Motion Vector Difference)、アフィンモード(affine mode)、サブブロックベースのマージモード(Subblock-based merge mode)、AMVRモード(Adaptive Motion Vector Resolution mode)、HMVPモード(History-based Motion Vector Predictor mode)、双予測マージモード(Pair-wise average merge mode)、MMVDモード(Merge mode with Motion Vector Differences mode)、DMVRモード(Decoder side Motion Vector Refinement mode)、CIIPモード(Combined Inter and Intra Prediction mode)、及びGPM(Geometric Partitioning mode)のうちの少なくとも一つと決定されることができる。
例えば、現在ブロックにスキップモード又はマージモードが適用される場合、画像符号化装置は、前記現在ブロックの周辺ブロックからマージ候補を誘導し、誘導されたマージ候補を用いてマージ候補リストを構成することができる。また、画像符号化装置は、前記マージ候補リストに含まれているマージ候補が指す参照ブロックのうち、現在ブロックとの差が最小又は一定の基準以下である参照ブロックを導出することができる。この場合、前記導出された参照ブロックに関連するマージ候補が選択され、前記選択されたマージ候補を示すマージインデックス情報が生成されて画像復号化装置にシグナリングされることができる。前記選択されたマージ候補の動き情報を用いて前記現在ブロックの動き情報を導出することができる。
他の例として、前記現在ブロックにMVPモードが適用される場合、画像符号化装置は、前記現在ブロックの周辺ブロックから動きベクトル予測子(MVP、Motion Vector Predictor)候補を誘導し、誘導されたMVP候補を用いてMVP候補リストを構成することができる。また、画像符号化装置は、前記MVP候補リストに含まれているMVP候補のうち、選択されたMVP候補の動きベクトルを前記現在ブロックのMVPとして用いることができる。この場合、例えば、前述した動き推定によって導出された参照ブロックを指す動きベクトルが前記現在ブロックの動きベクトルとして用いられることができ、前記MVP候補のうち、前記現在ブロックの動きベクトルとの差が最も小さい動きベクトルを持つMVP候補が、前記選択されたMVP候補になることができる。前記現在ブロックの動きベクトルから前記MVPを差し引いた差分であるMVD(motion vector difference)が導出されることができる。この場合、前記選択されたMVP候補を示すインデックス情報、及び前記MVDに関する情報が画像復号化装置にシグナリングされることができる。また、MVPモードが適用される場合、前記参照ピクチャインデックスの値は、参照ピクチャインデックス情報で構成されて別途に前記画像復号化装置にシグナリングされることができる。
画像符号化装置は、前記予測サンプルに基づいてレジデュアルサンプルを導出することができる(S420)。画像符号化装置は、前記現在ブロックの原本サンプルと前記予測サンプルとの比較によって前記レジデュアルサンプルを導出することができる。例えば、前記レジデュアルサンプルは、原本サンプルから対応する予測サンプルを減算することにより導出されることができる。
画像符号化装置は、予測情報及びレジデュアル情報を含む画像情報を符号化することができる(S430)。画像符号化装置は、符号化された画像情報をビットストリーム形式で出力することができる。前記予測情報は、前記予測手順に関連した情報であって、予測モード情報(例えば、skip flag、merge flag又はmode indexなど)及び動き情報に関する情報を含むことができる。前記予測モード情報のうち、skip flagは、現在ブロックに対してスキップモードが適用されるか否かを示す情報であり、merge flagは、現在ブロックに対してマージモードが適用されるか否かを示す情報である。又は、予測モード情報は、mode indexのように、複数の予測モードのうちのいずれか一つを指示する情報であってもよい。前記skip flagとmerge flagがそれぞれ0である場合、現在ブロックに対してMVPモードが適用されると決定されることができる。前記動き情報に関する情報は、動きベクトルを導出するための情報である候補選択情報(例えば、merge index、mvp flag又はmvp index)を含むことができる。前記候補選択情報のうち、merge indexは、現在ブロックに対してマージモードが適用される場合にシグナリングされることができ、マージ候補リストに含まれているマージ候補のうちのいずれか一つを選択するための情報であることができる。前記候補選択情報のうち、MVP flag又はMVP indexは、現在ブロックに対してMVPモードが適用される場合にシグナリングされることができ、MVP候補リストに含まれているMVP候補のうちのいずれか一つを選択するための情報であることができる。具体的に、MVP flagは、シンタックス要素mvp_l0_flag或いはmvp_l1_flagを用いてシグナリングされることができる。また、前記動き情報に関する情報は、上述したMVDに関する情報及び/又は参照ピクチャインデックス情報を含むことができる。また、前記動き情報に関する情報は、L0予測、L1予測又は双(Bi)予測が適用されるか否かを示す情報を含むことができる。前記レジデュアル情報は、前記レジデュアルサンプルに関する情報である。前記レジデュアル情報は、前記レジデュアルサンプルに対する量子化された変換係数に関する情報を含むことができる。
出力されたビットストリームは、(デジタル)記憶媒体に保存されて画像復号化装置に伝達されることができ、又はネットワークを介して画像復号化装置に伝達されることもできる。
一方、前述したように、画像符号化装置は、前記参照サンプル及び前記レジデュアルサンプルに基づいて復元ピクチャ(復元サンプル及び復元ブロックを含むピクチャ)を生成することができる。これは、画像復号化装置で行われるのと同じ予測結果を画像符号化装置で導出するためであり、これによりコーディング効率を高めることができるためである。したがって、画像符号化装置は、復元ピクチャ(又は復元サンプル、復元ブロック)をメモリに保存し、インター予測のためのピクチャとして活用することができる。前記復元ピクチャにインループフィルタリング手順などがさらに適用できるのは、上述したとおりである。
図6はインター予測に基づくビデオ/画像復号化方法を示すフローチャートである。
図7は本開示によるインター予測部260の構成を例示的に示す図である。
画像復号化装置は、前記画像符号化装置で行われた動作と対応する動作を行うことができる。画像復号化装置は、受信された予測情報に基づいて現在ブロックに対する予測を行い、予測サンプルを導出することができる。
図6の復号化方法は、図3の画像復号化装置によって行われることができる。ステップS610乃至S630は、インター予測部260によって行われることができ、ステップS610の予測情報及びステップS640のレジデュアル情報は、エントロピー復号化部210によってビットストリームから取得されることができる。画像復号化装置のレジデュアル処理部は、前記レジデュアル情報に基づいて現在ブロックに対するレジデュアルサンプルを導出することができる(S640)。具体的には、前記レジデュアル処理部の逆量子化部220は、前記レジデュアル情報に基づいて導出された、量子化された変換係数に基づいて、逆量子化を行って変換係数を導出し、前記レジデュアル処理部の逆変換部230は、前記変換係数に対する逆変換を行って前記現在ブロックに対するレジデュアルサンプルを導出することができる。ステップS650は、加算部235又は復元部によって行われることができる。
具体的に、画像復号化装置は、受信された予測情報に基づいて、前記現在ブロックに対する予測モードを決定することができる(S610)。画像復号化装置は、前記予測情報内の予測モード情報に基づいて、前記現在ブロックにどのインター予測モードが適用されるかを決定することができる。
例えば、前記skip flagに基づいて、前記現在ブロックに前記スキップモードが適用されるか否かを決定することができる。また、前記merge flagに基づいて、前記現在ブロックに前記マージモードが適用されるか或いはMVPモードが決定されるかを決定することができる。又は、前記mode indexに基づいて、多様なインター予測モード候補のうちのいずれか一つを選択することができる。前記インター予測モード候補は、スキップモード、マージモード及び/又はMVPモードを含むことができ、或いは後述する様々なインター予測モードを含むことができる。
画像復号化装置は、前記決定されたインター予測モードに基づいて前記現在ブロックの動き情報を導出することができる(S620)。例えば、画像復号化装置は、前記現在ブロックにスキップモード又はマージモードが適用される場合、後述するマージ候補リストを構成し、前記マージ候補リストに含まれているマージ候補のうちのいずれか一つを選択することができる。前記選択は、前述した候補選択情報(merge index)に基づいて行われることができる。前記選択されたマージ候補の動き情報を用いて前記現在ブロックの動き情報を導出することができる。例えば、前記選択されたマージ候補の動き情報が前記現在ブロックの動き情報として用いられることができる。
他の例として、画像復号化装置は、前記現在ブロックにMVPモードが適用される場合、MVP候補リストを構成し、前記MVP候補リストに含まれているMVP候補の中から選択されたMVP候補の動きベクトルを前記現在ブロックのMVPとして用いることができる。前記選択は、前述した候補選択情報(mvp flag又はmvp index)に基づいて行われることができる。この場合、前記MVDに関する情報に基づいて前記現在ブロックのMVDを導出することができ、前記現在ブロックのMVPと前記MVDに基づいて前記現在ブロックの動きベクトルを導出することができる。また、前記参照ピクチャインデックス情報に基づいて前記現在ブロックの参照ピクチャインデックスを導出することができる。前記現在ブロックに関する参照ピクチャリスト内で前記参照ピクチャインデックスが指すピクチャが、前記現在ブロックのインター予測のために参照される参照ピクチャとして導出されることができる。
画像復号化装置は、前記現在ブロックの動き情報に基づいて前記現在ブロックに対する予測サンプルを生成することができる(S630)。この場合、前記現在ブロックの参照ピクチャインデックスに基づいて前記参照ピクチャを導出し、前記現在ブロックの動きベクトルが前記参照ピクチャ上で指す参照ブロックのサンプルを用いて前記現在ブロックの予測サンプルを導出することができる。場合に応じて、前記現在ブロックの予測サンプルのうちの全部又は一部に対する予測サンプルフィルタリング手順がさらに行われることができる。
例えば、図7に示されているように、画像復号化装置のインター予測部260は、予測モード決定部261、動き情報導出部262、予測サンプル導出部263を含むことができる。画像復号化装置のインター予測部260は、予測モード決定部261で受信された予測モード情報に基づいて前記現在ブロックに対する予測モードを決定し、動き情報導出部262で受信された動き情報に関する情報に基づいて前記現在ブロックの動き情報(動きベクトル及び/又は参照ピクチャインデックスなど)を導出し、予測サンプル導出部263で前記現在ブロックの予測サンプルを導出することができる。
画像復号化装置は、受信されたレジデュアル情報に基づいて、前記現在ブロックに対するレジデュアルサンプルを生成することができる(S640)。画像復号化装置は、前記予測サンプル及び前記レジデュアルサンプルに基づいて前記現在ブロックに対する復元サンプルを生成し、これに基づいて復元ピクチャを生成することができる(S650)。以後、前記復元ピクチャにインループフィルタリング手順などがさらに適用できるのは前述したとおりである。
前述したように、インター予測手順は、インター予測モード決定ステップ、決定された予測モードによる動き情報導出ステップ、及び導出された動き情報に基づく予測実行(予測サンプル生成)ステップを含むことができる。前記インター予測手順は、前述したように、画像符号化装置及び画像復号化装置で行われることができる。
以下、予測モードによる動き情報導出ステップについてより詳細に説明する。
前述したように、インター予測は、現在ブロックの動き情報を用いて行われることができる。画像符号化装置は、動き推定(motion estimation)手順を介して、現在ブロックに対する最適の動き情報を導出することができる。例えば、画像符号化装置は、現在ブロックに対する原本ピクチャ内の原本ブロックを用いて相関性の高い類似な参照ブロックを参照ピクチャ内の定められた探索範囲内で分数ピクセル単位にて探索することができ、これにより動き情報を導出することができる。ブロックの類似性は、現在ブロックと参照ブロック間のSAD(sum of absolute differences)に基づいて計算できる。この場合、探索領域内のSADが最も小さい参照ブロックに基づいて動き情報を導出することができる。導出された動き情報は、インター予測モードに基づいて様々な方法によって画像復号化装置にシグナリングされることができる。
現在ブロックに対してマージモード(merge mode)が適用される場合、現在ブロックの動き情報が直接伝送されず、周辺ブロックの動き情報を用いて前記現在ブロックの動き情報を誘導する。よって、マージモードを用いたことを知らせるフラグ情報及びどの周辺ブロックをマージ候補として用いたかを知らせる候補選択情報(例えば、マージインデックス)を伝送することにより、現在予測ブロックの動き情報を指示することができる。本開示において、現在ブロックは予測実行の単位であるので、現在ブロックは現在予測ブロックと同じ意味で使用され、周辺ブロックは周辺予測ブロックと同じ意味で使用されることができる。
画像符号化装置は、マージモードを行うために現在ブロックの動き情報を誘導するのに用いられるマージ候補ブロック(merge candidate block)を探索することができる。例えば、前記マージ候補ブロックは、最大5個まで使用できるが、これに限定されない。前記マージ候補ブロックの最大個数は、スライスヘッダー又はタイルグループヘッダーから伝送されることができるが、これに限定されない。前記マージ候補ブロックを見つけた後、画像符号化装置は、マージ候補リストを生成することができ、これらのうち、RDコストが最も小さいマージ候補ブロックを最終マージ候補ブロックとして選択することができる。
前記マージ候補リストは、例えば5つのマージ候補ブロックを用いることができる。例えば、4つの空間マージ候補(spatial merge candidate)と1つの時間マージ候補(temporal merge candidate)を用いることができる。
アフィン(Affine)モードの概要
以下、インター予測モードの一例であるアフィンモードについて詳細に説明する。従来のビデオ符号化/復号化システムでは、現在ブロックの動き情報を表現するために一つの動きベクトルのみを使用する(translation motion model)。ところが、従来の方法は、ブロック単位の最適の動き情報を表現するだけであり、画素単位の最適の動き情報を表現することができない。かかる問題点を解決するために、画素単位でブロックの動き情報を定義するアフィンモード(affine motion model)が提案された。アフィンモードによれば、現在ブロックに関連付けられた2個乃至4個の動きベクトル用いてブロックの画素/又はサブブロック単位別動きベクトルが決定できる。
従来の動き情報が画素値の平行移動(又は変位)を用いて表現されたのに比べて、アフィンモードでは、平行移動(translate)、スケーリング(Sclae)、回転(Rotate)、傾き(shear)のうちの少なくとも一つを用いて、画素別動き情報が表現できる。
図8はアフィンモードで表現可能な動きを例示的に示す図である。
図8に示された動きの中で、画素別動き情報が変位、スケーリング、回転を用いて表現されるアフィンモードを類似(similarity)或いは簡略化(simplified)アフィンモードと定義することができる。以下の説明におけるアフィンモードは、類似又は簡略化アフィンモードを意味することができる。
動きアフィンモードでの動き情報は、2つ以上のCPMV(Control Point Motion Vector)を用いて表現できる。現在ブロックの特定の画素位置の動きベクトルはCPMVを用いて誘導できる。このとき、現在ブロックの画素別及び/又はサブブロック別動きベクトルの集合をアフィン動きベクトルフィールド(Affine Motion Vector Field:Affine MVF)と定義することができる。
図9はアフィンモードのパラメータモデルを説明するための図である。
現在ブロックに対してアフィンモードが適用される場合、4-パラメータモデル及び6-パラメータモデルのうちのいずれか一つを用いてアフィンMVFが誘導されることができる。このとき、4-パラメータモデルは、2つのCPMVが使用されるモデルタイプを意味し、6-パラメータモデルは、3つのCPMVが使用されるモデルタイプを意味することができる。図9(a)及び図9(b)は、それぞれ4-パラメータモデル及び6-パラメータモデルに使用されるCPMVを図示化した図である。
現在ブロックの位置を(x,y)と定義する場合、画素位置による動きベクトルは、下記の数式1又は2に従って誘導されることができる。例えば、4-パラメータモデルによる動きベクトルは数式1に従って誘導されることができ、6-パラメータモデルによる動きベクトルは数式2に従って誘導されることができる。
数式1及び数式2において、mv0={mv_0x,mv_0y}は、現在ブロックの左上側コーナー位置のCPMVであり、mv1={mv_1x,mv_1y}は、現在ブロックの右上側位置のCPMVであり、mv2={mv_2x、mv_2y}は、現在ブロックの左下側位置のCPMVであり得る。ここで、W及びHはそれぞれ現在ブロックの幅及び高さに該当し、mv={mv_x,mv_y}は画素位置{x,y}の動きベクトルを意味することができる。
符号化/復号化過程で、アフィンMVFは、画素単位及び/又は予め定義されたサブブロック単位で決定されることができる。アフィンMVFが画素単位で決定される場合、各画素値を基準に動きベクトルが誘導されることができる。一方、アフィンMVFがサブブロック単位で決定される場合、サブブロックの中央画素値を基準に当該ブロックの動きベクトルが誘導されることができる。中央画素値は、サブブロックのセンターに存在する仮想の画素を意味するか、或いは中央に存在する4つの画素のうちの右下側画素を意味することができる。また、中央画素値は、サブブロック内の特定の画素であって当該サブブロックを代表する画素であり得る。本開示において、アフィンMVFは、4×4サブブロック単位で決定される場合を説明する。ただし、これは説明の便宜のためであり、サブブロックのサイズは多様に変更できる。
つまり、Affine予測が利用可能である場合、現在ブロックに適用可能な動きモデルは、Translational motion model(平行移動モデル)、4-parameter affine motion model、6-parameter affine motion modelの3つを含むことができる。ここで、Translational motion modelは、従来のブロック単位動きベクトルが使用されるモデルを示すことができ、4-parameter affine motion modelは、2つのCPMVが使用されるモデルを示すことができ、6-parameter affine motion modelは、3つのCPMVが使用されるモデルを示すことができる。アフィンモードは、動き情報を符号化/復号化する方法によって詳細モードに区分できる。一例として、アフィンモードはアフィンMVPモードとアフィンマージモードに細分化できる。
現在ブロックに対してアフィンマージモードが適用される場合、CPMVは、アフィンモードで符号化/復号化された現在ブロックの周辺ブロックから誘導できる。現在ブロックの周辺ブロックのうちの少なくとも一つがアフィンモードで符号化/復号化された場合、現在ブロックに対してアフィンマージモードが適用できる。すなわち、現在ブロックに対してアフィンマージモードが適用される場合、周辺ブロックのCPMVを用いて現在ブロックのCPMVが誘導できる。例えば、周辺ブロックのCPMVが現在ブロックのCPMVとして決定されるか、或いは周辺ブロックのCPMVに基づいて現在ブロックのCPMVが誘導されることができる。周辺ブロックのCPMVに基づいて現在ブロックのCPMVが誘導される場合、現在ブロック又は周辺ブロックの符号化パラメータのうちの少なくとも一つが使用できる。例えば、周辺ブロックのCPMVが前記周辺ブロックのサイズ及び現在ブロックのサイズなどに基づいて修正されて現在ブロックのCPMVとして使用され得る。
一方、サブブロック単位でMVが導出されるaffine mergeの場合には、サブブロックマージモードと呼ばれることができる。これは、第1値(例えば、「1」)を有するmerge_subblock_flagによって指示できる。この場合、後述するアフィンマージ候補リスト(affine merging candidate list)は、サブブロックマージ候補リスト(subblock merging candidate list)と呼ばれることもできる。この場合、前記サブブロックマージ候補リストには、後述するSbTMVPで導出された候補がさらに含まれることができる。この場合、前記sbTMVPで導出された候補は、前記サブブロックマージ候補リストの0番インデックスの候補として用いられることができる。言い換えれば、前記sbTMVPで導出された候補は、前記サブブロックマージ候補リスト内で後述の継承アフィンマージ候補(inherited affine candidates)、組み合わせアフィンマージ候補(constructed affine candidates)よりも前方に位置することができる。
一例として、現在ブロックに対してアフィンモードが適用できるか否かを指示するアフィンモードフラグが定義できる。これはシーケンス、ピクチャ、スライス、タイル、タイルグループ、ブリックなど、現在ブロックの上位レベルのうちの少なくとも一つのレベルでシグナリングできる。例えば、アフィンモードフラグはsps_affine_enabled_flagと命名できる。
アフィンマージモードが適用される場合、現在ブロックのCPMV誘導のために、アフィンマージ候補リストが構成できる。このとき、アフィンマージ候補リストは、継承アフィンマージ候補、組み合わせアフィンマージ候補、及びゼロマージ候補のうちの少なくとも一つを含むことができる。継承アフィンマージ候補は、現在ブロックの周辺ブロックがアフィンモードで符号化/復号化された場合、当該周辺ブロックのCPMVを用いて誘導される候補を意味することができる。組み合わせアフィンマージ候補は、それぞれのCP(Control Point)の周辺ブロックの動きベクトルに基づいてそれぞれのCPMVが誘導された候補を意味することができる。一方、ゼロマージ候補は、サイズ0のCPMVからなる候補を意味することができる。以下の説明において、CPとは、CPMVを誘導するのに用いられるブロックの特定の位置を意味することができる。例えば、CPはブロックの各頂点位置であり得る。
図10はアフィンマージ候補リストを生成する方法を説明するための図である。
図10のフローチャートを参照すると、継承アフィンマージ候補(S1210)、組み合わせアフィンマージ候補(S1220)、ゼロマージ候補(S1230)の順にアフィンマージ候補リストにアフィンマージ候補が追加できる。ゼロマージ候補は、アフィンマージ候補リストに継承アフィンマージ候補及び組み合わせアフィンマージ候補が全て追加されたにも拘らず、候補リストに含まれる候補の数が最大候補数を満たさない場合に追加できる。このとき、ゼロマージ候補は、アフィンマージ候補リストの候補の数が最大候補数を満たすまで追加できる。
図11は周辺ブロックから誘導されるCPMVを説明するための図である。
一例として、最大2つの継承アフィンマージ候補が誘導でき、それぞれの候補は、左側周辺ブロック及び上側周辺ブロックのうちの少なくとも一つに基づいて誘導できる。
図12は継承アフィンマージ候補を誘導するための周辺ブロックを説明するための図である。
左側周辺ブロックに基づいて誘導された継承アフィンマージ候補は、図12の周辺ブロックA0及びA1のうちの少なくとも一つに基づいて誘導され、上側周辺ブロックに基づいて誘導された継承アフィンマージ候補は、図12の周辺ブロックB0、B1及びB2のうちの少なくとも一つに基づいて誘導され得る。このとき、各周辺ブロックのスキャン順序は、A0からA1の順、及びB0からB1、B2の順であり得るが、これに限定されない。左側及び上側のそれぞれに対して、前記スキャン順序上利用可能な1番目の周辺ブロックに基づいて継承アフィンマージ候補が誘導できる。この場合、左側周辺ブロックと上側周辺ブロックから誘導された候補の間では冗長性検査が行われないことがある。
一例として、図11に示すように、左側周辺ブロックAがアフィンモードで符号化/復号化された場合、周辺ブロックAのCPに対応する動きベクトルv2、v3及びv4のうちの少なくとも一つが誘導されることができる。周辺ブロックAが4-パラメータアフィンモデルを介して符号化/復号化される場合、継承アフィンマージ候補は、v2及びv3を用いて誘導できる。一方、周辺ブロックAが6-パラメータアフィンモデルを介して符号化/復号化された場合、継承アフィンマージ候補はv2、v3及びv4を用いて誘導できる。
図13は組み合わせアフィンマージ候補を誘導するための周辺ブロックを説明するための図である。
組み合わせアフィン候補は、周辺ブロックの一般的な動き情報の組み合わせを用いてCPMVが誘導される候補を意味することができる。各CP別の動き情報は、現在ブロックの空間周辺ブロック又は時間周辺ブロックを用いて誘導できる。以下の説明において、CPMVkは、k番目のCPを代表する動きベクトルを意味することができる。一例として、図13を参照すると、CPMV1は、B2、B3及びA2の動きベクトルのうちの利用可能な一番目の動きベクトルとして決定でき、このときのスキャン順序は、B2、B3、A2の順であり得る。CPMV2は、B1及びB0の動きベクトルのうちの利用可能な一番目の動きベクトルとして決定でき、このときのスキャン順序はB1、B0の順であり得る。CPMV3は、A1及びA0の動きベクトルのうちの利用可能な一番目の動きベクトルとして決定でき、このときのスキャン順序は、A1、A0の順であり得る。現在ブロックに対してTMVP適用が可能である場合、CPMV4は、時間周辺ブロックであるTの動きベクトルとして決定できる。
各CPに対する4つの動きベクトルが誘導された後、これに基づいて組み合わせアフィンマージ候補が誘導できる。組み合わせアフィンマージ候補は、誘導された各CPに対する4つの動きベクトルの中から選択された少なくとも2つの動きベクトルを含んで構成できる。一例として、組み合わせアフィンマージ候補は、{CPMV1,CPMV2,CPMV3}、{CPMV1,CPMV2,CPMV4}、{CPMV1,CPMV3,CPMV4}、{CPMV2,CPMV3,CPMV4}、{CPMV1,CPMV2}及び{CPMV1,CPMV3}の順序に従って少なくとも一つで構成できる。3つの動きベクトルからなる組み合わせアフィン候補は、6-パラメータアフィンモデルのための候補であり得る。これに対し、2つの動きベクトルからなる組み合わせアフィン候補は、4-パラメータアフィンモデルのための候補であり得る。動きベクトルのスケーリング過程を回避するために、CPの参照ピクチャインデックスが異なる場合、関連するCPMVの組み合わせは、組み合わせアフィン候補の誘導に利用されずに無視できる。
現在ブロックに対してアフィンMVPモードが適用される場合、画像符号化装置は、現在ブロックに対する2つ以上のCPMV予測子とCPMVを誘導して、これに基づいてCPMV差分(differences)を誘導することができる。このとき、CPMV差分が符号化装置から復号化装置にシグナリングされることができる。画像復号化装置は、現在ブロックに対するCPMV予測子を誘導し、シグナリングされたCPMV差分を復元した後、CPMV予測子とCPMV差分に基づいて現在ブロックのCPMVを誘導することができる。
一方、現在ブロックに対してアフィンマージモード又はサブブロックベースのTMVPが適用されない場合(例えば、affine merge flag又はmerge_subblock_flagの値が0である場合)、現在ブロックに対してアフィンMVPモードが適用できる。又は、例えば、inter_affine_flagの値が1である場合、現在ブロックに対してアフィンMVPモードが適用できる。一方、アフィンMVPモードはアフィンCP MVPモードと表現されることもできる。後述するアフィンMVP候補リスト(affine mvp candidate list)は、control point motion vectors predictor candidate listと呼ばれることができる。
現在ブロックに対してアフィンMVPモードが適用される場合、現在ブロックに対するCPMVの誘導のために、アファインMVP候補リストが構成できる。ここで、アフィンMVP候補リストは、継承アフィンMVP候補、組み合わせアフィンMVP候補、平行移動アフィンMVP候補、及びゼロMVP候補のうちの少なくとも一つを含むことができる。例えば、アフィンMVP候補リストは、最大n個(例えば、n=2)の候補を含むことができる。
このとき、継承アフィンMVP候補とは、現在ブロックの周辺ブロックがアフィンモードで符号化/復号化される場合、周辺ブロックのCPMVに基づいて誘導される候補を意味することができる。組み合わせアフィンMVP候補は、CP周辺ブロックの動きベクトルに基づいてCPMV組み合わせを生成して誘導される候補を意味することができる。ゼロMVP候補は、値0のCPMVからなる候補を意味することができる。継承アフィンMVP候補、組み合わせアフィンMVP候補の誘導方法及び特徴は、上述した継承アフィン候補及び組み合わせアフィン候補と同様であるので、説明を省略する。
アフィンMVP候補リストの最大候補数が2である場合、組み合わせアフィンMVP候補、平行移動アフィンMVP候補、及びゼロMVP候補は、現在候補数が2未満である場合に追加できる。特に、平行移動アフィンMVP候補は、次の順序に従って誘導できる。
一例として、アフィンMVP候補リストに含まれている候補の数が2未満であり、組み合わせアフィンMVP候補のCPMV0が有効である場合、CPMV0がアフィンMVP候補として使用できる。すなわち、CP0、CP1、CP2の動きベクトルが全てCPMV0であるアフィンMVP候補がアファインMVP候補リストに追加できる。
次に、アフィンMVPの候補リストの候補の数が2未満であり、組み合わせアフィンMVP候補のCPMV1が有効である場合、CPMV1がアフィンMVP候補として使用できる。すなわち、CP0、CP1、CP2の動きベクトルが全てCPMV1であるアフィンMVP候補がアフィンMVP候補リストに追加できる。
次に、アフィンMVP候補リストの候補の数が2未満であり、組み合わせアフィンMVP候補のCPMV2が有効である場合、CPMV2がアフィンMVP候補として使用できる。すなわち、CP0、CP1、CP2の動きベクトルが全てCPMV2であるアフィンMVP候補がアフィンMVP候補リストに追加できる。
上述した条件にも拘らず、アフィンMVP候補リストの候補の数が2未満である場合、現在ブロックのTMVP(temporal motion vector predictor)がアフィンMVP候補リストに追加できる。上記にも拘らず、アフィンMVP候補リストの候補の数が2未満である場合、ゼロMVP候補がアフィンMVP候補リストに追加できる。
図14はアフィンMVP候補リストを生成する方法を説明するための図である。
図14のフローチャートを参照すると、継承アフィンMVP候補(S1610)、組み合わせアフィンMVP候補(S1620)、平行移動アフィンMVP候補(S1630)、ゼロMVP候補(S1640)の順にアフィンMVP候補リストに候補が追加できる。上述したように、ステップS1620~ステップS1640は、各ステップでアフィンMVP候補リストに含まれた候補の数が2未満であるか否かに応じて行われることができる。
継承アフィンMVP候補のスキャン順序は、継承アフィンマージ候補のスキャン順序と同じであり得る。ただし、継承アフィンMVP候補の場合、現在ブロックの参照ピクチャと同じ参照ピクチャを参照する周辺ブロックのみが考慮できる。継承アフィンMVP候補をアフィンMVP候補リストに追加するとき、冗長性チェックは行われないことができる。
組み合わせアフィンMVP候補を誘導するために、図13に示された空間周辺ブロックのみが考慮できる。また、組み合わせアフィンMVP候補のスキャン順序は、組み合わせアフィンマージ候補のスキャン順序と同じであり得る。さらに、組み合わせアフィンMVP候補を誘導するために、周辺ブロックの参照ピクチャインデックスがチェックされ、前記スキャン順序上、インターコードされ且つ現在ブロックの参照ピクチャと同じ参照ピクチャを参照する一番目の周辺ブロックが利用できる。
サブブロックベースのTMVP(Subblock-based Temporal Motion Vector Prediction、SbTMVP)モードの概要
以下、インター予測モードの一例であるサブブロックベースのTMVPモードについて詳細に説明する。サブブロックベースのTMVPモードによれば、現在ブロックに対する動きベクトルフィールド(Motion Vector Field:MVF)が誘導されるので、サブブロック単位で動きベクトルが誘導されることができる。
従来のTMVPモードがコーディングユニット単位で行われるのとは異なり、サブブロックベースのTMVPモードが適用されるコーディングユニットは、サブコーディングユニット単位で動きベクトルに対する符号化/復号化が行われることができる。また、従来のTMVPモードによれば、コロケートピクチャ内のコロケートブロック(collocated block)から時間動きベクトルが誘導される。これに対し、サブブロックベースのTMVPモードは、現在ブロックの周辺ブロックから誘導された動きベクトルが指示するコロケートピクチャ内の参照ブロックから動きベクトルフィールドが誘導されることができる。以下、周辺ブロックから誘導された動きベクトルを現在ブロックの動きシフト(motion shift)或いは代表動きベクトルと呼ぶことができる。
図15はサブブロックベースのTMVPモードの周辺ブロックを説明するための図である。
現在ブロックに対してサブブロックベースのTMVPモードが適用される場合、動きシフトを決定するための周辺ブロックが決定できる。一例として、動きシフトを決定するための周辺ブロックに対するスキャンは、図15のA1、B1、B0、A0ブロックの順に行われることができる。他の例として、動きシフトを決定するための周辺ブロックは、現在ブロックの特定の周辺ブロックに制限できる。例えば、動きシフトを決定するための周辺ブロックは、常にA1ブロックと決定できる。周辺ブロックがcolピクチャを参照する動きベクトルを有する場合、当該動きベクトルが動きシフトとして決定できる。動きシフトとして決定された動きベクトルは、時間動きベクトルと呼ばれることもできる。一方、周辺ブロックから上述の動きベクトルが誘導できない場合、動きシフトは(0,0)に設定できる。
図16はサブブロックベースのTMVPモードに従って動きベクトルフィールドを誘導する方法を説明するための図である。
次に、動きシフトが指示するコロケートピクチャ上の参照ブロックが決定できる。例えば、現在ブロックの座標に動きシフトを加算することにより、colピクチャからサブブロックベースの動き情報(動きベクトル、参照ピクチャインデックス)を取得することができる。図16に示されている例において、動きシフトは、A1ブロックの動きベクトルであると仮定する。現在ブロックに動きシフトを適用することにより、現在ブロックを構成する各サブブロックに対応するcolピクチャ内のサブブロック(colサブブロック)を特定することができる。その後、colピクチャの対応サブブロック(colサブブロック)の動き情報を用いて、現在ブロックの各サブブロックの動き情報が誘導できる。例えば、対応サブブロックの中央位置から対応サブブロックの動き情報が取得できる。このとき、中央位置は、対応サブブロックの中央に位置する4つのサンプルのうち、右下側サンプルの位置であり得る。もし、現在ブロックに対応するcolブロックの特定のサブブロックの動き情報が利用可能でない場合、colブロックの中心サブブロックの動き情報が当該サブブロックの動き情報として決定されることができる。対応サブブロックの動き情報が誘導されると、上述したTMVP過程と同様に、現在サブブロックの動きベクトルと参照ピクチャインデックスに切り替えられることができる。すなわち、サブブロックベースの動きベクトルが誘導される場合、参照ブロックの参照ピクチャのPOCを考慮して動きベクトルのスケーリングが行われることができる。
上述したように、サブブロックに基づいて誘導された現在ブロックの動きベクトルフィールド又は動き情報を用いて現在ブロックに対するサブブロックベースのTMVP候補が誘導できる。
以下、サブブロック単位で構成されるマージ候補リストをサブブロック単位マージ候補リストと定義する。上述したアフィンマージ候補及びサブブロックベースのTMVP候補が併合されてサブブロック単位マージ候補リストが構成できる。
一方、現在ブロックに対してサブブロックベースのTMVPモードが適用できるか否かを指示するサブブロックベースのTMVPモードフラグが定義できる。これは、シーケンス、ピクチャ、スライス、タイル、タイルグループ、ブリックなど、現在ブロックの上位レベルのうちの少なくとも一つのレベルでシグナリングできる。例えば、サブブロックベースのTMVPモードフラグは、sps_sbtmvp_enabled_flagと命名できる。現在ブロックに対してサブブロックベースのTMVPモードが適用可能である場合、サブブロック単位マージ候補リストにサブブロックベースのTMVP候補が先に追加できる。以後、アフィンマージ候補がサブブロック単位マージ候補リストに追加できる。一方、サブブロック単位マージ候補リストに含まれ得る最大候補の数がシグナリングされることができる。一例として、サブブロック単位マージ候補リストに含まれ得る最大候補の数は5であり得る。
サブブロック単位マージ候補リストの誘導に使用されるサブブロックのサイズは、シグナリングされるか、或いはM×Nに既に設定されることができる。例えば、M×Nは8×8であり得る。よって、現在ブロックのサイズが8×8以上である場合にのみ、現在ブロックに対してアフィンモード又はサブブロックベースのTMVPモードが適用できる。
以下、本開示の予測実行方法の一実施例について説明する。以下の予測実行方法は、図4のステップS410又は図6のステップS630で行われることができる。
予測モードに従って導出された動き情報に基づいて、現在ブロックに対する予測されたブロックを生成することができる。前記予測されたブロック(予測ブロック)は前記現在ブロックの予測サンプル(予測サンプルアレイ)を含むことができる。現在ブロックの動きベクトルが分数サンプル(fractional sample)単位を指す場合、補間(interpolation)手順が行われることができ、これにより参照ピクチャ内で分数サンプル単位の参照サンプルに基づいて前記現在ブロックの予測サンプルが導出されることができる。現在ブロックにアフィンインター予測が適用される場合、サンプル/サブブロック単位MVに基づいて予測サンプルを生成することができる。双予測(bi-prediction)が適用される場合、L0予測(すなわち、参照ピクチャリストL0内の参照ピクチャとMVL0を用いた予測)に基づいて導出された予測サンプルと、L1予測(すなわち、参照ピクチャリストL1内の参照ピクチャとMVL1を用いた予測)に基づいて導出された予測サンプルの(位相による)加重和又は加重平均によって導出された予測サンプルが現在ブロックの予測サンプルとして用いられることができる。双予測が適用される場合、L0予測に用いられた参照ピクチャとL1予測に用いられた参照ピクチャが現在ピクチャを基準に互いに異なる時間方向に位置する場合(すなわち、双予測でありながら双方向予測に該当する場合)、これをtrue(真)双予測と呼ぶことができる。
画像復号化装置において、導出された予測サンプルに基づいて復元サンプル及び復元ピクチャが生成でき、その後、インループフィルタリングなどの手順が行われることができる。また、画像符号化装置において、導出された予測サンプルに基づいてレジデュアルサンプルが導出され、予測情報及びレジデュアル情報を含む画像情報の符号化が行われることができる。
CUレベルの重みを用いた双方向予測(Bi-prediction with CU-level weight、BCW)
上述したように現在ブロックに双予測が適用される場合、加重平均(weightedaverage)に基づいて予測サンプルを導出することができる。従来は、双予測信号(すなわち、双予測サンプル)はL0予測信号(L0予測サンプル)とL1予測信号(L1予測サンプル)の単純平均を介して導出されることができた。すなわち、双予測サンプルは、L0参照ピクチャ及びMVL0に基づくL0予測サンプルと、L1参照ピクチャ及びMVL1に基づくL1予測サンプルとの平均によって導出された。しかし、本開示によれば、双予測が適用される場合、次のようにL0予測信号とL1予測信号の加重平均を介して双予測信号(双予測サンプル)を導出することができる。
前記数式3において、Pbi-predは、加重平均によって導出された双予測信号(双予測ブロック)を示し、P0とP1は、それぞれL0予測サンプル(L0予測ブロック)とL1予測サンプル(L1予測ブロック)を示す。また、(8-w)とwは、それぞれP0とP1に適用される重みを示す。
加重平均による双予測信号の生成において、5つの重みが許容できる。例えば、重みwは{-2,3,4,5,10}から選択できる。双予測されたCUのそれぞれに対して、重みwは、2つの方法のうちの一つで決定できる。これらの2つの方法のうちの第1方法として、現在CUがマージモードでない場合(non-merge CU)、動きベクトル差分と共に重みインデックス(weight index)がシグナリングされることができる。例えば、ビットストリームは、動きベクトル差分に関する情報の後に重みインデックスに関する情報を含むことができる。これらの2つの方法のうちの第2方法として、現在CUがマージモードである場合(merge CU)、重みインデックスはマージ候補インデックス(マージインデックス)に基づいて周辺ブロックから誘導できる。
加重平均による双予測信号の生成は、256個以上のサンプル(ルマ成分サンプル)を含むサイズのCUに対してのみ適用されるように制限できる。すなわち、現在ブロックの幅(width)と高さ(height)の積が256以上であるCUに対してのみ加重平均による双予測が行われることができる。また、重みwは、上述したように5つの重みのうちの一つが使用されてもよく、異なる個数の重みのうちの一つが使用されてもよい。例えば、現在画像の特性に応じて、low-delay pictureに対しては5つの重みが使用され、non-low-delay pictureに対しては3つの重みが使用されることができる。このとき、3つの重みは{3,4,5}であり得る。
画像符号化装置は、fast search algorithmを適用して複雑度を大幅に増加させることなく重みインデックスを決定することができる。この場合、前記fast search algorithmは、次のように要約できる。以下において、不均等重み(unequal weight)とは、P0とP1に適用される重みが均等でないことを意味することができる。また、均等重み(equal weight)とは、P0とP1に適用される重みが均等であることを意味することができる。
-動きベクトルの解像度が適応的に変更されるAMVRモードが一緒に適用される場合、現在ピクチャがlow-delay pictureであれば、1-pel動きベクトル解像度と4-pel動きベクトル解像度のそれぞれに対して不均等重みのみが条件的にチェックできる。
-アフィンモードが一緒に適用され、アフィンモードが現在ブロックの最適のモードとして選択された場合、画像符号化装置は、不均等重みのそれぞれに対してaffine ME(motion estimation)を行うことができる。
-双予測に使用される2つの参照ピクチャが同一である場合、不均等重みのみが条件的にチェックできる。
-不均等重みは、所定の条件が満たされた場合、チェックされないことができる。前記所定の条件は、現在ピクチャと参照ピクチャとのPOC距離(POC distance)、量子化パラメータ(QP)、時間レベル(temporal level)などに基づく条件であり得る。
BCWの重みインデックスは、一つのコンテキスト符号化ビン(bin)と後続する一つ以上のバイパス符号化ビン(bypass coded bins)を用いて符号化できる。一番目のコンテキスト符号化ビンは、均等重み(equal weight)が使用されるか否かを指示する。不均等重みが使用される場合、追加ビンがバイパス符号化されてシグナリングされることができる。追加ビンは、どの重みが使用されるかを指示するためにシグナリングされることができる。
加重予測(weighted prediction、WP)は、フェージング(fading)を含む画像を効率よく符号化するためのツールである。加重予測によれば、参照ピクチャリストL0とL1のそれぞれに含まれた各参照ピクチャに対して重み付けパラメータ(重み及びオフセット)がシグナリングされることができる。次に、動き補償が行われるとき、重み(ら)及びオフセット(ら)が、対応する参照画像(ら)に適用され得る。荷重予測とBCWは、互いに異なるタイプの画像に対して使用できる。加重予測とBCWとの間の相互作用を避けるために、加重予測を使用するCUに対しては、BCW重みインデックスはシグナリングされないことができる。この場合、重みは4と推論できる。すなわち、均等重みが適用できる。
マージモードが適用されたCUの場合、重みインデックスは、マージ候補インデックスに基づいて周辺ブロックから推論できる。これは、通常のマージモードと継承アフィンマージモードの両方に対して適用できる。
組み合わせアフィンマージモードの場合、最大3つのブロックの動き情報に基づいてアフィン動き情報が構成できる。組み合わせアフィンマージモードを使用するCUに対するBCW重みインデックスは、組み合わせ内の一番目のCPのBCW重みインデックスとして設定されることができる。CIIPとBCWは、CUに一緒に適用されないことができる。すなわち、CIIPモードで符号化されたCUに対しては、BCWが適用されないことができる。例えば、CIIPモードで符号化されたCUのBCW重みインデックスは、均等重みを指示する値に設定できる。
Bi-directional optical flow(BDOF)
本開示によれば、双予測(bi-prediction)信号をリファイン(改善)するためにBDOFが使用できる。BDOFは、現在ブロック(ex.CU)に双予測が適用される場合、改善された動き情報を計算して予測サンプルを生成するためのものである。よって、BDOFを適用して改善された動き情報を計算する過程は、上述した動き情報導出ステップに含まれてもよい。
例えば、BDOFは、4×4サブブロックレベルで適用できる。すなわち、BDOFは、現在ブロック内の4×4サブブロック単位で行われることができる。
BODFは、例えば、次の条件を少なくとも一つ又は全て満たすCUに対して適用できる。
-CUがtrue双予測モードで符号化された場合、すなわち、2つの参照ピクチャのうち、いずれか一つはディスプレイ順序が現在ピクチャに先行し、もう一つはディスプレイ順序が現在ピクチャに後行する場合
-CUがアフィンモード又はATMVPマージモードでない場合
-CUが64個よりも多いルマサンプルを有する場合
-CUの高さ(height)及び幅(width)が8ルマサンプル以上である場合
-BCW重みインデックスが均等重みを指示する場合、すなわちL0予測サンプルとL1予測サンプルに同一の重みが適用されることを指示する場合
-現在CUに対して加重予測(WP、Weighted Prediction)が適用されない場合
-現在CUに対してCIIPモードが使用されない場合
また、BDOFはルマ成分に対してのみ適用できる。しかし、これに限定されず、BDOFは、クロマ成分に対してのみ適用されてもよく、ルマ成分及びクロマ成分の両方に対して適用されてもよい。
BDOFモードはオプティカルフロー(optical flow)の概念に基づく。すなわち、オブジェクトの動きがスムーズ(smooth)であると仮定する。BDOFが適用される場合、それぞれの4×4サブブロックに対して、改善された動きベクトル(motion refinement)(vx,vy)が計算できる。改善された動きベクトル(motion refinement)は、L0予測サンプルとL1予測サンプルとの差を最小化することにより計算できる。改善された動きベクトル(motion refinement)は、4×4サブブロック内の双予測されたサンプル値を調整(adjust)するのに利用できる。
以下、BDOFが行われる過程をより具体的に説明する。
上記数式4中、I(k)(i,j)は、リストk(k=0,1)内の予測信号の座標(i,j)のサンプル値を意味する。例えば、I(0)(i,j)はL0予測ブロック内の(i,j)位置のサンプル値を意味し、I(1)(i,j)はL1予測ブロック内の(i,j)位置のサンプル値を意味することができる。前記数式4中、第1シフト量(shift1)は、ルマ成分のビットデプス(ビット深度)に基づいて決定できる。例えば、ルマ成分のビットデプスをbitDepthとするとき、shift1はmax(6,bitDepth-6)と決定されることができる。
上述したようにグラジエントが計算された後、グラジエント間の自己相関(auto-correlation)及び交差相関(cross-correlation)S1、S2、S3、S5及びS6が次のように計算できる。
前記数式5中、na及びnbはそれぞれmin(1,bitDepth-11)及びmin(4,bitDepth-8)に設定されることができる。
上述したグラジエント間の自己相関及び交差相関を利用して改善された動きベクトル(motion refinement)(vx,vy)が次のように誘導できる。
前記数式6中、nS2は12であり得る。前記誘導された、改善された動きベクトル(motion refinement)及びグラジエントに基づいて、4×4サブブロック内の各サンプルに対して次のような調整が行われることができる。
最終的に、CUの双予測サンプルを次のように調整することにより、BDOFが適用されたCUの予測サンプル(predBDOF)を計算することができる。
上記数式において、na、nb及びnS2はそれぞれ3、6及び12であり得る。これらの値は、BDOF過程における乗数(multiplier)が15ビットを超えず、中間パラメータ(intermediate parameters)のビット幅(bit-width)が32ビット以内に維持できるように選択され得る。
グラジエント値を誘導するために、現在CUの外部に存在するリストk(k=0、1)内の予測サンプルI(k)(i,j)が生成できる。図17はBDOFを行うために拡張されたCUを示す図である。
図17に示されているように、BDOFを行うために、CUの境界周辺に拡張された行/列が使用できる。境界外の予測サンプルを生成するための計算の複雑度を制御するために、拡張された領域(図17の白色領域)内の予測サンプルは、双線形フィルタ(bilinear filter)を用いて生成され、CU(図17の灰色領域)内の予測サンプルは、通常の8-tap動き補償補間フィルタ(normal 8-tap motion compensation interpolation filter)を用いて生成できる。前記拡張された位置のサンプル値は、グラジエント計算にのみ使用できる。BDOF過程の残りのステップを行うために、CU境界の外側に位置するサンプル値及び/又はグラジエント値が必要な場合、最も隣接している隣接サンプル値及び/又はグラジエント値をパディング(反復)して使用することができる。
CUの幅及び/又は高さが16ルマサンプルよりも大きい場合、当該CUは、幅及び又は高さが16ルマサンプルであるサブブロックに分割されることができる。各サブブロックの境界は、BDOF過程で上述したCU境界と同一に取り扱われることができる。BDOF過程が行われる最大ユニットサイズは16×16に制限できる。
それぞれのサブブロックに対して、BDOFを実行するか否かが決定されることができる。すなわち、それぞれのサブブロックに対するBDOF過程はスキップできる。例えば、初期(initial)LO予測サンプルと初期L1予測サンプルとの間のSAD値が所定の閾値よりも小さい場合、BDOF過程は、当該サブブロックに適用されないことができる。このとき、当該サブブロックの幅と高さがそれぞれW及びHであるとき、前記所定の閾値は(8*W*H>>1)に設定できる。付加的なSAD計算の複雑度を考慮して、DMVR過程で計算された初期L0予測サンプルと初期L1予測サンプルとの間のSADが再使用できる。
現在ブロックに対してBCWが利用可能である場合、例えば、BCW重みインデックスが不均等重みを指示する場合、BDOFは適用されないことができる。同様に、現在ブロックに対してWPが利用可能である場合、例えば、2つの参照ピクチャのうちの少なくとも一つに対するluma_weight_lx_flagが1である場合、BDOFは適用されないことができる。このとき、luma_weight_lx_flagは、lx予測(xは0又は1)のルマ成分に対するWPの重み係数(weighting factors)がビットストリームに存在するか否かを指示する情報であり得る。或いは、lx予測のルマ成分に対してWPが適用されるか否かを指示する情報であり得る。CUがSMVD(Symmetric MVD)モード又はCIIPモードで符号化された場合、BDOFは適用されないことができる。
Prediction refinement with optical flow(PROF)
以下、オプティカルフロー(optical flow)を適用してサブブロックベースのアフィン動き補償予測されたブロックを改善する方法について説明する。サブブロックベースのアフィン動き補償(sub-block based affine motion compensation)が行われて生成された予測サンプルは、オプティカルフロー方程式によって誘導された差異に基づいて改善できる。このような予測サンプルの改善は、本開示においてオプティカルフローを用いた予測改善(prediction refinement with optical flow(PROF))と呼ばれることができる。PROFは、メモリアクセスの帯域幅を増やすことなく、ピクセルレベル粒度(granularity)のインター予測を達成することができる。
アフィン動きモデルのパラメータは、CU内の各ピクセルの動きベクトルを誘導するのに利用できる。しかしながら、ピクセルベースのアフィン動き補償予測は、高い複雑度とメモリアクセスの帯域幅の増加を引き起こすので、サブブロックベースのアフィン動き補償予測が行われることができる。サブブロックベースのアフィン動き補償予測が行われる場合、CUは、4×4サブブロックに分割され、サブブロックごとに動きベクトルが決定され得る。このとき、各サブブロックの動きベクトルは、CUのCPMVから誘導できる。サブブロックベースのアフィン動き補償は、符号化効率と複雑度及びメモリアクセスの帯域幅との間にトレードオフ関係を有する。サブブロック単位で動きベクトルを誘導するので、複雑度及びメモリアクセスの帯域幅は減少するものの、予測精度は低くなる。
したがって、サブブロックベースのアフィン動き補償予測にオプティカルフローを適用して改善することにより、向上した粒度の動き補償を達成することができる。
上述したように、サブブロックベースのアフィン動き補償が行われた後、オプティカルフロー方程式によって誘導された差異を加えることにより、ルマ予測サンプルが改善できる。より具体的に、PROFは、次の4ステップで行われることができる。
ステップ1)サブブロックベースのアフィン動き補償が行われることで、予測されたサブブロックI(i,j)が生成される。
ステップ2)予測されたサブブロックの空間グラジエント(spatial gradients)gx(i,j)及びgy(i,j)が各サンプル位置で計算される。このとき、3タップフィルタが使用でき、フィルタ係数は[-1,0,1]であり得る。例えば、空間グラジエントは、次のように計算できる。
グラジエントを計算するために、予測されたサブブロックは、それぞれの側面で1ピクセルだけ拡張できる。この場合、メモリ帯域幅と複雑度を減らすために、拡張された境界のピクセルは、参照ピクチャ内の最も近い整数ピクセルからコピーできる。よって、パディング領域に対する付加的な補間は省略できる。
ステップ3)ルマ予測の改善量(luma prediction refinement)(ΔI(i,j))がオプティカルフロー方程式によって計算できる。例えば、次の数式が使用できる。
上記数式において、Δv(i,j)は、サンプル位置(i,j)で計算されたピクセル動きベクトル(pixel MV、v(i,j))とサンプル(i,j)の属するサブブロックのサブブロック動きベクトル(sub-block MV)との差を意味する。
図18はΔv(i,j)、v(i,j)とサブブロック動きベクトルとの関係を示す図である。
図18に示されている例において、例えば、現在サブブロックの左上側サンプル位置の動きベクトルv(i,j)と現在サブブロックの動きベクトルvSBとの差が太い破線矢印で表現でき、太い破線矢印が示すベクトルはΔv(i,j)に対応することができる。
アフィンモデルパラメータと、サブブロックの中心からのピクセル位置は変更されない。よって、Δv(i,j)は、一番目のサブブロックに対してのみ計算され、同じCU内の異なるサブブロックに対して再使用できる。ピクセル位置からサブブロックの中心までの水平オフセット及び垂直オフセットをそれぞれx及びyとするとき、Δv(x,y)は次のように誘導できる。
上記において、(v0x,v0y)、(v1x,v1y)及び(v2x,v2y)は、左上側CPMV、右上側CPMV及び左下側CPMVに該当し、w及びhは、CUの幅及び高さを意味する。
ステップ4)最後に、計算されたルマ予測の改善量ΔI(i,j)と予測されたサブブロックI(i,j)に基づいて最終予測ブロックI’(i,j)を生成することができる。例えば、最終予測ブロックI'は、次のように生成できる。
図19は本開示によるBDOFの適用有無決定過程を示す一例である。
現在CUにBDOFが適用されるか否かは、フラグbdofFlagで表すことができる。第1値(「True」又は「1」)のbdofFlagは、現在CUにBDOFが適用されることを示すことができる。第2値(「False」又は「0」)のbdofFlagは、現在CUにBDOFが適用されないことを示すことができる。bdofFlagは、例えば、図19に示されている様々な条件に基づいて導出されることができる。図19に示されているように、bdofFlagは、ブロックのサイズ(cbWidth、cbHeight)に関する条件を含む。より具体的には、bdofFlagは、ブロックの幅(cbWidth)とブロックの高さ(cbHeigth)がいずれも8(ルマサンプル)以上であり、cbHeight*cbWidthが128(ルマサンプル)以上であるとき、第1値に設定されることができる。このとき、cbHeight*cbWidthは、現在CUに含まれているルマサンプルの個数を示すことができる。図19に示されている例によれば、サイズ8×8のCUに対しては、bdofFlagが第2値に設定され、よって、BDOFが適用されない。
上述したように、インター予測過程でBDOFが適用されて動き補償過程で参照サンプルを改善することにより、画像の圧縮性能を高めることができる。BDOFは、現在ブロックの予測モードが一般モード(正規マージモード又は正規AMVPモード)であるときに行われることができる。すなわち、現在ブロックの予測モードがアフィンモード、GPMモード、CIIPモードなどである場合、BDOFは適用されない。
アフィンモードで符号化されたブロックに対しては、BDOFと類似の方法でPROFが行われることができる。上述したように、PROFを介して各4×4サブブロック内の参照サンプルを改善することにより、画像の圧縮性能を高めることができる。
本開示によるPROFは予測方向別に行われることができる。前記予測方向は、L0予測方向とL1予測方向を含むことができる。PROFがL0予測方向に対して行われる場合、上述したPROF過程は、L0予測サンプルに適用され、改善されたL0予測サンプルを生成することができる。PROFがL1予測方向に対して行われる場合、上述したPROF過程は、L1予測サンプルに適用され、改善されたL1予測サンプルを生成することができる。したがって、PROFの適用有無は、L0予測方向及びL1予測方向のそれぞれに対して誘導されることができる。例えば、PROFの適用有無を示すフラグcbProfFlagは、L0予測方向に関するcbProfFlagL0及びL1予測方向に関するcbProfFlagL1を含むことができる。現在ブロック(CU)にPROFが適用されるか否かは、cbProfFlagL0及び/又はcbProfFlagL1に基づいて、L0予測方向及びL1予測方向のそれぞれに対して決定されることができる。本開示において、cbProfFlagL0及び/又はcbProfFlagL1が第1値であるとき、現在CUの当該予測方向にPROFが行われることを意味することができる。より具体的には、cbProfFlagL0が第1値である現在CUのL0予測方向に対してPROFが行われることができる。また、cbProfFlagL1が第1値である現在CUのL1予測方向に対してPROFが行われることができる。本開示において、現在CUにPROFが適用されるとは、cbProfFlagLX(X=0及び/又は1)が第1値を有することを意味することができる。本開示の様々な実施例において、cbProfFlagLXを誘導するための様々な条件は、当該予測方向(LX)に関する条件であり得る。
図20は本開示によるPROFの適用有無決定過程を示す一例である。
現在CUにPROFが適用されるか否かは、フラグcbProfFlagLX(X=0又は1)で表すことができる。第1値(「True」又は「1」)のcbProfFlagは、現在CUにPROFが適用されることを示すことができる。第2値(「False」又は「0」)のcbProfFlagは、現在CUにPROFが適用されないことを示すことができる。cbProfFlagは、例えば、図20に示された様々な条件に基づいて導出されることができる。図20に示されているように、cbProfFlagはブロックのサイズ(cbWidth、cbHeight)に関する条件を含まない。
PROFは、アフィンモードで符号化されたブロック(アフィンブロック)に適用できるので、PROFが適用されるブロックのサイズは、アフィンブロックに対するブロックサイズ条件によって制約できる。したがって、後述するように、PROFとBDOFのそれぞれに対するブロックサイズ条件が異なる。
図21は本開示の一例によってサブブロックマージモードの適用有無を指示する情報のシグナリングを説明するための図である。
現在CUに対してサブブロックマージモード(アフィンマージモード)が適用されるか否かは、ビットストリームを介してシグナリングされる情報(例えば、図21のmerge_subblock_flag)に基づいて決定されることができる。第1値(「True」又は「1」)のmerge_subblock_flagは、現在CUに対してサブブロックマージモードが適用されることを指示することができる。この場合、サブブロックマージ候補リストに含まれている候補のうちの1つを指示するインデックス(例えば、図21のmerge_subblock_idx)がシグナリングされることができる。サブブロックマージ候補リストに候補が1つである場合(MaxNumSubblockMergeCandが1である場合)、候補を選択するための前記インデックス情報は、シグナリングされず、固定された値0に決定されることができる。図21に示されているように、merge_subblock_flagのシグナリング条件は、ブロックサイズに関する条件を含む。具体的には、現在ブロックの幅(cbWidth)と高さ(cbHeight)の両方が8以上である場合、merge_subblock_flagがシグナリングされることができる。すなわち、サブブロックマージモードは、8×8ブロック以上のサイズを有するブロックに対して適用できる。したがって、アフィンマージブロックに対するPROFは、8×8ブロック以上のサイズを有するブロックに対して適用できる。
図22は本開示の一例によってアフィンMVPモードの適用有無を指示する情報のシグナリングを説明するための図である。
現在CUに対してアフィンMVPモード(インターアフィンモード)が適用されるか否かは、ビットストリームを介してシグナリングされる情報(例えば、図22のinter_affine_flag)に基づいて決定されることができる。第1値(「True」又は「1」)のinter_affine_flagは、現在CUに対してアフィンMVPモードが適用されることを指示することができる。この場合、アフィンMVP候補リストに含まれている候補のうちの1つを指示するインデックスがシグナリングされることができる。図22に示されているように、inter_affine_flagのシグナリング条件は、ブロックサイズに関する条件を含む。具体的には、現在ブロックの幅(cbWidth)と高さ(cbHeight)の両方が16以上である場合、inter_affine_flagがシグナリングされることができる。すなわち、アフィンMVPモードは、16×16ブロック以上のサイズを有するブロックに対して適用できる。したがって、アフィンMVPブロックに対するPROFは、16×16ブロック以上のサイズを有するブロックに対して適用できる。
図20乃至図22を参照して説明したように、PROFは、ブロックサイズに関する条件を含まないので、PROFが適用できるブロックサイズは、アフィンマージモード及びアフィンMVPモードが適用できるブロックサイズに応じて制限される。例えば、アフィンマージモードは、8×8ブロック以上のサイズを有するブロックに対して適用でき、この場合、PROFは、8×8ブロックに対して適用できる。ところが、BDOFの適用条件は、cbHeight*cbWidthが128サンプル以上である条件を含むので、BDOFは8x8ブロックに対して適用されない。よって、PROFが適用されるブロックサイズは、BDOFが適用されるブロックサイズとは異なる。
本開示は、PROFとBDOFの適用条件を一致させるための様々な実施例を提供する。具体的には、本開示は、PROFとBDOFに対するブロックサイズに関する条件を一致させるための様々な実施例を提供する。また、本開示は、BCW又はWPを考慮してPROFとBDOFの適用条件を一致させるための様々な実施例を提供する。また、本開示は、PROFの適用条件として、現在ピクチャの解像度と参照ピクチャの解像度に関する条件を含む様々な実施例を提供する。
図23は本開示の他の実施例によるPROFの適用有無決定過程を示す図である。
図20の例と比較して、図23の実施例は、PROFの適用条件としてブロックサイズに関する条件をさらに含むことができる。より具体的には、図23の下線部分のように、cbHeight*cbWidthが128(ルマサンプル)より小さいとき、cbProfFlagは第2値(「False」又は「0」)に設定されることができる。
したがって、図23の実施例によれば、アフィンマージモードが適用された8×8ブロックに対してはPROFが適用されないように制限することができる。すなわち、図23の実施例のように、PROFの適用条件にブロックサイズに関する条件を追加することにより、PROFとBDOFが適用できるブロックサイズに関する条件を一致させることができる。
図23の実施例によれば、アフィンMVPモード、アフィンマージモード、PROF及びBDOFのブロックサイズに関する条件は、下記表のとおりに変更できる。
前記表1において、w及びhはそれぞれ現在ブロックの幅(width)及び高さ(height)を意味することができる。
図24は本開示の別の実施例によってサブブロックマージモードの適用有無を指示する情報のシグナリングを説明するための図である。
図21の例において、merge_subblock_flagのシグナリング条件のうち、ブロックサイズに関する条件は、cbWidth及びcbHeightの両方が8以上である条件を含む。図24の実施例によれば、merge_subblock_flagのシグナリング条件は、cbWidth*cbHeightが128(ルマサンプル)以上である条件をさらに含むことができる。図24の実施例によれば、アフィンマージモードは、8×8ブロック以上のサイズを有するブロックであって、128サンプル以上のサンプルを含むブロックに対してのみ適用されることができる。すなわち、8×8ブロックに対しては、アフィンマージモードが適用されないので、PROFも、8×8ブロックに対して適用されないことができる。
図24の実施例によれば、アフィンMVPモード、アフィンマージモード、PROF及びBDOFのブロックサイズに関する条件は、下記表のとおりに変更できる。
図25は本開示の別の実施例によってアフィンMVPモードの適用有無を指示する情報のシグナリングを説明するための図である。
図22の例において、inter_affine_flagのシグナリング条件のうち、ブロックサイズに関する条件は、cbWidth及びcbHeightの両方が16以上である条件を含む。図25の実施例によれば、inter_affine_flagのシグナリング条件のうち、ブロックサイズに関する条件は、cbWidth及びcbHeightの両方が16以上であり、cbWidth*cbHeightが128(ルマサンプル)以上である条件に変更されることができる。図25の実施例によれば、アフィンMVPモードは、8×8ブロック以上のサイズを有するブロックであり、128サンプル以上のサンプルを含むブロックに対してのみ適用されることができる。すなわち、図25の実施例によれば、アフィンMVPモードに対するブロックサイズ条件は、BDOFに対するブロックサイズ条件と一致することができる。したがって、図25の実施例によれば、8×8ブロックに対してはアフィンMVPモードが適用されないので、PROFも8×8ブロックに対して適用されないことができる。
また、図25の実施例は、図24の実施例と組み合わせられることができる。すなわち、アフィンMVPモードに対するブロックサイズ条件アフィンマージモードに対するブロックサイズ条件を全てBDOFに対するブロックサイズ条件と一致させることができる。これにより、アフィンブロックに適用できるPROFのブロックサイズ条件をBDOFのブロックサイズ条件と一致させることができる。
図24及び図25の実施例によれば、アフィンMVPモード、アフィンマージモード、PROF及びBDOFのブロックサイズに関する条件は、下記表のとおりに変更できる。
図26は本開示の別の実施例によるPROFの適用有無決定過程を示す図である。
BDOFは、オプティカルフローの特徴を用いてサンプルのオフセットを決定する。したがって、参照ピクチャ間の明るさ値が異なる場合、すなわち、BCW又はWP(weighted Prediction)が適用される場合、BDOFを行わない。しかし、PROFは、オプティカルフローの特徴を用いてサンプルのオフセットを誘導するにも拘らず、BCW又はWPの適用有無を考慮せずに行われることができる。
図26の実施例によれば、BDOFとPROFとのデザイン観点からの調和のために、BCW又はWPが適用されるブロックに対してPROFを適用しないことができる。例えば、BcwIdxが0でないか、或いはluma_weight_lX_flag[refIdxLX](Xは0又は1)が1であるとき、cbProFlagLXを第2値(「False」又は「0」)に設定することができる。BcwIdxが0ではないのは、現在ブロックにBCWが適用されることを意味し、luma_weight_lX_flag[refIdxLX]が1であることは、現在ブロックにLX予測方向のWPが適用されることを意味することができる。本開示において、BcwIdxが0であることは、均等重みが適用されることを意味し、すなわち、L0予測ブロックとL1予測ブロックの平均(average sum)で双方向予測ブロックが生成されることを意味することができる。したがって、cbProfFlagLXを誘導するとき、上記条件を追加することにより、現在ブロックにBCW又はWPが適用される場合、PROFが適用されないように制御することができる。
図27は本開示の別の実施例によるPROFの適用有無決定過程を示す図である。
図27の実施例によれば、PROF適用条件は、現在ピクチャと参照ピクチャの解像度に関する条件をさらに含むことができる。PROFは、BDOFと類似に、オプティカルフローを考慮した予測サンプルの改善方法である。オプティカルフローは、動くオブジェクトが同じ画素値を有し、双方向の動きが一定であるとき、その動きのオフセットを反映する技術である。したがって、現在ピクチャと参照ピクチャの解像度(resoluion)が異なるとき、PROFを行わないように制限する必要がある。
図27に示されているように、参照ピクチャの幅(pic_width_in_luma_samples)が現在ピクチャの幅と異なるか、或いは参照ピクチャの高さ(pic_height_in_luma_samples)が現在ピクチャの高さと異なる場合、cbProfFlagを第2値(「False」又は「0」)に設定することにより、現在ブロックにPROFが適用されないように制御することができる。
このとき、参照ピクチャは、cbProfFlagの予測方向の参照ピクチャであり得る。具体的には、cbProfFlagL0を誘導する場合、L0参照ピクチャのサイズと現在ピクチャのサイズが考慮されることができる。L0参照ピクチャの幅又は高さが現在ピクチャの幅又は高さと異なる場合、cbProfFlagL0は第2値に設定され、L0予測サンプルに対するPROFは行われないことができる。また、L0参照ピクチャの幅及び高さが現在ピクチャの幅及び高さと同じである場合、cbProfFlagL0は第1値に設定され、L0予測サンプルに対してPROFが適用されて改善されたL0予測サンプルが生成されることができる。
同様に、cbProfFlagL1を誘導する場合、L1参照ピクチャのサイズと現在ピクチャのサイズが考慮されることができる。L1参照ピクチャの幅又は高さが現在ピクチャの幅又は高さと異なる場合、cbProfFlagL1は第2値に設定され、L1予測サンプルに対するPROFは行われないことができる。また、L1参照ピクチャの幅及び高さが現在ピクチャの幅及び高さと同一である場合、cbProfFlagL1は第1値に設定され、L1予測サンプルに対してPROFが適用されて改善されたL1予測サンプルが生成されることができる。
図27の下線の条件は、RPR(Reference Picture Resampling)条件を意味することができる。参照ピクチャのサイズと現在ピクチャのサイズが異なるとき、RPR条件は第1値(「True」又は「1」)を持つことができる。第1値のRPR条件は、参照ピクチャに対するresamplingが必要であることを意味することができる。また、参照ピクチャのサイズと現在ピクチャのサイズが同一であるとき、RPR条件は第2値(「False」又は「0」)を有することができる。第2値のRPR条件は、参照ピクチャに対するresamplingが不要であることを意味することができる。すなわち、RPR条件が第1値である場合、PROFが適用されないことができる。
図28は本開示によるPROFを行う方法を説明するための図である。
図28の方法は、画像符号化装置のインター予測部180又は画像復号化装置のインター予測部260で行われることができる。より具体的には、図28の方法は、画像符号化装置のインター予測部180内の予測サンプル導出部183又は画像復号化装置のインター予測部260内の予測サンプル導出部263で行われることができる。
図28によれば、現在ブロックの動き情報が決定できる(S2810)。現在ブロックの動き情報は、本開示に記載された様々な方法に基づいて決定されることができる。画像符号化装置は、様々なインター予測モード及び動き情報に基づいてレート歪みコスト(RD cost)を計算することにより、最適な動き情報を現在ブロックの動き情報として決定することができる。画像符号化装置は、決定されたインター予測モード及び動き情報をビットストリームに符号化することができる。画像復号化装置は、ビットストリームを介してシグナリングされた情報を復号化することにより、現在ブロックの動き情報を決定(導出)することができる。
ステップS2810で決定された現在ブロックの動き情報に基づいて、現在ブロックの予測サンプル(予測ブロック)が導出されることができる(S2820)。現在ブロックの予測サンプルは、本開示に記載されている様々な方法に基づいて導出されることができる。
ステップS2830で、現在ブロックに対するRPR(Reference Picture Resampling)条件が導出されることができる。例えば、現在ブロックの参照ピクチャの幅又は高さが現在ピクチャの幅又は高さと異なる場合、RPR条件は第1値(「True」又は「1」)に設定されることができる。また、現在ブロックの参照ピクチャの幅及び高さが現在ピクチャの幅及び高さとそれぞれ同一である場合、RPR条件は第2値(「False」又は「0」)に設定されることができる。
現在ブロックにPROFが適用されるか否かを示す情報cbProfFlagは、前記RPR条件に基づいて誘導されることができる(S2840)。例えば、RPR条件が第1値である場合、cbProfFlagは第2値に設定されることができる。すなわち、現在ピクチャのサイズが参照ピクチャのサイズと異なる場合、PROFは適用されないものと決定されることができる。また、RPR条件が第2値である場合、cbProfFlagは第1値に設定されることができる。すなわち、現在ピクチャのサイズが参照ピクチャのサイズと同一である場合、PROFは適用されるものと決定されることができる。ステップS2840は、RPR条件に基づいてcbProfFlagを誘導するものと説明されたが、これは、説明の便宜のためのものであり、cbProfFlagを誘導する条件は、RPR条件に限定されない。すなわち、cbProfFlagを誘導するために、RPR条件に加えて、本開示に記載された他の条件、又は本開示に記載されていない他の条件が一緒に考慮されることができる。
ステップS2840で誘導されたcbProfFlagに基づいて、PROFが行われるか否かが決定されることができる(S2850)。cbProfFlagが第1値(「True」又は「1」)である場合、現在ブロックの予測サンプルに対してPROFが行われることができる(S2860)。cbProfFlagが第2値(「False」又は「0」)である場合、現在ブロックの予測サンプルに対してPROFが行われず、スキップされることができる。
ステップS2860のPROF過程は、本開示に記載されたPROF過程によって行われることができる。より具体的には、現在ブロックにPROFが適用される場合、現在ブロック内の各サンプル位置に対する差分動きベクトルを導出し、現在ブロック内の各サンプル位置に対するグラジエントを導出し、前記差分動きベクトル及び前記グラジエントに基づいてPROFオフセットを導出した後、前記PROFオフセットに基づいて前記現在ブロックに対する改善された予測サンプルを導出することができる。
画像符号化装置は、前記改善された予測サンプル(予測ブロック)に基づいて現在ブロックに対するレジデュアルサンプル(残差ブロック)を誘導し、レジデュアルサンプルに関する情報をビットストリームに符号化することができる。画像復号化装置は、前記改善された予測サンプル(予測ブロック)及びビットストリームを復号化して取得したレジデュアルサンプル(残差ブロック)に基づいて現在ブロックを復元することができる。
図28に示されている例において、ステップS2830のRPR条件は、ステップS2820以後に行われるものに限定されない。例えば、RPR条件は、cbProfFlagを誘導する(S2840)前に導出されることで十分であり、本開示による実施例は、ステップS2840の実行前にRPR条件を導出する様々な例を含むことができる。
図29は本開示の別の実施例によるPROFの適用有無決定過程を示す図である。
図29の実施例は、図26の実施例と図27の実施例とを組み合わせた実施例の一例である。上述したように、BDOFとPROFとの間のデザイン観点からの調和のために、BCW又はWPが適用されるブロックに対してPROFを適用しないことができる。PROFは、BDOFとは異なり、単方向予測(uni-directional prediction)の場合にも適用できる。したがって、単方向予測のWPが適用される場合、現在ブロックに対してPROFが適用されないようにすることができる。また、単方向予測の参照ピクチャのサイズと現在ピクチャのサイズが異なる場合、現在ブロックに対してPROFが適用されないようにすることができる。
図29によれば、L0方向のWPが適用される(例えば、luma_weight_l0_flag==1)、L1方向のWPが適用される場合(例えば、luma_weight_l1_flag==1)、PROFが適用されないようにcbProfFlagを設定することができる。また、L0方向の参照ピクチャのサイズと現在ピクチャのサイズが異なるか、或いはL1方向の参照ピクチャのサイズと現在ピクチャのサイズとが異なる場合、PROFが適用されないようにcbProfFlagを設定することができる。
図30は本開示の別の実施例によるPROFの適用有無決定過程を示す図である。
図30の実施例は、図26の実施例と図27の実施例とを組み合わせた実施例の他の例である。上述したように、PROFは、BDOFとは異なり、単方向予測の場合にも適用できる。したがって、単方向予測のWPが適用される場合、当該方向に対してPROFが適用されないようにすることができる。また、単方向予測の参照ピクチャのサイズと現在ピクチャのサイズが異なる場合、当該方向に対してPROFが適用されないようにすることができる。
図30によれば、L0方向のWPが適用されるか(例えば、luma_weight_l0_flag==1)、L0方向の参照ピクチャのサイズと現在ピクチャのサイズが異なる場合、L0方向に対してPROFが適用されないようにcbProfFlagL0を第2値(「False」又は「0」)に設定することができる。また、L1方向のWPが適用されるか(例えば、luma_weight_l1_flag==1)、或いはL1方向の参照ピクチャのサイズと現在ピクチャのサイズが異なる場合、L1方向に対してPROFが適用されないようにcbProfFlagL1を第2値(「False」又は「0」)に設定することができる。
本開示に記載された様々な実施例は、それぞれ単独で実現されてもよく、他の実施例と組み合わせられて実現されてもよい。或いは、例えば、一実施例の一部が他の実施例に付加されてもよく、一実施例の一部が他の実施例の一部を置き換えることによりに実現されてもよい。
本開示に記載されている様々な実施例によれば、PROFの適用条件とBDOFの適用条件の一部とを一致させることにより、PROFとBDOFのデザイン観点からの調和を期待することができ、さらに実現複雑度が減少できる。
本開示の例示的な方法は、説明の明確性のために動作のシリーズで表現されているが、これは、ステップが行われる順序を制限するためのものではなく、必要な場合には、それぞれのステップが同時に又は異なる順序で行われることもできる。本開示による方法を実現するために、例示するステップにさらに他のステップを含むか、一部のステップを除いて残りのステップを含むか、或いは一部のステップを除いて追加の他のステップを含むこともできる。
本開示において、所定の動作(ステップ)を行う画像符号化装置又は画像復号化装置は、当該動作(ステップ)の実行条件や状況を確認する動作(ステップ)を行うことができる。例えば、所定の条件が満足される場合、所定の動作を行うと記載された場合、画像符号化装置又は画像復号化装置は、前記所定の条件が満足されるか否かを確認する動作を行った後、前記所定の動作を行うことができる。
本開示の様々な実施例は、すべての可能な組み合わせを羅列したものではなく、本開示の代表的な態様を説明するためのものであり、様々な実施例で説明する事項は、独立して適用されてもよく、2つ以上の組み合わせで適用されてもよい。
また、本開示の様々な実施例は、ハードウェア、ファームウェア(firmware)、ソフトウェア、又はそれらの組み合わせなどによって実現できる。ハードウェアによる実現の場合、1つ又はそれ以上のASICs(Application Specific Integrated Circuits)、DSPs(Digital Signal Processors)、DSPDs(Digital Signal Processing Devices)、PLDs(Programmable Logic Devices)、FPGAs(Field Programmable Gate Arrays)、汎用プロセッサ(general processor)、コントローラ、マイクロコントローラ、マイクロプロセッサなどによって実現できる。
また、本開示の実施例が適用された画像復号化装置及び画像符号化装置は、マルチメディア放送送受信装置、モバイル通信端末、ホームシネマビデオ装置、デジタルシネマビデオ装置、監視用カメラ、ビデオ会話装置、ビデオ通信などのリアルタイム通信装置、モバイルストリーミング装置、記憶媒体、カムコーダ、注文型ビデオ(VoD)サービス提供装置、OTTビデオ(Over the top video)装置、インターネットストリーミングサービス提供装置、3次元(3D)ビデオ装置、画像電話ビデオ装置、及び医療用ビデオ装置などに含まれることができ、ビデオ信号又はデータ信号を処理するために使用できる。例えば、OTTビデオ(Over the top video)装置としては、ゲームコンソール、ブルーレイプレーヤー、インターネット接続TV、ホームシアターシステム、スマートフォン、タブレットPC、DVR(Digital Video Recoder)などを含むことができる。
図31は本開示の実施例が適用できるコンテンツストリーミングシステムを例示する図である。
図31に示すように、本開示の実施例が適用されたコンテンツストリーミングシステムは、大きく、符号化サーバ、ストリーミングサーバ、Webサーバ、メディアストレージ、ユーザ装置及びマルチメディア入力装置を含むことができる。
前記符号化サーバは、スマートフォン、カメラ、カムコーダなどのマルチメディア入力装置から入力されたコンテンツをデジタルデータに圧縮してビットストリームを生成し、これを前記ストリーミングサーバに伝送する役割を果たす。他の例として、スマートフォン、カメラ、ビデオカメラなどのマルチメディア入力装置がビットストリームを直接生成する場合、前記符号化サーバは省略できる。
前記ビットストリームは、本開示の実施例が適用された画像符号化方法及び/又は画像符号化装置によって生成でき、前記ストリーミングサーバは、前記ビットストリームを伝送又は受信する過程で一時的に前記ビットストリームを保存することができる。
前記ストリーミングサーバは、Webサーバを介してユーザの要求に基づいてマルチメディアデータをユーザ装置に伝送し、前記Webサーバは、ユーザにどんなサービスがあるかを知らせる媒介体の役割を果たすことができる。ユーザが前記Webサーバに所望のサービスを要求すると、前記Webサーバは、これをストリーミングサーバに伝達し、前記ストリーミングサーバは、ユーザにマルチメディアデータを伝送することができる。この時、前記コンテンツストリーミングシステムは、別途の制御サーバを含むことができ、この場合、前記制御サーバは、前記コンテンツストリーミングシステム内の各装置間の命令/応答を制御する役割を果たすことができる。
前記ストリーミングサーバは、メディアストレージ及び/又は符号化サーバからコンテンツを受信することができる。例えば、前記符号化サーバからコンテンツを受信する場合、前記コンテンツをリアルタイムで受信することができる。この場合、円滑なストリーミングサービスを提供するために、前記ストリーミングサーバは、前記ビットストリームを一定時間の間保存することができる。
前記ユーザ装置の例としては、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(wearable device)、例えば、スマートウォッチ(smartwatch)、スマートグラス(smart glass)、HMD(head mounted display)、デジタルTV、デスクトップコンピュータ、デジタルサイネージなどがあり得る。
前記コンテンツストリーミングシステム内の各サーバは、分散サーバとして運営されることができ、この場合、各サーバから受信するデータは、分散処理されることができる。
本開示の範囲は、様々な実施例の方法による動作が装置又はコンピュータ上で実行されるようにするソフトウェア又はマシン-実行可能なコマンド(例えば、オペレーティングシステム、アプリケーション、ファームウェア(firmware)、プログラムなど)、及びこのようなソフトウェア又はコマンドなどが保存されて装置又はコンピュータ上で実行できる非一時的なコンピュータ可読媒体(non-transitory computer-readable medium)を含む。
本開示による実施例は、画像を符号化/復号化することに利用可能である。

Claims (13)

  1. 画像復号化装置によって行われる画像復号化方法であって、
    現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出するステップと、
    前記現在ブロックに対するRPR(Reference Picture Resampling)条件を導出するステップと、
    前記RPR条件に基づいて前記現在ブロックにPROF(Prediction Refinement with Optical Flow)を適用するか否かを決定するステップと、
    前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出するステップと、を含んでなり、
    前記現在ブロックにPROFを適用するか否かは、前記RPR条件に加えて、
    前記現在ブロックに、BCW(Bi-prediction with CU-level Weight)又はWP(Weighted Prediction)が適用されるか否かに基づいて更に決定される、画像復号化方法。
  2. 前記RPR条件は、前記現在ブロックの参照ピクチャのサイズ及び現在ピクチャのサイズに基づいて決定される、請求項1に記載の画像復号化方法。
  3. 前記現在ブロックの参照ピクチャのサイズと前記現在ピクチャのサイズが異なる場合、前記RPR条件は第1値として導出され、
    前記現在ブロックの参照ピクチャのサイズと前記現在ピクチャのサイズが同一である場合、前記RPR条件は第2値として導出される、請求項2に記載の画像復号化方法。
  4. 前記RPR条件が第1値である場合、前記現在ブロックにPROFを適用しないものと決定する、請求項3に記載の画像復号化方法。
  5. 前記現在ブロックにPROFを適用するか否かは、前記RPR条件及び前記現在ブロックに前記BCW又は前記WPが適用されるか否かに加えて、前記現在ブロックのサイズに基づいて更に決定される、請求項1に記載の画像復号化方法。
  6. 前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)との積が128よりも小さい場合、前記現在ブロックにPROFを適用しないものと決定される、請求項5に記載の画像復号化方法。
  7. 前記現在ブロックがアフィンマージモードであるか否かを示す情報は、前記現在ブロックのサイズに基づいてビットストリームからパーシングされる、請求項1に記載の画像復号化方法。
  8. 前記現在ブロックがアフィンマージモードであるか否かを示す情報は、前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)がそれぞれ8以上であり、
    w*hが128以上である場合、前記ビットストリームからパーシングされる、請求項7に記載の画像復号化方法。
  9. 前記現在ブロックがアフィンMVPモードであるか否かを示す情報は、前記現在ブロックのサイズに基づいてビットストリームからパーシングされる、請求項1に記載の画像復号化方法。
  10. 前記現在ブロックがアフィンMVPモードであるか否かを示す情報は、前記現在ブロックの幅(w)と前記現在ブロックの高さ(h)がそれぞれ8以上であり、
    w*hが128以上である場合、前記ビットストリームからパーシングされる、請求項9に記載の画像復号化方法。
  11. 前記現在ブロックにBCW又はWPが適用される場合、前記現在ブロックにPROFを適用しないものと決定する、請求項1に記載の画像復号化方法。
  12. 画像符号化装置によって行われる画像符号化方法であって、
    現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出するステップと、
    前記現在ブロックに対するRPR条件を導出するステップと、
    前記RPR条件に基づいて、前記現在ブロックにPROFを適用するか否かを決定するステップと、
    前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出するステップと、を含んでなり、
    前記現在ブロックにPROFを適用するか否かは、前記RPR条件に加えて、
    前記現在ブロックに、BCW(Bi-prediction with CU-level Weight)又はWP(Weighted Prediction)が適用されるか否かに基づいて更に決定される、画像符号化方法。
  13. ビットストリーム(bitstream)を伝送する方法であって、
    画像符号化方法によって生成された前記ビットストリームを取得するステップと、及び
    前記ビットストリームを送信するステップと、を含んでなり、
    前記画像符号化方法は、
    現在ブロックの動き情報に基づいて前記現在ブロックの予測サンプルを導出するステップと、
    前記現在ブロックに対するRPR(Reference Picture Resampling)条件を導出するステップと、
    前記RPR条件に基づいて前記現在ブロックにPROF(Prediction Refinement with Optical Flow)を適用するか否かを決定するステップと、
    前記現在ブロックにPROFを適用して前記現在ブロックに対する改善された予測サンプルを導出するステップと、を含んでなり、
    前記現在ブロックにPROFを適用するか否かは、前記RPR条件に加えて、
    前記現在ブロックに、BCW(Bi-prediction with CU-level Weight)又はWP(Weighted Prediction)が適用されるか否かに基づいて更に決定される、ビットストリームを伝送する方法。
JP2022517416A 2019-09-19 2020-09-10 Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法 Active JP7462740B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962902954P 2019-09-19 2019-09-19
US62/902,954 2019-09-19
US201962909153P 2019-10-01 2019-10-01
US62/909,153 2019-10-01
PCT/KR2020/012245 WO2021054676A1 (ko) 2019-09-19 2020-09-10 Prof를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Publications (2)

Publication Number Publication Date
JP2022548704A JP2022548704A (ja) 2022-11-21
JP7462740B2 true JP7462740B2 (ja) 2024-04-05

Family

ID=74883577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022517416A Active JP7462740B2 (ja) 2019-09-19 2020-09-10 Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法

Country Status (5)

Country Link
US (2) US11516475B2 (ja)
JP (1) JP7462740B2 (ja)
KR (1) KR20220049018A (ja)
CN (1) CN114731428A (ja)
WO (1) WO2021054676A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021054676A1 (ko) * 2019-09-19 2021-03-25 엘지전자 주식회사 Prof를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
MX2022002916A (es) 2019-09-19 2022-04-06 Beijing Bytedance Network Tech Co Ltd Derivacion de posiciones de muestra de referencia en codificacion de video.
MX2022003836A (es) 2019-10-05 2022-05-12 Beijing Bytedance Network Tech Co Ltd Se?alizacion basada en los niveles de las herramientas de codificacion de video.
JP7391203B2 (ja) 2019-10-12 2023-12-04 北京字節跳動網絡技術有限公司 ビデオコーディングツールを洗練する使用およびシグナリング
EP4029274A4 (en) 2019-10-13 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. INTERACTION BETWEEN REFERENCE IMAGE RESAMPLING AND VIDEO CODING TOOLS
MX2022007503A (es) 2019-12-27 2022-07-04 Beijing Bytedance Network Tech Co Ltd Se?alizacion de tipos de corte en encabezados de imagenes de video.
WO2022257954A1 (en) * 2021-06-10 2022-12-15 Beijing Bytedance Network Technology Co., Ltd. Method, device, and medium for video processing
WO2024080778A1 (ko) * 2022-10-12 2024-04-18 엘지전자 주식회사 적응적으로 해상도를 변경하는 영상 부호화/복호화 방법, 장치, 및 비트스트림을 전송하는 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533286A (ja) 2015-09-23 2018-11-08 エルジー エレクトロニクス インコーポレイティド 画像の符号化/復号化方法及びこれのために装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017156705A1 (en) * 2016-03-15 2017-09-21 Mediatek Inc. Affine prediction for video coding
EP3468195A1 (en) * 2017-10-05 2019-04-10 Thomson Licensing Improved predictor candidates for motion compensation
US20210044799A1 (en) * 2019-08-09 2021-02-11 Alibaba Group Holding Limited Adaptive resolution change in video processing
WO2021054676A1 (ko) * 2019-09-19 2021-03-25 엘지전자 주식회사 Prof를 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018533286A (ja) 2015-09-23 2018-11-08 エルジー エレクトロニクス インコーポレイティド 画像の符号化/復号化方法及びこれのために装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CHEN, Wade et al.,AHG19: Adaptive Resolution Change,JVET-N0279 (version 2),ITU,2019年03月24日,pp.1-7,[online],[retrieved on 2023-03-07],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0279-v2.zip>
CHUJOH, Takeshi et al.,Non-CE9: On Conditions for DMVR and BDOF,JVET-N0146 (version 4),ITU,2019年03月26日,pp.1-5,[online],[retrieved on 2023-03-07],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0146-v4.zip>
HE, Yong et al.,AHG8: On Adaptive Resolution Change Constraint,JVET-O0184 (version 1),ITU,2019年06月26日,pp.1-3,[online],[retrieved on 2023-03-07],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/15_Gothenburg/wg11/JVET-O0184-v1.zip>
InterPrediction.cpp,VTM-6.1,ITU/ISO/IEC,2019年08月28日,pp.1, 11-15,[online],[retrieved on 2023-03-07],Retrieved from the Internet: <URL: https://vcgit.hhi.fraunhofer.de/jvet/VVCSoftware_VTM/-/blob/VTM-6.1/source/Lib/CommonLib/InterPrediction.cpp>
WANG, Suhong et al.,CE4-related: Remove TMVP Candidate for the Specified Blocksizes,JVET-N0213 (version 5),ITU,2019年03月27日,pp.1-7,[online],[retrieved on 2023-03-07],Retrieved from the Internet: <URL: https://jvet-experts.org/doc_end_user/documents/14_Geneva/wg11/JVET-N0213-v5.zip>

Also Published As

Publication number Publication date
US20230089062A1 (en) 2023-03-23
US20220272346A1 (en) 2022-08-25
WO2021054676A1 (ko) 2021-03-25
KR20220049018A (ko) 2022-04-20
US11516475B2 (en) 2022-11-29
JP2022548704A (ja) 2022-11-21
US11917157B2 (en) 2024-02-27
CN114731428A (zh) 2022-07-08

Similar Documents

Publication Publication Date Title
JP7462740B2 (ja) Profを行う画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
KR20220027157A (ko) 움직임 정보 후보를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11792419B2 (en) Image encoding/decoding method and device for performing prediction, and method for transmitting bitstream involving weighted prediction and bidirectional optical flow
US20220182606A1 (en) Video encoding/decoding method and device for deriving weight index for bidirectional prediction of merge candidate, and method for transmitting bitstream
US20230199175A1 (en) Method and device for subpicture-based image encoding/decoding, and method for transmitting bitstream
JP7485819B2 (ja) 双予測のための加重値インデックス情報を誘導するビデオ又は映像コーディング
JP2023165944A (ja) 同一位置ピクチャに関する情報を含むピクチャヘッダーに基づく画像符号化/復号化方法、装置、及びビットストリームを伝送する方法
KR20220110284A (ko) 머지 후보들의 최대 개수 정보를 포함하는 시퀀스 파라미터 세트를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US11949874B2 (en) Image encoding/decoding method and device for performing prof, and method for transmitting bitstream
KR20210129213A (ko) Smvd(symmetric motion vector difference)를 이용한 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
AU2020347025B2 (en) Image encoding/decoding method and device for performing bdof, and method for transmitting bitstream
KR20220004769A (ko) 양방향 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR102679376B1 (ko) 가중 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
KR102634643B1 (ko) 양방향 예측의 가중치 인덱스를 유도하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법
US20220191472A1 (en) Image encoding/decoding method and device for deriving weight index of bidirectional prediction, and method for transmitting bitstream
KR20240104203A (ko) 가중 예측을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7462740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150