JP2023526535A - 映像コーディング方法及びその装置 - Google Patents

映像コーディング方法及びその装置 Download PDF

Info

Publication number
JP2023526535A
JP2023526535A JP2022571334A JP2022571334A JP2023526535A JP 2023526535 A JP2023526535 A JP 2023526535A JP 2022571334 A JP2022571334 A JP 2022571334A JP 2022571334 A JP2022571334 A JP 2022571334A JP 2023526535 A JP2023526535 A JP 2023526535A
Authority
JP
Japan
Prior art keywords
picture
poc
information
value
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022571334A
Other languages
English (en)
Inventor
ヘンドリー ヘンドリー
ヒョンムン チャン
チョンハク ナム
スンファン キム
チェヒョン イム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2023526535A publication Critical patent/JP2023526535A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

本文書に係る映像デコーディング方法は、POC情報に基づいて現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階を含み、前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さいことを特徴とし得る。【選択図】図7

Description

本文書は、映像コーディング技術に関し、より詳細には、映像コーディングシステムにおいてピクチャーに対するPOCに基づく映像コーディング方法及びその装置に関する。
近年、4K又は8K以上のUHD(Ultra High Definition)映像/ビデオのような高解像度、高品質の映像/ビデオに対する需要が様々な分野で増加している。映像/ビデオデータが高解像度化、高品質化するに伴って、伝送される情報量又はビット量も既存の映像/ビデオデータに比べてより増加するため、既存の有無線広帯域回線のような媒体を用いて映像データを伝送したり既存の記憶媒体を用いて映像/ビデオデータを記憶する場合に、伝送及び記憶にかかるコストが増加する。
また、最近では、VR(Virtual Reality)、AR(Artificial Realtiy)コンテンツやホログラムなどの実感メディア(Immersive Media)への関心及び需要が増加しており、ゲーム映像のように、現実映像と異なる映像特性を有する映像/ビデオの放送が増加している。
これにより、上記のような様々な特性を有する高解像度・高品質の映像/ビデオの情報を効果的に圧縮して伝送、記憶、再生するためには高効率の映像/ビデオ圧縮技術が要求される。
本文書の技術的課題は、映像コーディング効率を高める方法及び装置を提供することにある。
本文書の他の技術的課題は、ピクチャーのPOCデコーディング効率を高める方法及び装置を提供することにある。
本文書のさらに他の技術的課題は、システムにおいて削除された参照ピクチャーを用いないようにしてインター予測の効率を高める方法及び装置を提供することにある。
本文書のさらに他の技術的課題は、現在ピクチャーと参照ピクチャー間のPOC値を制限することによって誤り発生を減少させ、ネットワークを安定させることにある。
本文書の一実施例によれば、デコーディング装置によって行われる映像デコーディング方法を提供する。前記方法は、ビットストリームからPOC情報及び参照ピクチャーに関する情報を受信する段階と、前記POC情報に基づいて現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階と、前記現在ピクチャーのPOC値と前記参照ピクチャーに対するPOC値に基づいて参照ピクチャーリストを構成する段階と、前記参照ピクチャーリストに基づいて現在ブロックに対するインター予測を行って前記現在ブロックに対する予測サンプルを導出する段階と、前記予測サンプルに基づいて復元ピクチャーを生成する段階と、を含み、前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さくてよい。
前記現在ピクチャーと前記以前ピクチャーに対するレイヤIDは同一であり、前記以前ピクチャーに対する、時間レイヤの識別情報から導出される時間的IDは、0であってよい。
前記以前ピクチャーは、RASLピクチャー又はRADLピクチャーでなくてよい。
前記現在ピクチャーのPOC値は、変数POCMsbと前記現在ピクチャーに対するPOC LSB情報値に基づいて導出され、前記変数POCMsbは、POC MSBサイクル値の存在の有無に対するサイクル存在フラグ及び前記サイクル存在フラグ値に基づいてシグナルされるPOC MSBサイクル値に基づいて導出されてよい。
前記現在ピクチャーに対する前記サイクル存在フラグの値が0であり、前記現在ピクチャーがCLVSSピクチャーでないと、前記現在ピクチャーに対する前記変数POCMsbは、前記以前ピクチャーの前記変数POCMsbに基づいて導出されてよい。
本文書の一実施例によれば、エンコーディング装置によって行われる映像エンコーディング方法を提供する。前記方法は、現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階と、前記参照ピクチャーを用いて前記現在ブロックに対するインター予測を行う段階と、POC情報と前記参照ピクチャーに関する情報をエンコードする段階と、を含み、前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さくてよい。
本文書のさらに他の一実施例によれば、エンコーディング装置によって行われた映像エンコーディング方法によって生成されたエンコードされた映像情報及び/又はビットストリームが含まれた映像データが記憶されているデジタル記憶媒体が提供されてよい。
本文書のさらに他の一実施例によれば、デコーディング装置が前記映像デコーディング方法を実行するようにするエンコードされた映像情報及び/又はビットストリームが含まれた映像データが記憶されているデジタル記憶媒体が提供されてよい。
本文書によれば、映像/ビデオ圧縮効率の全般を高めることができる。
本文書によれば、ピクチャーのPOCデコーディング効率を高めることができる。
本文書によれば、システムにおいて削除された参照ピクチャーを用いないようにしてインター予測の効率を高めることができる。
本文書によれば、現在ピクチャーと参照ピクチャー間のPOC値を制限することによって誤り発生を減少させ、ネットワークを安定させることができる。
本明細書の具体的な一例から得られる効果は、以上に述べられた効果に制限されない。例えば、関連する技術の分野における通常の知識を有する者(person having ordinary skill in the related art)にとって、本明細書から理解又は誘導可能な様々な技術的効果が存在し得る。これにより、本明細書の具体的な効果は、本明細書に明示的に記載されたものに制限されず、本明細書の技術的特徴から理解又は誘導可能な様々な効果を含むことができる。
本文書が適用可能なビデオ/映像エンコーディング装置の構成を概略的に説明する図である。 本文書が適用可能なビデオ/映像デコーディング装置の構成を概略的に説明する図である。 コードされた映像/ビデオに対する階層構造の例を示す図である。 時間スケーラビリティーを支援するビットストリーム内のNALユニットに対する時間レイヤ構造を示す図である。 本文書の一例によってエンコーディング装置で行われる映像情報のエンコーディング方法を説明するための図である。 本文書の一例によってデコーディング装置で行われる映像情報のデコーディング方法を説明するための図である。 一例による映像のデコーディング方法を説明するための図である。 一例による映像のエンコーディング方法を説明するための図である。 本文書が適用可能なビデオ/映像コーディングシステムの例を概略的に示す図である。 本文書が適用されるコンテンツストリーミングシステム構造を例示する図である。
本文書は様々な変更が可能であり、様々な実施例を有し得るところ、特定実施例を図面に例示して詳細に説明する。ただし、これは、本文書を特定の実施例に限定しようとするものではない。本明細書で常用する用語は、特定の実施例を説明するために使われるだけで、本文書の技術的思想を限定する意図で使われるものではない。単数の表現は、文脈において別に断らない限り、複数の表現をも含む。本明細書において、「含む」又は「有する」などの用語は、明細書上に記載された特徴、数字、段階、動作、構成要素、部品又はそれらを組み合わせたものが存在することを指定するためのものであり、1つ又はそれ以上の他の特徴、数字、段階、動作、構成要素、部品又はそれらを組み合わせたものの存在又は付加の可能性をあらかじめ排除しないものとして理解されるべきである。
一方、本文書で説明される図面上の各構成は、それぞれ異なる特徴的な機能に関する説明の便宜のために独立して示すものであり、各構成が互いに別個のハードウェアや別個のソフトウェアとして具現されるということを意味するものではない。例えば、各構成のうち2つ以上の構成が合わせられて一つの構成をなしてもよく、一つの構成が複数の構成に分けられてもよい。各構成が統合及び/又は分離された実施例も、本文書の本質から逸脱しない限り、本文書の権利範囲に含まれる。
以下、添付の図面を参照して、本文書の好ましい実施例をより詳細に説明する。以下、図面上の同一の構成要素には同一の参照符号を付し、同一の構成要素について重複する説明は省略する。
この文書は、ビデオ/映像コーディングに関する。例えば、この文書に開示される方法/実施例は、VVC(Versatile Video Coding)標準(ITU-T Rec.H.266)、VVC以後の次世代ビデオ/イメージコーディング標準、又はそれ以外のビデオコーディング関連標準(例えば、HEVC(High Efficiency Video Coding)標準(ITU-T Rec.H.265)、EVC(essential video coding)標準、AVS2標準など)と関連し得る。
この文書では、ビデオ/映像コーディングに関する様々な実施例を提示し、特に言及がない限り、これらの実施例は組合せで行われてもよい。
この文書において、ビデオ(video)は、時間の流れによる一連の映像(image)の集合を意味できる。ピクチャー(picture)は一般に、特定の時間帯の一つの映像を示す単位を意味し、スライス(slice)/タイル(tile)は、コーディングにおいてピクチャーの一部を構成する単位である。スライス/タイルは、一つ以上のCTU(coding tree unit)を含むことができる。一つのピクチャーは、一つ以上のスライス/タイルで構成されてよい。一つのピクチャーは、一つ以上のタイルグループで構成されてよい。一つのタイルグループは、一つ以上のタイルを含むことができる。
ピクセル(pixel)又はPEL(pel)は、一つのピクチャー(又は、映像)を構成する最小の単位を意味できる。また、ピクセルに対応する用語として「サンプル(sample)」が使われてもよい。サンプルは一般に、ピクセル又はピクセルの値を表すことができ、ルマ(luma)成分のピクセル/ピクセル値のみを表すこともでき、クロマ(chroma)成分のピクセル/ピクセル値のみを表すこともできる。又は、サンプルは、空間ドメインにおけるピクセル値を意味することもでき、このようなピクセル値が周波数ドメインに変換されると、周波数ドメインにおける変換係数を意味することもできる。
ユニット(unit)は、映像処理の基本単位を表すことができる。ユニットは、ピクチャーの特定領域及び当該領域に関連した情報のうち少なくとも一つを含むことができる。1つのユニットは、1つのルマブロック及び2つのクロマ(ex.cb,cr)ブロックを含むことができる。ユニットは、場合によってブロック(block)又は領域(area)などの用語と同じ意味で使われてよい。一般の場合、MxNブロックは、M個の列とN個の行からなるサンプル(又は、サンプルアレイ)又は変換係数(transform coefficient)の集合(又は、アレイ)を含むことができる。
この文書において、「/」と「、」は、「及び/又は」と解釈される。例えば、「A/B」は、「A及び/又はB」と解釈され、「A、B」は「A及び/又はB」と解釈される。さらに、「A/B/C」は、「A、B及び/又はCのうち少なくとも一つ」を意味する。また、「A、B、C」も、「A、B及び/又はCのうち少なくとも一つ」を意味する。(In this document, the term “/” and "," should be interpreted to indicate “and/or.” For instance, the expression “A/B” may mean “A and/or B.” Further, “A, B” may mean “A and/or B.” Further, “A/B/C” may mean “at least one of A, B, and/or C.” Also, “A/B/C” may mean “at least one of A, B, and/or C.”)
なお、本文書において、「又は」は、「及び/又は」と解釈される。例えば、「A又はB」は、1)「A」のみを意味する、2)「B」のみを意味する、又は3)「A及びB」を意味できる。言い換えると、本文書の「又は」は、「追加として又は代替として(additionally or alternatively)」を意味できる(Further, in the document, the term “or” should be interpreted to indicate “and/or.” For instance, the expression “A or B” may comprise 1) only A, 2) only B, and/or 3) both A and B. In other words, the term “or” in this document should be interpreted to indicate “additionally or alternatively.”)
本明細書において「A及びBのうち少なくとも一つ(at least one of A and B)」は、「Aのみ」、「Bのみ」又は「AとBの両方」を意味できる。また、本明細書において「A又はBのうち少なくとも一つ(at least one of A or B)」や「A及び/又はBのうち少なくとも一つ(at least one of A and/or B)」という表現は、「A及びBのうち少なくとも一つ(at least one of A and B)」と同一に解釈されてよい。
また、本明細書において「A、B及びCのうち少なくとも一つ(at least one of A,B and C)」は、「Aのみ」、「Bのみ」、「Cのみ」、又は「A、B及びCの任意の全ての組合せ(any combination of A,B and C)」を意味できる。また、「A、B又はCのうち少なくとも一つ(at least one of A,B or C)」や「A、B及び/又はCのうち少なくとも一つ(at least one of A,B and/or C)」は、「A、B及びCのうち少なくとも一つ(at least one of A,B and C)」を意味できる。
また、本明細書で使われる括弧は、「例えば(for example)」を意味できる。具体的には、「予測(イントラ予測)」と表示された場合に、「予測」の一例として「イントラ予測」が提案されたものであってよい。言い換えると、本明細書における「予測」は「イントラ予測」に制限(limit)されず、「イントラ予測」が「予測」の一例として提案されたものであろう。また、「予測(すなわち、イントラ予測)」と表示された場合にも、「予測」の一例として「イントラ予測」が提案されたものであろう。
本明細書において、一つの図面で個別に説明される技術的特徴は、個別に具現されてもよく、同時に具現されてもよい。
図1は、本文書の実施例が適用可能なビデオ/映像エンコーディング装置の構成を概略的に説明する図である。以下、ビデオエンコーディング装置は、映像エンコーディング装置を含むことができる。
図1を参照すると、エンコーディング装置100は、映像分割部(image partitioner,110)、予測部(predictor,120)、レジデュアル処理部(residual processor,130)、エントロピーエンコーディング部(entropy encoder,140)、加算部(adder,150)、フィルタリング部(filter,160)及びメモリ(memory,170)を含んで構成されてよい。予測部120は、インター予測部121及びイントラ予測部122を含むことができる。レジデュアル処理部130は、変換部(transformer,132)、量子化部(quantizer,133)、逆量子化部(dequantizer,134)、逆変換部(inverse transformer,135)を含むことができる。レジデュアル処理部130は、減算部(subtractor,131)をさらに含むことができる。加算部150は、復元部(reconstructor)又は復元ブロック生成部(recontructged block generator)と呼ばれてもよい。上述した映像分割部110、予測部120、レジデュアル処理部130、エントロピーエンコーディング部140、加算部150及びフィルタリング部160は、実施例によって1つ以上のハードウェアコンポーネント(例えば、エンコーダチップセット又はプロセッサ)によって構成されてよい。また、メモリ170は、DPB(decoded picture buffer)を含むことができ、デジタル記憶媒体によって構成されてもよい。前記ハードウェアコンポーネントは、メモリ170を内/外部コンポーネントとしてさらに含むこともできる。
映像分割部110は、エンコーディング装置100に入力された入力映像(又は、ピクチャー、フレーム)を1つ以上の処理ユニット(processing unit)に分割することができる。一例として、前記処理ユニットは、コーディングユニット(coding unit,CU)と呼ぶことができる。この場合、コーディングユニットは、コーディングツリーユニット(coding tree unit,CTU)又は最大コーディングユニット(largest coding unit,LCU)からQTBTTT(Quad-tree binary-tree ternary-tree)構造によって再帰的に(recursively)分割されてよい。例えば、一つのコーディングユニットは、クアッドツリー構造、バイナリツリー構造、及び/又はタナーリー構造に基づいて下位(deeper)デプスの複数のコーディングユニットに分割されてよい。この場合、例えば、クアッドツリー構造が先に適用され、バイナリツリー構造及び/又はタナーリー構造が後で適用されてよい。又は、バイナリツリー構造が先に適用されてもよい。それ以上分割されない最終コーディングユニットに基づいて、本文書によるコーディング手順が行われてよい。この場合、映像特性によるコーディング効率などに基づいて、最大コーディングユニットが直ちに最終コーディングユニットとして用いられてよく、又は、必要によってコーディングユニットは再帰的に(recursively)さらに下位デプスのコーディングユニットに分割され、最適のサイズのコーディングユニットが最終コーディングユニットとして用いられてよい。ここで、コーディング手順とは、後述する予測、変換、及び復元などの手順を含むことができる。他の例として、前記処理ユニットは、予測ユニット(PU:Prediction Unit)又は変換ユニット(TU:Transform Unit)をさらに含むことができる。この場合、前記予測ユニット及び前記変換ユニットはそれぞれ、上述した最終コーディングユニットから分割又はパーティショニングされてよい。前記予測ユニットはサンプル予測の単位であってよく、前記変換ユニットは、変換係数を誘導する単位及び/又は変換係数からレジデュアル信号(residual signal)を誘導する単位であってよい。
ユニットは、場合によって、ブロック(block)又は領域(area)などの用語と同じ意味で使われてよい。一般の場合、MxNブロックは、M個の列とN個の行からなるサンプル又は変換係数(transform coefficient)の集合を表すことができる。サンプルは一般に、ピクセル又はピクセルの値を表すことができ、輝度(luma)成分のピクセル/ピクセル値のみを表すこともでき、彩度(chroma)成分のピクセル/ピクセル値のみを表すこともできる。サンプルは、ピクセル(pixel)又はペル(pel)に対する1つのピクチャー(又は、映像)に対応する用語として使われてよい。
エンコーディング装置100は、入力映像信号(原本ブロック、原本サンプルアレイ)から、インター予測部121又はイントラ予測部122から出力された予測信号(予測ブロック、予測サンプルアレイ)を減算してレジデュアル信号(residual signal;残余ブロック、残余サンプルアレイ)を生成でき、生成されたレジデュアル信号は変換部132に伝送される。この場合、図示のようにエンコーディング装置100において、入力映像信号(原本ブロック、原本サンプルアレイ)から予測信号(予測ブロック、予測サンプルアレイ)を減算するユニットは減算部131と呼ばれてよい。予測部は、処理対象ブロック(以下、現在ブロックという。)に対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測ブロック(predicted block)を生成できる。予測部は、現在ブロック又はCU単位でイントラ予測が適用されるか又はインター予測が適用されるかを決定できる。予測部は、各予測モードに関する説明で後述するように、予測モード情報などの予測に関する様々な情報を生成してエントロピーエンコーディング部140に伝達することができる。予測に関する情報は、エントロピーエンコーディング部140でエンコードされてビットストリームの形態で出力されてよい。
イントラ予測部122は、現在ピクチャー内のサンプルを参照して現在ブロックを予測できる。前記参照されるサンプルは、予測モードによって、前記現在ブロックの周辺(neighbor)に位置してよく、離れて位置してもよい。イントラ予測において予測モードは複数の非方向性モードと複数の方向性モードを含むことができる。非方向性モードは、例えば、DCモード及びプレーナーモード(Planar mode)を含むことができる。方向性モードは、予測方向の細密な程度によって、例えば33個の方向性予測モード又は65個の方向性予測モードを含むことができる。ただし、これは例示であり、設定によってそれ以上又はそれ以下の個数の方向性予測モードが用いられてもよい。イントラ予測部122は、周辺ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測部121は、参照ピクチャー上で動きベクトルによって特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測ブロックを誘導することができる。この時、インター予測モードで伝送される動き情報の量を減らすために、周辺ブロックと現在ブロック間の動き情報の相関性に基づき、動き情報をブロック、サブブロック又はサンプル単位で予測できる。前記動き情報は、動きベクトル及び参照ピクチャーインデックスを含むことができる。前記動き情報は、インター予測方向情報(L0予測、L1予測、Bi予測など)をさらに含むことができる。インター予測において、周辺ブロックは、現在ピクチャー内に存在する空間的周辺ブロック(spatial neighboring block)と、参照ピクチャーに存在する時間的周辺ブロック(temporal neighboring block)を含むことができる。前記参照ブロックを含む参照ピクチャーと前記時間的周辺ブロックを含む参照ピクチャーは同一であってもよく、異なってもよい。前記時間的周辺ブロックは、同一位置参照ブロック(collocated reference block)、同一位置CU(colCU)などと呼ぶこともでき、前記時間的周辺ブロックを含む参照ピクチャーは、同一位置ピクチャー(collocated picture,colPic)と呼ぶこともできる。例えば、インター予測部121は、周辺ブロックに基づいて動き情報候補リストを構成し、前記現在ブロックの動きベクトル及び/又は参照ピクチャーインデックスを導出するためにどの候補が用いられるかを指示する情報を生成することができる。様々な予測モードに基づいてインター予測が行われてよく、例えば、スキップモードとマージモードでは、インター予測部121は周辺ブロックの動き情報を現在ブロックの動き情報として用いることができる。スキップモードでは、マージモードとは違い、レジデュアル信号が伝送されなくてよい。動き情報予測(motion vector prediction,MVP)モードでは、周辺ブロックの動きベクトルを動きベクトル予測子(motion vector predictor)として用い、動きベクトル差分(motion vector difference)をシグナルすることによって現在ブロックの動きベクトルを指示することができる。
予測部120は、後述する様々な予測方法に基づいて予測信号を生成することができる。例えば、予測部は、一つのブロックに対する予測のためにイントラ予測又はインター予測を適用できる他に、イントラ予測とインター予測を同時に適用することもできる。これをCIIP(combined inter and intra prediction)と呼ぶことができる。また、予測部は、ブロックに対する予測のためにイントラブロックコピー(intra block copy,IBC)予測モードに基づいてもよく、又はパレットモード(palette mode)に基づいてもよい。前記IBC予測モード又はパレットモードは、例えばSCC(screen content coding)などのようにゲームなどのコンテンツ映像/動映像のコーディングのために用いられてよい。IBCは基本的に現在ピクチャー内で予測を行うが、現在ピクチャー内で参照ブロックを導出する点でインター予測と類似に行われてよい。すなわち、IBCは、本文書で説明されるインター予測手法のうち少なくとも一つを用いることができる。パレットモードは、イントラコーディング又はイントラ予測の一例と見なすことができる。パレットモードが適用される場合に、パレットテーブル及びパレットインデックスに関する情報に基づいてピクチャー内サンプル値をシグナルすることができる。
前記予測部(インター予測部121及び/又は前記イントラ予測部122含む。)で生成された予測信号は、復元信号を生成するために用いられるか、レジデュアル信号を生成するために用いられてよい。変換部132は、レジデュアル信号に変換手法を適用して変換係数(transform coefficients)を生成することができる。例えば、変換手法は、DCT(Discrete Cosine Transform)、DST(Discrete Sine Transform)、KLT(Karhunen-Loeve Transform)、GBT(Graph-Based Transform)、又はCNT(Conditionally Non-linear Transform)のうち少なくとも一つを含むことができる。ここで、GBTは、ピクセル間の関係情報をグラフで表現するとするとき、このグラフから得られた変換を意味する。CNTは、以前に復元された全てのピクセル(all previously reconstructed pixel)を用いて予測信号を生成し、それに基づいて取得される変換を意味する。また、変換過程は、正方形の同一サイズを有するピクセルブロックに適用されてもよく、正方形以外の可変サイズのブロックに適用されてもよい。
量子化部133は、変換係数を量子化してエントロピーエンコーディング部140に伝送し、エントロピーエンコーディング部140は、量子化された信号(量子化された変換係数に関する情報)をエンコードしてビットストリームとして出力できる。前記量子化された変換係数に関する情報は、レジデュアル情報と呼ぶことができる。量子化部133は、係数スキャン順序(scan order)に基づき、ブロック形態の量子化された変換係数を1次元ベクトルの形態で再整列でき、前記1次元ベクトル形態の量子化された変換係数に基づき、前記量子化された変換係数に関する情報を生成することもできる。エントロピーエンコーディング部140は、例えば、指数ゴロム(exponential Golomb)、CAVLC(context-adaptive variable length coding)、CABAC(context-adaptive binary arithmetic coding)などのような様々なエンコーディング方法を行うことができる。エントロピーエンコーディング部140は、量子化された変換係数の他にも、ビデオ/イメージ復元に必要な情報(例えば、シンタックス要素(syntax elements)の値など)を共に又は別にエンコードすることもできる。エンコードされた情報(例えば、エンコードされたビデオ/映像情報)は、ビットストリームの形態でNAL(network abstraction layer)ユニット単位で伝送又は記憶されてよい。前記ビデオ/映像情報は、アダプテーションパラメータセット(APS)、ピクチャーパラメータセット(PPS)、シーケンスパラメータセット(SPS)又はビデオパラメータセット(VPS)などの様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/映像情報は、一般制限情報(general constraint information)をさらに含むことができる。本文書において、エンコーディング装置でデコーディング装置に伝達/シグナルされる情報及び/又はシンタックス要素は、ビデオ/映像情報に含まれてよい。前記ビデオ/映像情報は、上述のエンコーディング手順によってエンコードされて前記ビットストリームに含まれてよい。前記ビットストリームはネットワークを介して伝送されてよく、又はデジタル記憶媒体に記憶されてよい。ここで、ネットワークは放送網及び/又は通信網などを含むことができ、デジタル記憶媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなどの様々な記憶媒体を含むことができる。エントロピーエンコーディング部140から出力された信号を伝送する送信部(図示せず)及び/又は記憶する記憶部(図示せず)がエンコーディング装置100の内/外部エレメントとして構成されてよく、又は送信部はエントロピーエンコーディング部140に含まれてもよい。
量子化部133から出力された量子化された変換係数は、予測信号を生成するために用いられてよい。例えば、量子化された変換係数に、逆量子化部134及び逆変換部135で逆量子化及び逆変換を適用することによって、レジデュアル信号(レジデュアルブロック又はレジデュアルサンプル)を復元することができる。加算部150は、復元されたレジデュアル信号を、インター予測部121又はイントラ予測部122から出力された予測信号に加算することによって、復元(reconstructed)信号(復元ピクチャー、復元ブロック、復元サンプルアレイ)を生成することができる。スキップモードが適用された場合のように処理対象ブロックに対するレジデュアルがない場合に、予測されたブロックが復元ブロックとして用いられてよい。加算部150は、復元部又は復元ブロック生成部と呼ぶことができる。生成された復元信号は、現在ピクチャー内の次の処理対象ブロックのイントラ予測のために用いられてよく、後述するように、フィルタリングを経て次のピクチャーのインター予測のために用いられてもよい。
一方、ピクチャーエンコーディング及び/又は復元過程においてLMCS(luma mapping with chroma scaling)が適用されてもよい。
フィルタリング部160は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部160は、復元ピクチャーに様々なフィルタリング方法を適用し、修正された(modified)復元ピクチャーを生成でき、前記修正された復元ピクチャーをメモリ170、具体的にメモリ170のDPBに記憶させることができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルター(adaptive loop filter)、両方向フィルター(bilateral filter)などを含むことができる。フィルタリング部160は、各フィルタリング方法に関する説明で後述されるように、フィルタリングに関する様々な情報を生成してエントロピーエンコーディング部140に伝達することができる。フィルタリング関する情報は、エントロピーエンコーディング部140でエンコードされてビットストリームの形態で出力されてよい。
メモリ170に伝送された修正された復元ピクチャーは、インター予測部121で参照ピクチャーとして用いられてよい。エンコーディング装置は、これによってインター予測が適用される場合に、エンコーディング装置100とデコーディング装置での予測ミスマッチを避けることができ、符号化効率も向上させることができる。
メモリ170のDPBは、修正された復元ピクチャーをインター予測部121での参照ピクチャーとして使用するために記憶することができる。メモリ170は、現在ピクチャー内動き情報が導出された(又は、エンコードされた)ブロックの動き情報及び/又は既に復元されたピクチャー内ブロックの動き情報を記憶することができる。前記記憶された動き情報は、空間的周辺ブロックの動き情報又は時間的周辺ブロックの動き情報として活用するためにインター予測部121に伝達することができる。メモリ170は、現在ピクチャー内復元されたブロックの復元サンプルを記憶することができ、イントラ予測部122に伝達することができる。
図2は、本文書の実施例が適用可能なビデオ/映像デコーディング装置の構成を概略的に説明する図である。
図2を参照すると、デコーディング装置200は、エントロピーデコーディング部(entropy decoder,210)、レジデュアル処理部(residual processor,220)、予測部(predictor,230)、加算部(adder,240)、フィルタリング部(filter,250)及びメモリ(memory,260)を含んで構成されてよい。予測部230は、インター予測部231及びイントラ予測部232を含むことができる。レジデュアル処理部220は、逆量子化部(dequantizer,221)及び逆変換部(inverse transformer,222)を含むことができる。上述したエントロピーデコーディング部210、レジデュアル処理部220、予測部230、加算部240及びフィルタリング部250は、実施例によって、一つのハードウェアコンポーネント(例えば、デコーダチップセット又はプロセッサ)によって構成されてもよい。また、メモリ260は、DPB(decoded picture buffer)を含むことができ、デジタル記憶媒体によって構成されてもよい。前記ハードウェアコンポーネントは、メモリ260を内/外部コンポーネントとしてさらに含むこともできる。
ビデオ/映像情報を含むビットストリームが入力されると、デコーディング装置200は、図1のエンコーディング装置でビデオ/映像情報が処理されたプロセスに対応して映像を復元することができる。例えば、デコーディング装置200は、前記ビットストリームから取得したブロック分割関連情報に基づいてユニット/ブロックを導出することができる。デコーディング装置200は、エンコーディング装置で適用された処理ユニットを用いてデコーディングを行うことができる。したがって、デコーディングの処理ユニットは、例えばコーディングユニットであってよく、コーディングユニットは、コーディングツリーユニット又は最大コーディングユニットから、クアッドツリー構造、バイナリツリー構造及び/又はタナーリーツリー構造をしたがって分割されてよい。コーディングユニットから1つ以上の変換ユニットが導出されてよい。そして、デコーディング装置200でデコーディング及び出力された復元映像信号は、再生装置で再生されてよい。
デコーディング装置200は、図1のエンコーディング装置から出力された信号をビットストリームの形態で受信することができ、受信された信号は、エントロピーデコーディング部210でデコードされてよい。例えば、エントロピーデコーディング部210は、前記ビットストリームをパーシングし、映像復元(又は、ピクチャー復元)に必要な情報(例えば、ビデオ/映像情報)を導出することができる。前記ビデオ/映像情報は、アダプテーションパラメータセット(APS)、ピクチャーパラメータセット(PPS)、シーケンスパラメータセット(SPS)又はビデオパラメータセット(VPS)などの様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/映像情報は、一般制限情報(general constraint information)をさらに含むことができる。デコーディング装置は、前記パラメータセットに関する情報及び/又は前記一般制限情報にさらに基づいてピクチャーをデコードすることができる。本文書で後述されるシグナリング/受信される情報及び/又はシンタックス要素は、前記デコーディング手順によってデコードされ、前記ビットストリームから取得されてよい。例えば、エントロピーデコーディング部210は、指数ゴロム符号化、CAVLC又はCABACなどのコーディング方法に基づいてビットストリーム内情報をデコードし、映像復元に必要なシンタックスエレメントの値、レジデュアルに関する変換係数の量子化された値を出力することができる。より詳細には、CABACエントロピーデコーディング方法は、ビットストリームから各構文要素に該当するビン(bin)を受信し、デコーディング対象構文要素情報、周辺及びデコーディング対象ブロックのデコーディング情報、或いは以前段階でデコードされたシンボル/ビンの情報を用いて文脈(context)モデルを決定し、決定された文脈モデルによってビン(bin)の発生確率を予測してビンの算術デコーディング(arithmetic decoding)を行い、各構文要素の値に該当するシンボルを生成することができる。このとき、CABACエントロピーデコーディング方法は、文脈モデル決定後に、次のシンボル/ビンの文脈モデルのためにデコードされたシンボル/ビンの情報を用いて文脈モデルをアップデートすることができる。エントロピーデコーディング部210でデコードされた情報のうち予測に関する情報は予測部230(インター予測部232及びイントラ予測部231)に提供され、エントロピーデコーディング部210でエントロピーデコーディングが行われたレジデュアル値、すなわち、量子化された変換係数及び関連パラメータ情報は、レジデュアル処理部220に入力されてよい。レジデュアル処理部220は、レジデュアル信号(レジデュアルブロック、レジデュアルサンプル、レジデュアルサンプルアレイ)を導出することができる。また、エントロピーデコーディング部210でデコードされた情報のうちフィルタリングに関する情報は、フィルタリング部250に提供されてよい。一方、エンコーディング装置から出力された信号を受信する受信部(図示せず)がデコーディング装置200の内/外部エレメントとしてさらに構成されてよく、又は受信部はエントロピーデコーディング部210の構成要素であってよい。一方、本文書に係るデコーディング装置は、ビデオ/映像/ピクチャーデコーディング装置と呼ぶことができ、該デコーディング装置は、情報デコーダ(ビデオ/映像/ピクチャー情報デコーダ)及びサンプルデコーダ(ビデオ/映像/ピクチャーサンプルデコーダ)に区別できる。前記情報デコーダは、前記エントロピーデコーディング部210を含むことができ、前記サンプルデコーダは、前記逆量子化部221、逆変換部222、加算部240、フィルタリング部250、メモリ260、インター予測部232及びイントラ予測部231のうち少なくとも一つを含むことができる。
逆量子化部221では、量子化された変換係数を逆量子化して変換係数を出力できる。逆量子化部221は、量子化された変換係数を、2次元ブロックの形態で再整列できる。この場合、前記再整列は、エンコーディング装置で行われた係数スキャン順序に基づいて再整列を行うことができる。逆量子化部221は、量子化パラメータ(例えば、量子化ステップサイズ情報)を用いて量子化された変換係数に対する逆量子化を行い、変換係数(transform coefficient)を取得することができる。
逆変換部222では、変換係数を逆変換してレジデュアル信号(レジデュアルブロック、レジデュアルサンプルアレイ)を取得する。
予測部は、現在ブロックに対する予測を行い、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、エントロピーデコーディング部210から出力された前記予測に関する情報に基づいて、前記現在ブロックにイントラ予測が適用されるか又はインター予測が適用されるかが決定でき、具体的なイントラ/インター予測モードを決定することができる。
予測部220は、後述する様々な予測方法に基づいて予測信号を生成できる。例えば、予測部は、一つのブロックに対する予測のためにイントラ予測又はインター予測を適用できる他に、イントラ予測とインター予測を同時に適用することもできる。これをCIIP(combined inter and intra prediction)モードと呼ぶことができる。また、予測部は、ブロックに対する予測のために、イントラブロックコピー(intra block copy,IBC)予測モードに基づいてもよく、又はパレットモード(palette mode)に基づいてもよい。前記IBC予測モード又はパレットモードは、例えば、SCC(screen content coding)などのようにゲームなどのコンテンツ映像/動映像のコーディングのために用いられてよい。IBCは基本的に現在ピクチャー内で予測を行うが、現在ピクチャー内で参照ブロックを導出する点でインター予測と類似に行われてよい。すなわち、IBCは、本文書で説明されるインター予測手法のうち少なくとも一つを用いることができる。パレットモードは、イントラコーディング又はイントラ予測の一例と見なすことができる。パレットモードが適用される場合に、パレットテーブル及びパレットインデックスに関する情報が前記ビデオ/映像情報に含まれてシグナルされてよい。
イントラ予測部231は、現在ピクチャー内のサンプルを参照して現在ブロックを予測できる。前記参照されるサンプルは、予測モードによって、前記現在ブロックの周辺(neighbor)に位置してもよく、又は離れて位置してもよい。イントラ予測において、予測モードは複数の非方向性モードと複数の方向性モードを含むことができる。イントラ予測部231は、周辺ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測部232は、参照ピクチャー上で動きベクトルによって特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。このとき、インター予測モードで伝送される動き情報の量を減らすために、周辺ブロックと現在ブロック間の動き情報の相関性に基づいて動き情報をブロック、サブブロック又はサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャーインデックスを含むことができる。前記動き情報は、インター予測方向情報(L0予測、L1予測、Bi予測など)をさらに含むことができる。インター予測において、周辺ブロックは、現在ピクチャー内に存在する空間的周辺ブロック(spatial neighboring block)と、参照ピクチャーに存在する時間的周辺ブロック(temporal neighboring block)を含むことができる。例えば、インター予測部232は、周辺ブロックに基づいて動き情報候補リストを構成し、受信した候補選択情報に基づいて前記現在ブロックの動きベクトル及び/又は参照ピクチャーインデックスを導出することができる。様々な予測モードに基づいてインター予測が行われてよく、前記予測に関する情報は、前記現在ブロックに対するインター予測モードを指示する情報を含むことができる。
加算部240は、取得されたレジデュアル信号を、予測部(インター予測部232及び/又はイントラ予測部231含む。)から出力された予測信号(予測ブロック、予測サンプルアレイ)に足すことにより、復元信号(復元ピクチャー、復元ブロック、復元サンプルアレイ)を生成することができる。スキップモードが適用された場合のように、処理対象ブロックに対するレジデュアルがない場合に、予測されたブロックが復元ブロックとして用いられてよい。
加算部240は、復元部又は復元ブロック生成部と呼ぶことができる。生成された復元信号は、現在ピクチャー内の次の処理対象ブロックのイントラ予測のために用いられてよく、後述するように、フィルタリングを経て出力されてもよく、又は次のピクチャーのインター予測のために用いられてもよい。
一方、ピクチャーデコーディング過程でLMCS(luma mapping with chroma scaling)が適用されてもよい。
フィルタリング部250は、復元信号にフィルタリングを適用して、主観的/客観的画質を向上させることができる。例えば、フィルタリング部250は、復元ピクチャーに様々なフィルタリング方法を適用して、修正された(modified)復元ピクチャーを生成でき、前記修正された復元ピクチャーを、メモリ260、具体的にメモリ260のDPBに伝送することができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルター(adaptive loop filter)、両方向フィルター(bilateral filter)などを含むことができる。
メモリ260のDPBに記憶された(修正された)復元ピクチャーは、インター予測部232で参照ピクチャーとして用いられてよい。メモリ260は、現在ピクチャー内の動き情報が導出された(又は、デコードされた)ブロックの動き情報、及び/又は既に復元されたピクチャー内のブロックの動き情報を記憶することができる。該記憶された動き情報は、空間的周辺ブロックの動き情報又は時間的周辺ブロックの動き情報として活用するためにインター予測部232に伝達することができる。メモリ260は、現在ピクチャー内の復元されたブロックの復元サンプルを記憶でき、イントラ予測部231に伝達することができる。
本明細書において、エンコーディング装置100のフィルタリング部160、インター予測部121及びイントラ予測部122で説明された実施例は、それぞれ、デコーディング装置200のフィルタリング部250、インター予測部232及びイントラ予測部231にも同一に又は対応するように適用されてよい。
上述したように、ビデオコーディングを行うとき、圧縮効率を高めるために予測を行う。これにより、コーディング対象ブロックである現在ブロックに対する予測サンプルを含む予測されたブロックを生成できる。ここで、予測されたブロックは、空間ドメイン(又は、ピクセルドメイン)における予測サンプルを含む。予測されたブロックは、エンコーディング装置及びデコーディング装置で同一に導出され、エンコーディング装置は、原本ブロックの原本サンプル値自体ではなく原本ブロック及び予測されたブロック間のレジデュアルに関する情報(レジデュアル情報)をデコーディング装置にシグナルすることによって映像コーディング効率を高めることができる。デコーディング装置は、レジデュアル情報に基づいて、レジデュアルサンプルを含むレジデュアルブロックを導出し、レジデュアルブロック及び予測されたブロックを合わせて復元サンプルを含む復元ブロックを生成でき、復元ブロックを含む復元ピクチャーを生成できる。
前記レジデュアル情報は、変換及び量子化手順によって生成されてよい。例えば、エンコーディング装置は、原本ブロック及び予測されたブロック間のレジデュアルブロックを導出し、レジデュアルブロックに含まれたレジデュアルサンプル(レジデュアルサンプルアレイ)に変換手順を行って変換係数を導出し、変換係数に量子化手順を行って量子化された変換係数を導出することにより、関連したレジデュアル情報を(ビットストリームを用いて)デコーディング装置にシグナルすることができる。ここで、レジデュアル情報は、量子化された変換係数の値情報、位置情報、変換手法、カーネル、量子化パラメータなどの情報を含むことができる。デコーディング装置は、レジデュアル情報に基づいて逆量子化/逆変換手順を行い、レジデュアルサンプル(又は、レジデュアルブロック)を導出することができる。デコーディング装置は、予測されたブロックとレジデュアルブロックに基づいて復元ピクチャーを生成できる。エンコーディング装置は、また、以後のピクチャーのインター予測のための参照のために、量子化された変換係数を逆量子化/逆変換してレジデュアルブロックを導出し、これに基づいて復元ピクチャーを生成できる。
一方、VVCシステムでは、ピクチャーがいずれか他のピクチャーに対する参照ピクチャーとして用いられないか否かをシステムレベルエンティティ(system level entity)に知らせるためのシグナリングメカニズムがある。このような情報により、システムレベルエンティティは、ある特定の状況でピクチャーを除去することができる。すなわち、システムレベルエンティティは、他のピクチャーに対する参照として用いられないと表示されたピクチャーを除去することができる。例えば、ネットワーク輻輳が発生すると、メディア認識ネットワークルーターは、他のピクチャーに対して参照として用いられないと表示されたピクチャーのコード化されたビットを伝達するネットワークパケットをドロップさせることができる。
下表1は、前記内容に対するフラグ情報を示している。
Figure 2023526535000002
表1のように、ph_non_ref_pic_flagの値が1であれば、ピクチャーヘッダーと関連しているピクチャーが参照ピクチャーとして用いられないことを示し、その値が0であれば、ピクチャーヘッダーと関連しているピクチャーが参照ピクチャーとして用いられても用いられなくてもよいことを示す。
一方、現在、VVCスペックに記述されている現在ピクチャーのPOC値を導出する過程について説明すると、次の通りである。
この過程によって現在ピクチャーのPOCである変数PicOrderCntValが導出されてよい。
変数PicOrderCntValが導出されるにはハイレベルシンタックスでシグナルされる映像情報が必要であり、具体的には次の通りである。
nuh_layer_idはNALユニットヘッダーでシグナルされ、VCL NALユニットの属するレイヤ又はnon-VCL NALユニットの適用されるレイヤを識別するための識別子である。
図3は、コードされた映像/ビデオに対する階層構造の例を示す図である。図3に示すように、コードされた映像/ビデオは映像/ビデオのデコーディング処理及びそれ自体を扱うVCL(video coding layer,ビデオコーディング層)、符号化された情報を伝送して記憶する下位システム、そしてVCLと下位システムとの間に存在し、ネットワーク適応機能を担当するNAL(network abstraction layer,ネットワーク抽象化層)に区分されている。
VCLでは、圧縮された映像データ(スライスデータ)を含むVCLデータを生成したり、或いはピクチャーパラメータセット(Picture Parameter Set:PPS)、シーケンスパラメータセット(Sequence Parameter Set:SPS)、ビデオパラメータセット(Video Parameter Set:VPS)などの情報を含むパラメータセット又は映像のデコーディング過程に付加的に必要なSEI(Supplemental Enhancement Information)メッセージを生成することができる。
NALでは、VCLで生成されたRBSP(Raw Byte Sequence Payload)にヘッダー情報(NALユニットヘッダー)を付加してNALユニットを生成することができる。このとき、RBSPは、VCLで生成されたスライスデータ、パラメータセット、SEIメッセージなどのことを指す。NALユニットヘッダーには、当該NALユニットに含まれるRBSPデータによって特定されるNALユニットタイプ情報を含むことができる。
図3に示すように、NALユニットは、VCLで生成されたRBSPによって、VCL NALユニットとNon-VCL NALユニットとに区分されてよい。VCL NALユニットは、映像に関する情報(スライスデータ)を含んでいるNALユニットを意味でき、Non-VCL NALユニットは、映像をデコードするために必要な情報(パラメータセット又はSEIメッセージ)を含んでいるNALユニットを意味できる。
上述したVCL NALユニット、Non-VCL NALユニットは、下位システムのデータ規格にしたがってヘッダー情報が付けられ、ネットワークを通じて伝送されてよい。例えば、NALユニットは、H.266/VVCファイルフォーマット、RTP(Real-time Transport Protocol)、TS(Transport Stream)などのような所定規格のデータ形態に変形され、様々なネットワークを通じて伝送されてよい。
上述したように、NALユニットは、当該NALユニットに含まれるRBSPデータ構造(structure)によってNALユニットタイプが特定されてよく、このようなNALユニットタイプに関する情報はNALユニットヘッダーに記憶されてシグナルされてよい。
例えば、NALユニットが映像に関する情報(スライスデータ)を含むか否かによって、大きく、VCL NALユニットタイプとNon-VCL NALユニットタイプとに分類されてよい。VCL NALユニットタイプは、VCL NALユニットが含むピクチャーの性質及び種類などによって分類されてよく、Non-VCL NALユニットタイプは、パラメータセットの種類などによって分類されてよい。
上述したNALユニットタイプは、NALユニットタイプのためのシンタックス情報を有し、前記シンタックス情報はNALユニットヘッダーに記憶されてシグナルされてよい。例えば、前記シンタックス情報はnal_unit_typeであってよく、NALユニットタイプはnal_unit_type値で特定されてよい。
vps_independent_layer_flag[i]は、ビデオパラメータセットでシグナルされるフラグ情報であり、その値が1であれば、iとインデックスされたレイヤが、レイヤ間インター予測、すなわちインターレイヤ予測に用いられないことを指示し、その値が0であれば、iとインデックスされたレイヤがインターレイヤ予測に用いられることを示す。
sps_log2_max_pic_order_cnt_lsb_minus4は、シーケンスパラメータセットでシグナルされる信号であり、POCのデコーディング過程で用いられる変数MaxPicOrderCntLsb値を示す。変数MaxPicOrderCntLsbは、2(sps_log2_max_pic_order_cnt_lsb_minus4+4)として具体化されてよい。
sps_poc_msb_cycle_len_minus1に1を足した値は、ph_poc_msb_cycle_valシンタックス要素のビット長を示す。
ph_pic_order_cnt_lsbは、現在ピクチャーのPOCを変数MaxPicOrderCntLsbで割った値を示し、ph_pic_order_cnt_lsbの長さは、sps_log2_max_pic_order_cnt_lsb_minus4+4ビットである。ph_pic_order_cnt_lsbの値は、0から(MaxPicOrderCntLsb-1)の範囲内に存在する。
ph_poc_msb_cycle_present_flagは、ピクチャーヘッダーにph_poc_msb_cycle_valシンタックス要素が存在するか否かを示すフラグ情報である。ph_poc_msb_cycle_present_flag値が1であれば、ph_poc_msb_cycle_valシンタックス要素がピクチャーヘッダーに存在することを示し、ph_poc_msb_cycle_present_flag値が0であれば、ph_poc_msb_cycle_valシンタックス要素がピクチャーヘッダーに存在しないことを示す。vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]が0であり、現在レイヤの参照レイヤ内の現在AUにピクチャーが存在すると、ph_poc_msb_cycle_present_flag値は0である。
ph_poc_msb_cycle_valは、現在ピクチャーに対するPOC MSBサイクル値を示す。ph_poc_msb_cycle_valシンタックス要素の長さは、sps_poc_msb_cycle_len_minus1+1ビットである。
仮に、vps_independent_layer_flag[GeneralLayerIdx[nuh_layer_id]]が0であり、現在レイヤの参照レイヤ内の現在AUに含まれるピクチャーAが存在すると、変数PicOrderCntValは、ピクチャーAのPicOrderCntValと同じ値として導出され、現在AU内の全てのVCL NALユニットは、同一のph_pic_order_cnt_lsb値を有する必要がある。
そうでない場合、すなわち、現在レイヤがインターレイヤ予測に用いられない場合に、現在ピクチャーの変数PicOrderCntValは次のように導出されてよい。
まず、ph_poc_msb_cycle_present_flagが0であり、現在ピクチャーがCLVSS(coded layer video sequence start)でないと、変数prevPicOrderCntLsbと変数prevPicOrderCntMsbは次のように導出される。
現在ピクチャーとnuh_layer_idが同一であるとともにTemporalIdが0であり、RASL(random access skipped leading)ピクチャー又はRADL(random access decodable leading)ピクチャーでない以前ピクチャーをprevTid0Picに設定すれば、変数prevPicOrderCntLsbはprevTid0Picのph_pic_order_cnt_lsbと同一であり、変数prevPicOrderCntMsbはprevTid0PicのPicOrderCntMsbと同一である。
ここで、TemporalIdは、時間スケーラビリティーを支援するビットストリーム(或いは、時間スケーラブルビットストリーム(temporal scalable bitstream))から、時間レイヤに対する識別情報に基づいて導出される変数を意味する。
時間スケーラビリティーを支援するビットストリーム(或いは、時間スケーラブルビットストリーム(temporal scalable bitstream))は、時間的にスケールされる時間レイヤ(Temporal layer)に関する情報を含む。時間レイヤに関する情報は、NALユニットの時間スケーラビリティーによって特定された時間レイヤの識別情報であってよい。例えば、時間レイヤの識別情報は、temporal_idシンタックス情報を用いることができ、前記temporal_idシンタックス情報は、エンコーディング装置でNALユニットヘッダーに記憶されてデコーディング装置にシグナルされてよい。以下、本明細書において、時間レイヤは、サブレイヤ(Sub-layer)、時間サブレイヤ(Temporal Sub-layer)或いは時間スケーラブルレイヤ(Temporal Scalable layer)などと呼ぶこともできる。
図4は、時間スケーラビリティーを支援するビットストリーム内のNALユニットに対する時間レイヤ構造を示す図である。
ビットストリームが時間スケーラビリティーを支援する場合に、ビットストリームに含まれたNALユニットは、時間レイヤの識別情報(例えば、temporal_id)を有する。一例として、temporal_id値が0であるNALユニットで構成された時間レイヤが最低の時間スケーラビリティーを提供し、temporal_id値が2であるNALユニットで構成された時間レイヤが最高の時間スケーラビリティーを提供することができる。
図4で、Iと表記されたボックスは、Iピクチャーを示し、Bと表記されたボックスはBピクチャーを示す。また、矢印は、ピクチャーが他のピクチャーを参照するか否かに対する参照関係を示す。
図4に示すように、temporal_id値が0である時間レイヤのNALユニットは、temporal_id値が0、1又は2である時間レイヤのNALユニットが参照できる参照ピクチャーである。temporal_id値が1である時間レイヤのNALユニットは、temporal_id値が1又は2である時間レイヤのNALユニットが参照できる参照ピクチャーである。temporal_id値が2である時間レイヤのNALユニットは、同一の時間レイヤ、すなわちtemporal_id値が2である時間レイヤのNALユニットが参照できる参照ピクチャーであってもよく、或いは他のピクチャーによって参照されない非参照ピクチャーであってもよい。
万一、図4に示すようにtemporal_id値が2である時間レイヤ、すなわち最上位時間レイヤのNALユニットが非参照ピクチャーであれば、このようなNALユニットは、デコーディング過程で他のピクチャーに影響を与えずにビットストリームから抽出(extraction、或いは除去)されてよい。
一方、現在ピクチャーに対する変数PicOrderCntMsbは次のように導出される。
仮に、ph_poc_msb_cycle_present_flag値が1であれば、変数PicOrderCntMsbは、ph_poc_msb_cycle_valにMaxPicOrderCntLsbをかけた値(ph_poc_msb_cycle_val*MaxPicOrderCntLsb)になる。
そうでなければ、すなわちph_poc_msb_cycle_present_flag値が0であれば、現在ピクチャーがCVSSピクチャーである場合に変数PicOrderCntMsbは0になる。
仮に、ph_poc_msb_cycle_present_flag値が0であり、現在ピクチャーがCVSSピクチャーでないと、変数PicOrderCntMsbは下記数式に基づいて導出されてよい。
Figure 2023526535000003
最終的に、現在ピクチャーのPOC値である変数PicOrderCntValは、以前に導出された変数PicOrderCntMsbとph_pic_order_cnt_lsbの和として導出される。
ここで、ph_poc_msb_cycle_val値が存在しない全てのCVSSピクチャーは、変数PicOrderCntMsb値が0であるので、PicOrderCntValはph_pic_order_cnt_lsbと同一である。
PicOrderCntVal値は、-231から231-1の範囲の値を有してよく、1つのCVSで同一のnuh_layer_idを有する2つのコードされたピクチャーは同一のPicOrderCntVal値を有してよい。
また、特定AU内の全てのピクチャーは、同一のPicOrderCntVal値を有しなければならない。
一方、上述したPOCデコーディング段階では、参照されていないピクチャーと関連して問題点がある。POCデコーディング過程でPicOrderCntMsbに対する類推は、prevTid0PicでデザインされたピクチャーのPOC値によって変わり得る。現在ピクチャーに対するprevTid0Picはエンコーディング及びデコーディング過程で同一のピクチャーでなければならず、POC値が同一である。
しかし、prevTid0Picを決定するとき、ph_non_ref_pic_flagの値が1であるため、prevTid0Picがシステムエンティティ(system entity)によって除去され得るピクチャーであるか否かは考慮されない。現在ピクチャーに対してprevTid0Picとして指定されたピクチャーがビットストリームに存在するとき、システムによって除去されたため、デコーディング装置は現在ピクチャーのPOCデコーディングのために他のピクチャーをprevTid0Picとして無意識的に使用することがある。その結果、デコーディング装置が誤ったPOC値を導出することがある。
これを解決するために、本文書では次のような様々な実施例が提案されてよい。各実施例は独立して又は結合して映像デコーディング及びエンコーディング過程に適用されてよい。
1.POCデコーディング過程でprevTid0Picとして選択されたピクチャーは、ph_non_ref_pic_flagが1であるピクチャーでないものに制限されてよい。
2.TemporalIdが0であるピクチャーのph_non_ref_pic_flag値は1にならないように制限されてよい。
3.CLVS(すなわち、コードされたレイヤビデオシーケンス)が一つ以上の時間的サブレイヤ(temporal sub-layer)を有するとき、基本時間的サブレイヤ内のいかなるピクチャー(すなわち、TemporalIdが0であるピクチャー)もph_non_ref_pic_flagの値として1を有することがないように制限されてよい。
4.CLVSが、オールイントラピクチャー(all intra pictures、すなわち、intra_only_constraint_flagの値が1と同様)でないピクチャーを含むとき、TemporalIdが0であるピクチャーは、ph_non_ref_pic_flagの値として1を有することがないように制限されてよい。
5.CLVSがオールイントラピクチャー(すなわち、intra_only_constraint_flagの値が1である場合)でないピクチャーを含み、CLVS内に一つ以上の時間サブレイヤが存在する場合に、TemporalIdが0であるピクチャーはph_non_ref_pic_flagの値として1を有することがないように制限されてよい。
6.TemporalIdが0であり、ph_non_ref_pic_flagが0である2つの連続したピクチャー対に対して、ピクチャー間の絶対的なPOC差はMaxPicOrderCntLsbの半分値よりも大きくないように制限されてよい。
すなわち、非参照ピクチャーがPOCデコーディング過程に用いられてPOCが誤って導出されることを防ぐために、本文書では、TemporalIdが0である非参照ピクチャーはPOCデコーディング過程に用いられないようにし、さらに、TemporalIdが0であり、ph_non_ref_pic_flagが0である2つの連続したピクチャー間のPOC値の差がMaxPicOrderCntLsbの半分よりも大きくないように制限できる。
図5は、本文書の一例によってエンコーディング装置で行われる映像情報のエンコーディング方法を説明するための図であり、図6は、本文書の一例によってデコーディング装置で行われる映像情報のデコーディング方法を説明するための図である。
エンコーディング装置は、参照ピクチャーセットを構成するために参照ピクチャーのPOC値を導出し、現在ピクチャーのPOC値を導出することができる(S510)。
導出された現在ピクチャーに関するPOC情報をエンコードし(S520)、前記POC情報を含む映像情報をエンコードすることができる(S530)。
エンコーディング装置で行われる動作に対応して、デコーディング装置は、ビットストリームからPOC情報を含む映像情報を取得し(S610)、POC情報に基づいて参照ピクチャーと現在ピクチャーのPOC値を導出することができる(S620)。
導出されたPOC値に基づいて参照ピクチャーセットを構成し(S630)、参照ピクチャーセットに基づいて参照ピクチャーリストを導出することができる(S640)。
導出された参照ピクチャーリストに基づいて現在ピクチャーに対するインター予測が行われてよい(S650)。
POC情報のような映像情報はHLS( High level syntax)に含まれてよい。POC情報は、POCに関連した情報及びシンタックス要素を含むことができ、POC情報は、現在ピクチャーに関連したPOC情報及び/又は参照ピクチャーに関連したPOC情報を含むことができる。POC情報は、ph_non_reference_picture_flag、ph_non_reference_picture_flag、ph_poc_msb_cycle_present_flag及び/又はph_poc_msb_cycle_valのうち少なくとも一つを含むことができる。
上記の図5及び図6で導出される参照ピクチャーセット又は参照ピクチャーリストのいずれか一つは省略されてよい。例えば、参照ピクチャーリストを導出するS640は省略され、参照ピクチャーセットに基づいてインター予測が行われてよい。
又は、他の例によって参照ピクチャーセット及び参照ピクチャーリストを導出するS630及びS640段階の代わりに、POC値に基づいて参照ピクチャーリストが導出されてよい。例えば、i番目の参照ピクチャーのPOC値は、参照ピクチャーに関連したPOC情報によって指示されるPOC差値に基づいて導出されてよい。このとき、iが0であれば、POC情報は、現在ピクチャーとi番目の参照ピクチャーとのPOC差を示すことができ、iが0よりも大きければ、POC情報は、i番目の参照ピクチャーと(i-1)番目の参照ピクチャーとのPOC差を示すことができる。参照ピクチャーは、現在ピクチャーよりも小さいPOC値を有する以前参照ピクチャー及び/又は現在ピクチャーよりも大きいPOC値を有する後続参照ピクチャーを含むことができる。
以下では、本文書で提案する実施例について具体的に説明する。
[実施例1]
表2は、前述した2.の例(TemporalIdが0であるピクチャーのph_non_ref_pic_flag値は1にならないように制限)が具現される一例に該当する。表2は、現在VVCスペックに基づいて本実施例によって追加された部分が下線で表示されている。
Figure 2023526535000004
[実施例2]
表3は、前述した3.の例(CLVSが一つ以上の時間的サブレイヤ(temporal sub-layer)を有するとき、基本時間的サブレイヤ内のいかなるピクチャーもph_non_ref_pic_flagの値として1を有することがないように制限)が具現される一例に該当する。表3は、現在VVCスペックに基づいて本実施例によって追加された部分が下線で表示されている。
Figure 2023526535000005
[実施例3]
表4は、前述した4.の例(CLVSがオールイントラピクチャーでないピクチャーを含むとき、TemporalIdが0であるピクチャーは、ph_non_ref_pic_flagの値として1を有することがないように制限)が具現される一例に該当する。表4は、現在VVCスペックに基づいて本実施例によって追加された部分が下線で表示されている。
Figure 2023526535000006
[実施例4]
表5は、前述した5.の例(CLVSがオールイントラピクチャーでないピクチャーを含み、CLVS内に一つ以上の時間サブレイヤが存在する場合に、TemporalIdが0であるピクチャーはph_non_ref_pic_flagの値として1を有することがないように制限)が具現される一例に該当する。表5は、現在VVCスペックに基づいて本実施例によって追加された部分が下線で表示されている。
Figure 2023526535000007
[実施例5]
表6は、前述した6.の例(TemporalIdが0であり、ph_non_ref_pic_flagが0である2つの連続したピクチャー対に対し、ピクチャー間の絶対的なPOC差はMaxPicOrderCntLsbの半分値よりも大きくないように制限)が具現される一例に該当する。表6は、現在VVCスペックに基づいて本実施例によって追加された部分が下線で表示されている。
Figure 2023526535000008
Figure 2023526535000009
以下の図面は、本明細書の具体的な一例を説明するために作成された。図面に表示された具体的な装置の名称や具体的な信号/メッセージ/フィールドの名称は例示的に提示されたものであり、よって、本明細書の技術的特徴は、以下の図面に使われる具体的な名称に制限されない。
図7は、本文書の一実施例に係るビデオデコーディング装置の動作を示すフローチャートである。
図7に開示された各段階は、図3~図6で前述した内容の一部に基づくものである。したがって、図2~図6で前述した内容と重複する具体的な内容については、説明を省略又は簡略化する。
一実施例に係るデコーディング装置200は、ビットストリームからPOC情報及び参照ピクチャーに関する情報を受信でき、POC情報は、POCの最大LSB値を含むことができ、参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含むことができる(S710)。
非参照ピクチャーフラグは、表1に示したph_non_ref_pic_flagであってよく、その値が1であれば、ピクチャーヘッダーと関連しているピクチャーが参照ピクチャーとして用いられないことを示し、その値が0であれば、ピクチャーヘッダーと関連しているピクチャーが参照ピクチャーとして用いられても用いられなくてもよいことを示す。すなわち、非参照ピクチャーフラグ値が0であるピクチャーは、他のピクチャーの参照ピクチャーとして用いられない。言い換えると、他のピクチャーの参照ピクチャーとして用いられるピクチャーの非参照ピクチャーフラグ値は1である。
受信されるPOC情報は、vps_independent_layer_flag、sps_log2_max_pic_order_cnt_lsb_minus4、sps_poc_msb_cycle_len_minus1、ph_pic_order_cnt_lsb、ph_poc_msb_cycle_present_flag、ph_poc_msb_cycle_valなどを含むことができ、このような情報は、ピクチャーヘッダー又はシーケンスパラメータセットでシグナルされてよい。シグナルされるシンタックス情報に関する説明は、上述した通りである。
デコーディング装置は、現在ピクチャーに対するインター予測及び参照ピクチャーリストの生成のためにPOC情報に基づいて現在ピクチャー及び参照ピクチャーに対するPOC値を導出することができる(S720)。
現在ピクチャーのPOC値を示す変数PicOrderCntValは、現在ピクチャーのMSB値を示す変数PicOrderCntMsb(変数POCMsb)とピクチャーヘッダーでシグナルされる現在ピクチャーのLSBを指示するph_pic_order_cnt_lsb(POC LSB情報)値との和として導出されてよい(変数PicOrderCntMsb+ph_pic_order_cnt_lsb)
仮に、現在ピクチャーに対するvps_independent_layer_flag値が0であるので、現在レイヤが参照ピクチャーとして用いられる場合に、現在ピクチャーは、参照レイヤ内の現在AU内に含まれているピクチャーと同じPOC値を有する。
そうでない場合、すなわち現在レイヤがインターレイヤ予測に用いられない場合に、現在ピクチャーの変数PicOrderCntValは、ph_poc_msb_cycle_present_flag値(サイクル存在フラグ)及びサイクル存在フラグ値に基づいてシグナルされるPOC MSBサイクル値(ph_poc_msb_cycle_val)に基づいて導出されてよい。このとき、サイクル存在フラグ値の存在の有無及び現在ピクチャーがCLVSS(coded layer video sequence start)ピクチャーであるか否かによって異なる導出過程が適用されてよい。
その第一は、ph_poc_msb_cycle_present_flagが0であり、現在ピクチャーがCLVSSピクチャーでないケースである。POC導出のために、以前ピクチャーに対する変数prevPicOrderCntLsbと変数prevPicOrderCntMsbが導出されてよく、現在ピクチャーに対する変数POCMsbは以前ピクチャーの変数POCMsbに基づいて導出されてよい。
現在ピクチャーとnuh_layer_idが同一であるとともにTemporalIdが0であり、RASL(random access skipped leading)ピクチャー又はRADL(random access decodable leading)ピクチャーでない以前ピクチャーをprevTid0Picに設定すると、変数prevPicOrderCntLsbはprevTid0Picのph_pic_order_cnt_lsbと同一であり、変数prevPicOrderCntMsbはprevTid0PicのPicOrderCntMsbと同一に導出される。
このとき、現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの非参照ピクチャーフラグの値は0であり、現在ピクチャーと以前ピクチャーのPOC値の差は、POCの最大LSB値の半分よりも小さいという制限が存在し得る。
また、現在ピクチャーと前記以前ピクチャーに対するレイヤIDは同一であり、以前ピクチャーに対する、時間レイヤの識別情報から導出される時間的ID(TemporalId)は、0である。現在ピクチャーのPOC導出のための以前ピクチャーはRASLピクチャー又はRADLピクチャーではない。
その後、現在ピクチャーのph_pic_order_cnt_lsbと以前ピクチャーに対する変数prevPicOrderCntLsbのサイズによって数式1のように変数PicOrderCntValが導出されてよい。
その第二は、ph_poc_msb_cycle_present_flagが0であり、現在ピクチャーがCLVSSピクチャーであるケースであり、PicOrderCntMsb値が0であるので、変数PicOrderCntValはph_pic_order_cnt_lsb値として導出される。
その第三は、ph_poc_msb_cycle_present_flag値が1であるケースであり、このとき、変数PicOrderCntMsbは、ph_poc_msb_cycle_valにMaxPicOrderCntLsbをかけた値(ph_poc_msb_cycle_val*MaxPicOrderCntLsb)として導出される。最終的に、変数PicOrderCntValは、導出された変数PicOrderCntMsbにシグナルされるph_pic_order_cnt_lsb値の和として導出される。
デコーディング装置は、現在ピクチャーのPOC値と参照ピクチャーに対するPOC値に基づいて参照ピクチャーリストを構成し(S730)、現在ブロックにインター予測を行って現在ブロックに対する予測サンプルを導出することができる(S740)。
また、デコーディング装置200は、ビットストリームから、現在ブロックに対する量子化された変換係数に関する情報をデコードすることができ、現在ブロックに対する量子化された変換係数に関する情報に基づいて、対象ブロックに対する量子化された変換係数を導出することができる。対象ブロックに対する量子化された変換係数に関する情報は、SPS(Sequence Parameter Set)又はスライスヘッダー(slice header)に含まれてよく、簡素化変換(RST)が適用されるか否かに関する情報、簡素化ファクターに関する情報、簡素化変換を適用する最小変換サイズに関する情報、簡素化変換を適用する最大変換サイズに関する情報、簡素化逆変換サイズ、変換セットに含まれたカーネルマトリックスのいずれか一つを指示する変換インデックスに関する情報のうち少なくとも一つを含むことができる。
デコーディング装置200は、現在ブロックに対するレジデュアル情報、すなわち量子化された変換係数に対して逆量子化を行って変換係数を導出することができ、導出された変換係数を所定のスキャニング順に配列することができる。
このようなレジデュアル情報に基づいて導出された変換係数は、上記のように逆量子化された変換係数であってよく、量子化された変換係数であってもよい。すなわち、変換係数は、量子化されるか否かに関係なく、現在ブロックにおいて0以外のデータか否かをチェックできるデータであればいい。
デコーディング装置は、量子化された変換係数に逆変換を適用してレジデュアルサンプルを導出することができる。
その後、デコーディング装置は、レジデュアルサンプルと予測サンプルに基づいて復元ピクチャーを生成することができる(S750)。
以下の図面は、本明細書の具体的な一例を説明するために作成された。図面に表示された具体的な装置の名称や具体的な信号/メッセージ/フィールドの名称は例示的に提示されたものであり、よって、本明細書の技術的特徴は、以下の図面に使われる具体的な名称に制限されない。
図8は、本文書の一実施例に係るビデオエンコーディング装置の動作を示すフローチャートである。
図8に開示された各段階は、図3~図6で前述した内容の一部に基づくものである。したがって、図1及び図3~図6で前述した内容と重複する具体的な内容については説明を省略又は簡略化する。
一実施例に係るエンコーディング装置100は、現在ピクチャー及び参照ピクチャーに対するPOC値を導出し(S810)、導出されたPOC値及び参照ピクチャーを用いて現在ブロックに対するインター予測を行うことができる(S820)。
エンコーディング装置は、POCの最大LSB値を含むPOC情報と、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含む参照ピクチャーに関する情報をエンコードして出力することができ、現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの非参照ピクチャーフラグの値は0であり、現在ピクチャーと以前ピクチャーのPOC値の差はPOCの最大LSB値の半分よりも小さく設定されてよい(S830)。
現在ピクチャーに関するPOC情報、現在ピクチャーのPOCを導出する方法及び以前ピクチャーに対する制限及び以前ピクチャーのPOC値に対する制限条件は、図7を参照して説明したデコーディング装置に対する内容とほぼ同一であり、重複する説明は省略する。
エンコーディング装置は、予測サンプルに基づいて現在ブロックに対するレジデュアルサンプルを導出し、変換によってレジデュアルに関する情報を生成することができる。レジデュアル情報は、上述した変換関連情報/シンタックス要素を含むことができる。エンコーディング装置は、レジデュアル情報を含む映像/ビデオ情報をエンコードしてビットストリームの形態で出力することができる。
より具体的には、エンコーディング装置は、量子化された変換係数に関する情報を生成し、生成された量子化された変換係数に関する情報をエンコードすることができる。
本文書において、量子化/逆量子化及び/又は変換/逆変換のうち少なくとも一つは省略されてよい。前記量子化/逆量子化が省略される場合に、前記量子化された変換係数は、変換係数と呼ぶことができる。前記変換/逆変換が省略される場合に、前記変換係数は、係数又はレジデュアル係数と呼ぶこともでき、又は、相変わらず、表現の統一性のために変換係数と呼ぶこともできる。
上述した実施例において、方法は、一連の段階又はブロックであり、順序図に基づいて説明されているが、本文書は、段階の順序に限定されるものではなく、ある段階は、上述したのと異なる段階及び異なる順序で又は同時に発生してもよい。また、当業者であれば、順序図に示された段階が排他的でなく、他の段階が含まれたり順序図の1つ又はそれ以上の段階が本文書の範囲に影響を及ぼさずに削除されてもよいことが理解できよう。
上述した本文書に係る方法は、ソフトウェアの形態で具現されてよく、本文書に係るエンコーディング装置及び/又はデコーディング装置は、例えば、TV、コンピュータ、スマートフォン、セットトップボックス、ディスプレイ装置などの映像処理を行う装置に含まれてよい。
本文書において、実施例がソフトウェアとして具現されるとき、上述した方法は、上述した機能を実行するモジュール(過程、機能など)として具現されてよい。モジュールは、メモリに記憶され、プロセッサによって実行されてよい。メモリはプロセッサの内部又は外部に位置してよく、周知の様々な手段によってプロセッサと連結されてよい。プロセッサは、ASIC(application-specific integrated circuit)、他のチップセット、論理回路及び/又はデータ処理装置を含むことができる。メモリは、ROM(read-only memory)、RAM(random access memory)、フラッシュメモリ、メモリカード、記憶媒体及び/又は他の記憶装置を含むことができる。すなわち、本文書で説明した実施例は、プロセッサ、マイクロプロセッサ、コントローラ又はチップ上で具現されて実行されてよい。例えば、各図に示した機能ユニットは、コンピュータ、プロセッサ、マイクロプロセッサ、コントローラ又はチップ上で具現されて実行されてよい。
また、本文書が適用されるデコーディング装置及びエンコーディング装置は、マルチメディア放送送受信装置、モバイル通信端末、ホームシネマビデオ装置、デジタルシネマビデオ装置、監視用カメラ、ビデオ会話装置、ビデオ通信のような実時間通信装置、モバイルストリーミング装置、記憶媒体、キャムコーダ、注文型ビデオ(VoD)サービス提供装置、OTTビデオ(Over the top video)装置、インターネットストリーミングサービス提供装置、3次元(3D)ビデオ装置、画像電話ビデオ装置、及び医療用ビデオ装置などに含まれてよく、ビデオ信号又はデータ信号を処理するために用いられてよい。例えば、OTTビデオ(Over the top video)装置としては、ゲームコンソール、ブルーレイプレーヤー、インターネット接続TV、ホームシアターシステム、スマートフォン、タブレットPC、DVR(Digital Video Recorder)などを含むことができる。
また、本文書が適用される処理方法は、コンピュータで実行されるプログラムの形態で生産されてよく、コンピュータ可読記録媒体に記憶されてよい。本文書によるデータ構造を有するマルチメディアデータも、コンピュータ可読記録媒体に記憶されてよい。前記コンピュータ可読記録媒体は、コンピュータで読み取り可能なデータが記憶されるあらゆる種類の記憶装置及び分散記憶装置を含む。前記コンピュータ可読記録媒体は、例えば、ブルーレイディスク(BD)、汎用直列バス(USB)、ROM、PROM、EPROM、EEPROM、RAM、CD-ROM、磁気テープ、フロッピーディスク及び光学的データ記憶装置を含むことができる。また、前記コンピュータ可読記録媒体は、搬送波(例えば、インターネットを介した送信)の形態で具現されたメディアを含む。また、エンコーディング方法で生成されたビットストリームがコンピュータ可読記録媒体に記憶されてもよく、有無線通信ネットワークを通じて送信されてもよい。また、本文書の実施例は、プログラムコードによるコンピュータプログラム製品として具現されてよく、前記プログラムコードは、本文書の実施例によってコンピュータで実行されてよい。前記プログラムコードは、コンピュータで読み取り可能なキャリア上に記憶されてよい。
図9は、本文書が適用可能なビデオ/映像コーディングシステムの例を概略的に示す図である。
図9を参照すると、ビデオ/映像コーディングシステムは、ソースデバイス及び受信デバイスを含むことができる。ソースデバイスは、エンコードされたビデオ(video)/映像(image)情報又はデータをファイル又はストリーミングの形態でデジタル記憶媒体又はネットワークを介して受信デバイスに伝達することができる。
前記ソースデバイスは、ビデオソース、エンコーディング装置、送信部を含むことができる。前記受信デバイスは、受信部、デコーディング装置及びレンダラーを含むことができる。前記エンコーディング装置はビデオ/映像エンコーディング装置と呼ばれてもよく、前記デコーディング装置はビデオ/映像デコーディング装置と呼ばれてもよい。送信機はエンコーディング装置に含まれてよい。受信機はデコーディング装置に含まれてよい。レンダラーはディスプレイ部を含むこともでき、ディスプレイ部は別個のデバイス又は外部コンポーネントで構成されてもよい。
ビデオソースは、ビデオ/映像のキャプチャー、合成又は生成過程などによってビデオ/映像を取得できる。ビデオソースは、ビデオ/映像キャプチャーデバイス及び/又はビデオ/映像生成デバイスを含むことができる。ビデオ/映像キャプチャーデバイスは、例えば、1つ以上のカメラ、以前にキャプチャーされたビデオ/映像を含むビデオ/映像アーカイブなどを含むことができる。ビデオ/映像生成デバイスは、例えば、コンピュータ、タブレット及びスマートフォンなどを含むことができ、(電子的に)ビデオ/映像を生成することができる。例えば、コンピュータなどによって仮想のビデオ/映像が生成されてよく、この場合、関連データが生成される過程でビデオ/映像のキャプチャー過程に代えてよい。
エンコーディング装置は、入力ビデオ/映像をエンコードすることができる。エンコーディング装置は、圧縮及びコーディング効率のために予測、変換、量子化などの一連の手順を行うことができる。エンコードされたデータ(エンコードされたビデオ/映像情報)は、ビットストリーム(bitstream)の形態で出力されてよい。
送信部は、ビットストリームの形態で出力されたエンコードされたビデオ/映像情報又はデータをファイル又はストリーミングの形態で、デジタル記憶媒体又はネットワークを介して受信デバイスの受信部に伝達することができる。デジタル記憶媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなどの様々な記憶媒体を含むことができる。送信部は、あらかじめ定められたファイルフォーマットによってメディアファイルを生成するためのエレメントを含むことができ、放送/通信ネットワークを介した伝送のためのエレメントを含むことができる。受信部は、前記ビットストリームを受信/抽出してデコーディング装置に伝達できる。
デコーディング装置は、エンコーディング装置の動作に対応する逆量子化、逆変換、予測などの一連の手順を行ってビデオ/映像をデコードすることができる。
レンダラーは、デコードされたビデオ/映像をレンダーすることができる。レンダーされたビデオ/映像は、ディスプレイ部でディスプレイされてよい。
図10は、本文書が適用されるコンテンツストリーミングシステム構造を例示する図である。
本文書の実施例が適用されるコンテンツストリーミングシステムは、大きく、エンコーディングサーバー、ストリーミングサーバー、ウェブサーバー、メディアストレージ、ユーザ装置及びマルチメディア入力装置を含むことができる。
前記エンコーディングサーバーは、スマートフォン、カメラ、キャムコーダなどのようなマルチメディア入力装置から入力されたコンテンツをデジタルデータとして圧縮してビットストリームを生成し、これを前記ストリーミングサーバーに送信する役割を担う。他の例として、スマートフォン、カメラ、キャムコーダなどのようなマルチメディア入力装置がビットストリームを直接生成する場合に、前記エンコーディングサーバーは省略されてよい。前記ビットストリームは、本文書が適用されるエンコーディング方法又はビットストリーム生成方法によって生成されてよく、前記ストリーミングサーバーは、前記ビットストリームを送信又は受信する過程で一時的に前記ビットストリームを記憶することができる。
前記ストリーミングサーバーは、ウェブサーバーを介したユーザ要請に基づいてマルチメディアデータをユーザ装置に送信し、前記ウェブサーバーはユーザにどのようなサービスがあるかを知らせる媒介体として働く。ユーザ所望のサービスを前記ウェブサーバーに要請すれば、前記ウェブサーバーはそれをストリーミングサーバーに伝達し、前記ストリーミングサーバーはユーザにマルチメディアデータを送信する。このとき、前記コンテンツストリーミングシステムは別個の制御サーバーを含むことができ、この場合、前記制御サーバーは前記コンテンツストリーミングシステムにおける各装置間の命令/応答を制御する役割を担う。
前記ストリーミングサーバーは、メディアストレージ及び/又はエンコーディングサーバーからコンテンツを受信することができる。例えば、前記エンコーディングサーバーからコンテンツを受信する場合に、前記コンテンツを実時間で受信することができる。この場合、円滑なストリーミングサービスを提供するために、前記ストリーミングサーバーは前記ビットストリームを一定時間記憶することができる。
前記ユーザ装置の例としては、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送用端末機、PDA(personal digital assistants)、PMP(portable multimedia player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(wearable device;例えば、ウォッチ型端末機(smartwatch)、グラス型端末機(smart glass)、HMD(head mounted display))、デジタルTV、デスクトップコンピュータ、デジタルサイネージなどを挙げることができる。前記コンテンツストリーミングシステム内の各サーバーは、分散サーバーとして運営されてよく、この場合、各サーバーで受信するデータは分散処理されてよい。
本明細書に記載された請求項は様々な方式で組み合わせられてよい。例えば、本明細書の方法請求項の技術的特徴が組み合わせられて装置として具現されてよく、本明細書の装置請求項の技術的特徴が組み合わせられて方法として具現されてよい。また、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせられて装置として具現されてよく、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせられて方法として具現されてよい。

Claims (11)

  1. デコーディング装置によって行われる映像デコーディング方法であって、
    ビットストリームからPOC情報及び参照ピクチャーに関する情報を受信する段階と、
    前記POC情報に基づいて現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階と、
    前記現在ピクチャーのPOC値と前記参照ピクチャーに対するPOC値に基づいて参照ピクチャーリストを構成する段階と、
    前記参照ピクチャーリストに基づいて現在ブロックに対するインター予測を行って前記現在ブロックに対する予測サンプルを導出する段階と、
    前記予測サンプルに基づいて復元ピクチャーを生成する段階と、を含み、
    前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、
    前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、
    前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さいことを特徴とする映像デコーディング方法。
  2. 前記現在ピクチャーと前記以前ピクチャーに対するレイヤIDは同一であり、
    前記以前ピクチャーに対する、時間レイヤの識別情報から導出される時間的IDは、0であることを特徴とする、請求項1に記載の映像デコーディング方法。
  3. 前記以前ピクチャーは、RASLピクチャー又はRADLピクチャーでないことを特徴とする、請求項1に記載の映像デコーディング方法。
  4. 前記現在ピクチャーのPOC値は、変数POCMsbと前記現在ピクチャーに対するPOC LSB情報値に基づいて導出され、
    前記変数POCMsbは、POC MSBサイクル値の存在の有無に対するサイクル存在フラグ及び前記サイクル存在フラグ値に基づいてシグナルされるPOC MSBサイクル値に基づいて導出されることを特徴とする、請求項1に記載の映像デコーディング方法。
  5. 前記現在ピクチャーに対する前記サイクル存在フラグの値が0であり、前記現在ピクチャーがCLVSSピクチャーでないと、
    前記現在ピクチャーに対する前記変数POCMsbは、前記以前ピクチャーの前記変数POCMsbに基づいて導出されることを特徴とする、請求項4に記載の映像デコーディング方法。
  6. 映像エンコーディング装置によって行われる映像エンコーディング方法であって、
    現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階と、
    前記参照ピクチャーを用いて前記現在ブロックに対するインター予測を行う段階と、
    POC情報と前記参照ピクチャーに関する情報をエンコードする段階と、を含み、
    前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、
    前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、
    前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さいことを特徴とする映像エンコーディング方法。
  7. 前記現在ピクチャーと前記以前ピクチャーに対するレイヤIDは同一であり、
    前記以前ピクチャーに対する、時間レイヤを識別する時間的IDは、0であることを特徴とする、請求項6に記載の映像エンコーディング方法。
  8. 前記以前ピクチャーは、RASLピクチャー又はRADLピクチャーでないことを特徴とする、請求項6に記載の映像エンコーディング方法。
  9. 前記現在ピクチャーのPOC値は、変数POCMsbと前記現在ピクチャーに対するPOC LSB情報値に基づいて導出され、
    前記変数POCMsbは、前記現在ピクチャーに対するPOC MSBサイクル値の存在の有無及び前記現在ピクチャーに対するPOC MSBサイクル値に基づいて導出されることを特徴とする、請求項7に記載の映像エンコーディング方法。
  10. 前記現在ピクチャーに対するPOC MSBサイクル値が存在しなく、前記現在ピクチャーがCLVSSピクチャーでないと、
    前記現在ピクチャーに対する前記変数POCMsbは、前記以前ピクチャーの前記変数POCMsbに基づいて導出されることを特徴とする、請求項9に記載の映像エンコーディング方法。
  11. 映像デコーディング方法を実行するようにする指示情報が記憶されたコンピュータ可読デジタル記憶媒体であって、前記映像デコーディング方法は、
    ビットストリームからPOC情報及び参照ピクチャーに関する情報を受信する段階と、
    前記POC情報に基づいて現在ピクチャー及び参照ピクチャーに対するPOC値を導出する段階と、
    前記現在ピクチャーのPOC値と前記参照ピクチャーに対するPOC値に基づいて参照ピクチャーリストを構成する段階と、
    前記参照ピクチャーリストに基づいて現在ブロックに対するインター予測を行って前記現在ブロックに対する予測サンプルを導出する段階と、
    前記予測サンプルに基づいて復元ピクチャーを生成する段階と、を含み、
    前記POC情報は、POCの最大LSB値を含み、前記参照ピクチャーに関する情報は、ピクチャーが参照ピクチャーとして用いられないか否かに関する非参照ピクチャーフラグを含み、
    前記現在ピクチャーのPOC値を導出するために用いられる以前ピクチャーの前記非参照ピクチャーフラグの値は0であり、
    前記現在ピクチャーと前記以前ピクチャーのPOC値の差は、前記POCの最大LSB値の半分よりも小さいことを特徴とするデジタル記憶媒体。
JP2022571334A 2020-05-22 2021-05-21 映像コーディング方法及びその装置 Pending JP2023526535A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063028596P 2020-05-22 2020-05-22
US63/028,596 2020-05-22
PCT/KR2021/006366 WO2021235895A1 (ko) 2020-05-22 2021-05-21 영상 코딩 방법 및 그 장치

Publications (1)

Publication Number Publication Date
JP2023526535A true JP2023526535A (ja) 2023-06-21

Family

ID=78707654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022571334A Pending JP2023526535A (ja) 2020-05-22 2021-05-21 映像コーディング方法及びその装置

Country Status (6)

Country Link
US (1) US20230188707A1 (ja)
EP (1) EP4156688A4 (ja)
JP (1) JP2023526535A (ja)
KR (1) KR20230017819A (ja)
CN (1) CN116195247A (ja)
WO (1) WO2021235895A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10003817B2 (en) * 2011-11-07 2018-06-19 Microsoft Technology Licensing, Llc Signaling of state information for a decoded picture buffer and reference picture lists
EP3576412B1 (en) * 2011-11-08 2021-09-01 Nokia Technologies Oy Reference picture handling
WO2014006854A1 (en) * 2012-07-01 2014-01-09 Sharp Kabushiki Kaisha Device for signaling a long-term reference picture in a parameter set
KR101981712B1 (ko) * 2012-11-21 2019-05-24 엘지전자 주식회사 영상 디코딩 방법 및 이를 이용하는 장치

Also Published As

Publication number Publication date
EP4156688A1 (en) 2023-03-29
CN116195247A (zh) 2023-05-30
KR20230017819A (ko) 2023-02-06
US20230188707A1 (en) 2023-06-15
WO2021235895A1 (ko) 2021-11-25
EP4156688A4 (en) 2024-05-15

Similar Documents

Publication Publication Date Title
US20200260072A1 (en) Image coding method using history-based motion information and apparatus for the same
US11849151B2 (en) Syntax design method and apparatus for performing coding by using syntax
US11895314B2 (en) Method and device for coding image/video on basis of prediction weighted table
JP7392144B2 (ja) ループフィルタリングを制御するための画像コーディング装置および方法
US20240056566A1 (en) Inter prediction method and apparatus in image/video coding system
JP2023503070A (ja) フィルタリングに基づく画像コーディング装置及び方法
JP2023506220A (ja) ループフィルタリングを制御するための映像コーディング装置及び方法
JP7311713B2 (ja) フィルタリングに基づく画像コーディング装置及び方法
US20240064305A1 (en) Slice type-based image/video coding method and apparatus
US20230328269A1 (en) Image/video coding method and apparatus based on inter prediction
US11653000B2 (en) Method and device for processing image information for image/video coding
US20230013167A1 (en) Image/video coding method and apparatus
KR20230017818A (ko) 비디오 또는 영상 코딩 시스템에서의 poc 정보 및 비-참조 픽처 플래그에 기반한 영상 코딩 방법
JP2023509684A (ja) ピクチャヘッダを含む映像情報をコーディングする映像デコーディング方法及びその装置
JP2023526535A (ja) 映像コーディング方法及びその装置
JP7375198B2 (ja) ピクチャ分割情報をシグナリングする方法及び装置
US11902528B2 (en) Method and device for signaling information related to slice in image/video encoding/decoding system
US11956450B2 (en) Slice and tile configuration for image/video coding
JP7493656B2 (ja) フィルタリングに基づく画像コーディング装置及び方法
US20230156228A1 (en) Image/video encoding/decoding method and device
US20240056591A1 (en) Method for image coding based on signaling of information related to decoder initialization
US20220417561A1 (en) Image/video coding method and apparatus on basis of picture division structure

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240510