JP2023509934A - Dpbパラメータをコーディングする映像デコーディング方法及びその装置 - Google Patents

Dpbパラメータをコーディングする映像デコーディング方法及びその装置 Download PDF

Info

Publication number
JP2023509934A
JP2023509934A JP2022540580A JP2022540580A JP2023509934A JP 2023509934 A JP2023509934 A JP 2023509934A JP 2022540580 A JP2022540580 A JP 2022540580A JP 2022540580 A JP2022540580 A JP 2022540580A JP 2023509934 A JP2023509934 A JP 2023509934A
Authority
JP
Japan
Prior art keywords
dpb
ols
information
parameter
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022540580A
Other languages
English (en)
Other versions
JP7439267B2 (ja
Inventor
ヘンドリー ヘンドリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2023509934A publication Critical patent/JP2023509934A/ja
Priority to JP2024019912A priority Critical patent/JP2024040399A/ja
Application granted granted Critical
Publication of JP7439267B2 publication Critical patent/JP7439267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本文書によるデコーディング装置により実行される映像デコーディング方法は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するステップ、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出するステップ、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするステップ、及び前記アップデートされたDPBに基づいて現在ピクチャをデコーディングするステップを含むことを特徴とする。
【選択図】図8

Description

本文書は、映像コーディング技術に関し、より詳しくは、映像コーディングシステムにおいて、OLSにマッピングされるDPBパラメータを含む映像情報をコーディングする映像デコーディング方法及びその装置に関する。
最近、HD(High Definition)画像及びUHD(Ultra High Definition)画像のような高解像度、高品質の画像に対する需要が様々な分野で増加している。画像データが高解像度、高品質になるほど、既存の画像データに比べて相対的に送信される情報量またはビット量が増加するため、既存の有無線広帯域回線のような媒体を利用して画像データを送信し、または既存の記録媒体を利用して画像データを格納する場合、送信費用と格納費用が増加される。
それによって、高解像度、高品質画像の情報を効果的に送信または格納し、再生するために、高効率の画像圧縮技術が要求される。
本文書の技術的課題は、映像コーディング効率を上げる方法及び装置を提供することにある。
本文書の他の技術的課題は、OLSに対するDPBパラメータを導出する方法及び装置を提供することにある。
本文書の一実施例によると、デコーディング装置により実行される映像デコーディング方法が提供される。前記方法は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するステップ、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出するステップ、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするステップ、及び前記アップデートされたDPBに基づいて現在ピクチャをデコーディングするステップを含むことを特徴とする。
本文書の他の一実施例によると、映像デコーディングを実行するデコーディング装置が提供される。前記デコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するエントロピーデコーディング部、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出し、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするDPB及び前記アップデートされたDPBに基づいて現在ピクチャをデコーディングする予測部を含むことを特徴とする。
本文書の他の一実施例によると、エンコーディング装置により実行されるビデオエンコーディング方法を提供する。前記方法は、DPB(Decoded Picture Buffer)パラメータ情報を生成するステップ、対象OLS(Output Layer set)のDPBパラメータ情報に対するOLS DPBパラメータインデックスを生成するステップ、及び前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスを含む映像情報をエンコーディングするステップを含むことを特徴とする。
本文書の他の一実施例によると、ビデオエンコーディング装置を提供する。前記エンコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報を生成し、対象OLS(Output Layer set)のDPBパラメータ情報に対するOLS DPBパラメータインデックスを生成し、前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスを含む映像情報をエンコーディングするエントロピーエンコーディング部を含むことを特徴とする。
本文書の他の一実施例によると、映像デコーディング方法を実行するようにする映像情報を含むビットストリームが格納されたコンピュータ読み取り可能なデジタル格納媒体を提供する。コンピュータ読み取り可能なデジタル格納媒体において、前記映像デコーディング方法は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するステップ、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出するステップ、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするステップ、及び前記アップデートされたDPBに基づいて現在ピクチャをデコーディングするステップを含むことを特徴とする。
本文書によると、OLSに対するDPBパラメータをシグナリングすることができ、これによって、OLSに適応的にDPBをアップデートすることができ、全般的なコーディング効率を向上させることができる。
本文書によると、OLSに対するDPBパラメータを指すインデックス情報をシグナリングすることができ、これによって、OLSに適応的にDPBパラメータを導出することができ、導出されたDPBパラメータに基づいてOLSに対するDPBをアップデートして全般的なコーディング効率を向上させることができる。
本文書の実施形態が適用され得るビデオ/画像コーディングシステムの例を概略的に示す。 本文書の実施形態が適用され得るビデオ/画像エンコード装置の構成を概略的に説明する図である。 本文書の実施形態が適用され得るビデオ/画像デコード装置の構成を概略的に説明する図である。 本文書の実施例に係るエンコーディング手順を例示的に示す。 本文書の実施例に係るデコーディング手順を例示的に示す。 本文書に係るエンコード装置による画像エンコード方法を概略的に示す。 本文書に係る画像エンコード方法を行うエンコード装置を概略的に示す。 本文書に係るデコード装置による画像デコード方法を概略的に示す。 本文書に係る画像デコード方法を行うデコード装置を概略的に示す。 本文書の実施形態が適用されるコンテンツストリーミングシステム構造図を例示的に示す。
本文書は、様々な変更を加えることができ、種々の実施形態を有することができ、特定実施形態を図面に例示し、詳細に説明しようとする。しかしながら、これは、本文書を特定実施形態に限定しようとするものではない。本明細書において常用する用語は、単に特定の実施形態を説明するために使用されたものであって、本文書の技術的思想を限定しようとする意図で使用されるものではない。単数の表現は、文脈上明白に異なるように意味しない限り、複数の表現を含む。本明細書において「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、1つまたはそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものなどの存在または付加可能性を予め排除しないことと理解されるべきである。
一方、本文書において説明される図面上の各構成は、互いに異なる特徴的な機能に関する説明の都合上、独立的に図示されたものであって、各構成が互いに別個のハードウェアや別個のソフトウェアで実現されるということを意味するものではない。例えば、各構成のうち、2つ以上の構成が結合されて1つの構成をなすことができ、1つの構成を複数の構成に分けることもできる。各構成が統合及び/又は分離された実施形態も本文書の本質から逸脱しない限り、本文書の権利範囲に含まれる。
以下、添付した図面を参照して、本文書の好ましい実施形態をより詳細に説明する。以下、図面上の同じ構成要素に対しては、同じ参照符号を使用し、同じ構成要素に対して重なった説明は省略されることができる。
図1は、本文書の実施形態が適用され得るビデオ/画像コーディングシステムの例を概略的に示す。
図1に示すように、ビデオ/画像コーディングシステムは、第1の装置(ソースデバイス)及び第2の装置(受信デバイス)を含むことができる。ソースデバイスは、エンコードされたビデオ(video)/画像(image)情報またはデータをファイルまたはストリーミング形態でデジタル記録媒体またはネットワークを介して受信デバイスに伝達することができる。
前記ソースデバイスは、ビデオソース、エンコード装置、送信部を備えることができる。前記受信デバイスは、受信部、デコード装置、及びレンダラーを備えることができる。前記エンコード装置は、ビデオ/画像エンコード装置と呼ばれることができ、前記デコード装置は、ビデオ/画像デコード装置と呼ばれることができる。送信機は、エンコード装置に含まれることができる。受信機は、デコード装置に含まれることができる。レンダラーは、ディスプレイ部を備えることができ、ディスプレイ部は、別個のデバイスまたは外部コンポーネントで構成されることもできる。
ビデオソースは、ビデオ/画像のキャプチャ、合成、または生成過程などを介してビデオ/画像を取得することができる。ビデオソースは、ビデオ/画像キャプチャデバイス及び/又はビデオ/画像生成デバイスを含むことができる。ビデオ/画像キャプチャデバイスは、例えば、1つ以上のカメラ、以前にキャプチャされたビデオ/画像を含むビデオ/画像アーカイブなどを備えることができる。ビデオ/画像生成デバイスは、例えば、コンピュータ、タブレット、及びスマートフォンなどを備えることができ、(電子的に)ビデオ/画像を生成することができる。例えば、コンピュータなどを介して仮想のビデオ/画像が生成されることができ、この場合、関連データが生成される過程にてビデオ/画像キャプチャ過程が代替されることができる。
エンコード装置は、入力ビデオ/画像をエンコードすることができる。エンコード装置は、圧縮及びコーディング効率のために、予測、変換、量子化など、一連の手順を実行することができる。エンコードされたデータ(エンコードされたビデオ/画像情報)は、ビットストリーム(bitstream)形態で出力されることができる。
送信部は、ビットストリーム形態で出力されたエンコードされたビデオ/画像情報またはデータをファイルまたはストリーミング形態でデジタル記録媒体またはネットワークを介して受信デバイスの受信部に伝達することができる。デジタル記録媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど、様々な記録媒体を含むことができる。送信部は、予め決められたファイルフォーマットを介してメディアファイルを生成するためのエレメントを含むことができ、放送/通信ネットワークを介しての送信のためのエレメントを含むことができる。受信部は、前記ビットストリームを受信/抽出してデコード装置に伝達することができる。
デコード装置は、エンコード装置の動作に対応する逆量子化、逆変換、予測など、一連の手順を実行してビデオ/画像をデコードすることができる。
レンダラーは、デコードされたビデオ/画像をレンダリングすることができる。レンダリングされたビデオ/画像は、ディスプレイ部を介してディスプレイされることができる。
この文書は、ビデオ/画像コーディングに関する。例えば、この文書において開示された方法/実施形態は、VVC(versatile video coding)標準、EVC(essential video coding)標準、AV1(AOMedia Video 1)標準、AVS2(2nd generation of audio video coding standard)、または次世代ビデオ/画像コーディング標準(例えば、H.267またはH.268等)に開示される方法に適用されることができる。
この文書では、ビデオ/画像コーディングに関する様々な実施形態を提示し、他の言及がない限り、前記実施形態は、互いに組み合わせられて実行されることもできる。
この文書においてビデオ(video)は、時間の流れによる一連の画像(image)の集合を意味し得る。ピクチャ(picture)は、一般に特定の時間帯の1つの画像を示す単位を意味し、サブピクチャ(subpicture)/スライス(slice)/タイル(tile)はコーディングにおいてピクチャの一部を構成する単位である。サブピクチャ/スライス/タイルは、1つ以上のCTU(coding tree unit)を含んでもよい。1つのピクチャは1つ以上のサブピクチャ/スライス/タイルで構成されてもよい。1つのピクチャは1つ以上のタイルのグループで構成されてもよい。1つのタイルグループは1つ以上のタイルを含んでもよい。ブリックはピクチャ内のタイル内のCTU行の長方形領域を示す(a brick may represent a rectangular region of CTU rows within a tile in a picture)。タイルは複数のブリックでパーティショニングされ、各ブリックは前記タイル内の1つ以上のCTU行で構成される(A tile may be partitioned into multiple bricks, each of which consisting of one or more CTU rows within the tile)。複数のブリックによりパーティショニングされていないタイルもブリックと呼ばれてもよい(A tile that is not partitioned into multiple bricks may be also referred to as a brick)。ブリックスキャンはピクチャをパーティショニングするCTUの特定の順次オーダリングを示し、前記CTUはブリック内においてCTUラスタスキャンで整列され、タイル内のブリックは前記タイルの前記ブリックのラスタスキャンで連続的に整列され、そして、ピクチャ内のタイルは前記ピクチャの前記タイルのラスタスキャンで連続整列される(A brick scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a brick, bricks within a tile are ordered consecutively in a raster scan of the bricks of the tile, and tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture)。また、サブピクチャはサブピクチャ内の1つ以上のスライスの長方形領域を示す(a subpicture may represent a rectangular region of one or more slices within a picture)。すなわち、サブピクチャはピクチャの長方形領域を総括的にカバーする1つ以上のスライスを含む(a subpicture contains one or more slices that collectively cover a rectangular region of a picture)。タイルは特定タイル列及び特定タイル列以内のCTUの長方形領域である(A tile is a rectangular region of CTUs within a particular tile column and a particular tile row in a picture)。前記タイル列はCTUの長方形領域であり、前記長方形領域は前記ピクチャの高さと同じ高さを有し、幅はピクチャパラメータセット内のシンタックス要素により明示される(The tile column is a rectangular region of CTUs having a height equal to the height of the picture and a width specified by syntax elements in the picture parameter set)。前記タイル行はCTUの長方形領域であり、前記長方形領域はピクチャパラメータセット内のシンタックスエレメントにより明示される幅を有し、高さは前記ピクチャの高さと同一であり得る(The tile row is a rectangular region of CTUs having a height specified by syntax elements in the picture parameter set and a width equal to the width of the picture)。タイルスキャンはピクチャをパーティショニングするCTUの特定の順次オーダリングを示し、前記CTUはタイル内のCTUラスタスキャンで連続整列され、ピクチャ内のタイルは前記ピクチャの前記タイルのラスタスキャンで連続整列される(A tile scan is a specific sequential ordering of CTUs partitioning a picture in which the CTUs are ordered consecutively in CTU raster scan in a tile whereas tiles in a picture are ordered consecutively in a raster scan of the tiles of the picture)。スライスはピクチャの整数個のブリックを含み、前記整数個のブリックは1つのNALユニットに含まれる(A slice includes an integer number of bricks of a picture that maybe exclusively contained in a single NAL unit)。スライスは複数の完全なタイルで構成され、または、1つのタイルの完全なブリックの連続的なシーケンスであり得る(A slice may consists of either a number of complete tiles or only a consecutive sequence of complete bricks of one tile)。この文書では、タイルグループとスライスは混用されてもよい。例えば、本文書ではtile group/tile group headerはslice/slice headerと呼ばれてもよい。
ピクセル(pixel)またはペル(pel)は、1つのピクチャ(または、画像)を構成する最小の単位を意味することができる。また、ピクセルに対応する用語として「サンプル(sample)」が使用されることができる。サンプルは、一般的にピクセルまたはピクセルの値を示すことができ、ルマ(luma)成分のピクセル/ピクセル値のみを示すこともでき、クロマ(chroma)成分のピクセル/ピクセル値のみを示すこともできる。
ユニット(unit)は、画像処理の基本単位を示すことができる。ユニットは、ピクチャの特定領域及び当該領域に関連した情報のうち、少なくとも1つを含むことができる。1つのユニットは、1つのルマブロック及び2つのクロマ(例えば、cb、cr)ブロックを含むことができる。ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用して使用されることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプル(または、サンプルアレイ)、または変換係数(transform coefficient)の集合(または、アレイ)を含むことができる。
本明細書において「A又はB(A or B)」は「Aのみ」、「Bのみ」又は「AとBの両方」を意味し得る。言い換えると、本明細書において、「A又はB(A or B)」は「A及び/又はB(A and/or B)」と解され得る。例えば,本明細書において「A、B又はC(A,B or C)」は,「Aのみ」、「Bのみ」、「Cのみ」又は「A、B及びCの任意の全ての組み合わせ(any combination of A,B and C)」を意味し得る。
本明細書において使用されるスラッシュ(/)やコンマ(comma)は、「及び/又は(and/or)」を意味し得る。例えば、「A/B」は「A及び/又はB」を意味し得る。これにより、「A/B」は「Aのみ」、「Bのみ」、又は「AとBの両方」を意味し得る。例えば、「A、B、C」は「A、B又はC」を意味し得る。
本明細書において「少なくとも1つのA及びB(at least one of A and B)」は、「Aのみ」、「Bのみ」又は「AとBの両方」を意味し得る。また、本明細書において「少なくとも1つのA又はB(at least one of A or B)」や「少なくとも1つのA及び/又はB(at least one of A and/or B)」という表現は、「少なくとも1つのA及びB(at least one of A and B)」と同様に解釈され得る。
また、本明細書において「少なくとも1つのA、B及びC(at least one of A, B and C)」は、「Aのみ」、「Bのみ」、「Cのみ」又は「A、B及びCの任意の全ての組み合わせ(any combination of A, B and C)」を意味し得る。また、「少なくとも1つのA、B又はC(at least one of A, B or C)」や「少なくとも1つのA、B及び/又はC(at least one of A, B and/or C)」は「少なくとも1つのA、B及びC(at least one of A, B and C)」を意味し得る。
また、本明細書において用いられる括弧は「例えば(for example)」を意味し得る。具体的には、「予測(イントラ予測)」と表示されている場合、「予測」の一例として「イントラ予測」が提案されているものであり得る。言い換えると、本明細書の「予測」は「イントラ予測」に制限(limit)されず、「イントラ予測」が「予測」の一例として提案されるものであり得る。また、「予測(すなわち、イントラ予測)」と表示されている場合にも、「予測」の一例として、「イントラ予測」が提案されているものであり得る。
本明細書において1つの図面内で個別に説明される技術的特徴は、個別に実現されてもよく、同時に実現されてもよい。
以下の図面は,本明細書の具体的な一例を説明するために作成された。図面に記載された具体的な装置の名称や具体的な信号/メッセージ/フィールドの名称は例示的に提示するものであるので、本明細書の技術的特徴が以下の図面に用いられた具体的な名称に制限されない。
図2は、本文書の実施形態が適用され得るビデオ/画像エンコード装置の構成を概略的に説明する図である。以下、ビデオエンコード装置とは、画像エンコード装置を含むことができる。
図2に示すように、エンコード装置200は、画像分割部(image partitioner)210、予測部(predictor)220、レジデュアル処理部(residual processor)230、エントロピーエンコード部(entropy encoder)240、加算部(adder)250、フィルタリング部(filter)260、及びメモリ(memory)270を備えて構成されることができる。予測部220は、インター予測部221及びイントラ予測部222を備えることができる。レジデュアル処理部230は、変換部(transformer)232、量子化部(quantizer)233、逆量子化部(dequantizer)234、逆変換部(inverse transformer)235を備えることができる。レジデュアル処理部230は、減算部(subtractor)231をさらに備えることができる。加算部250は、復元部(reconstructor)または復元ブロック生成部(recontructged block generator)と呼ばれることができる。前述した画像分割部210、予測部220、レジデュアル処理部230、エントロピーエンコード部240、加算部250、及びフィルタリング部260は、実施形態によって1つ以上のハードウェアコンポーネント(例えば、エンコーダチップセットまたはプロセッサ)により構成されることができる。また、メモリ270は、DPB(decoded picture buffer)を含むことができ、デジタル記録媒体により構成されることもできる。前記ハードウェアコンポーネントは、メモリ270を内/外部コンポーネントとしてさらに備えることもできる。
画像分割部210は、エンコード装置200に入力された入力画像(または、ピクチャ、フレーム)を1つ以上の処理ユニット(processing unit)に分割することができる。一例として、前記処理ユニットは、コーディングユニット(coding unit、CU)と呼ばれることができる。この場合、コーディングユニットは、コーディングツリーユニット(coding tree unit、CTU)または最大コーディングユニット(largest coding unit、LCU)からQTBTTT(Quad-tree binary-tree ternary-tree)構造によって再帰的に(recursively)分割されることができる。例えば、1つのコーディングユニットは、クアッドツリー構造、バイナリツリー構造、及び/又はターナリ構造に基づいて下位(deeper)デプスの複数のコーディングユニットに分割されることができる。この場合、例えば、クアッドツリー構造が先に適用され、バイナリツリー構造及び/又はターナリ構造が後ほど適用されることができる。または、バイナリツリー構造が先に適用されることもできる。それ以上分割されない最終コーディングユニットに基づいて本文書に係るコーディング手順が実行されることができる。この場合、画像特性に応じるコーディング効率などに基づいて、最大コーディングユニットが直ちに最終コーディングユニットとして使用されることができ、または、必要に応じてコーディングユニットは、再帰的に(recursively)、より下位デプスのコーディングユニットに分割されて、最適のサイズのコーディングユニットが最終コーディングユニットとして使用されることができる。ここで、コーディング手順とは、後述する予測、変換、及び復元などの手順を含むことができる。他の例として、前記処理ユニットは、予測ユニット(PU:Prediction Unit)または変換ユニット(TU:Transform Unit)をさらに備えることができる。この場合、前記予測ユニット及び前記変換ユニットは、各々前述した最終コーディングユニットから分割またはパーティショニングされることができる。前記予測ユニットは、サンプル予測の単位であり、前記変換ユニットは、変換係数を誘導する単位及び/又は変換係数からレジデュアル信号(residual signal)を誘導する単位である。
ユニットは、場合によって、ブロック(block)または領域(area)などの用語と混用して使用されることができる。一般的な場合、M×Nブロックは、M個の列とN個の行からなるサンプルまたは変換係数(transform coefficient)の集合を示すことができる。サンプルは、一般的にピクセルまたはピクセルの値を示すことができ、輝度(luma)成分のピクセル/ピクセル値のみを示すことができ、彩度(chroma)成分のピクセル/ピクセル値のみを示すこともできる。サンプルは、1つのピクチャ(または、画像)をピクセル(pixel)またはペル(pel)に対応する用語として使用することができる。
エンコード装置200は、入力画像信号(原本ブロック、原本サンプルアレイ)から、インター予測部221またはイントラ予測部222から出力された予測信号(予測されたブロック、予測サンプルアレイ)を減算してレジデュアル信号(residual signal、残余ブロック、残余サンプルアレイ)を生成することができ、生成されたレジデュアル信号は、変換部232に送信される。この場合、図示されたように、エンコーダ200内において入力画像信号(原本ブロック、原本サンプルアレイ)から予測信号(予測ブロック、予測サンプルアレイ)を減算するユニットは、減算部231と呼ばれることができる。予測部は、処理対象ブロック(以下、現在ブロックという)に対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、現在ブロックまたはCU単位でイントラ予測が適用されるか、またはインター予測が適用されるかを決定することができる。予測部は、各予測モードについての説明で後述するように、予測モード情報など、予測に関する様々な情報を生成してエントロピーエンコード部240に伝達することができる。予測に関する情報は、エントロピーエンコード部240でエンコードされてビットストリーム形態で出力されることができる。
イントラ予測部222は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。前記参照されるサンプルは、予測モードによって前記現在ブロックの周辺(neighbor)に位置することができ、または、離れて位置することもできる。イントラ予測において予測モードは、複数の非方向性モードと複数の方向性モードとを含むことができる。非方向性モードは、例えば、DCモード及びプラナーモード(Planar Mode)を含むことができる。方向性モードは、予測方向の細かい程度によって、例えば、33個の方向性予測モードまたは65個の方向性予測モードを含むことができる。ただし、これは、例示に過ぎず、設定によってそれ以上またはそれ以下の個数の方向性予測モードが使用されることができる。イントラ予測部222は、隣接ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測部221は、参照ピクチャ上で動きベクトルにより特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。このとき、インター予測モードで送信される動き情報の量を減らすために、隣接ブロックと現在ブロックとの間の動き情報の相関性に基づいて動き情報をブロック、サブブロック、またはサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測等)情報をさらに含むことができる。インター予測の場合に、隣接ブロックは、現在ピクチャ内に存在する空間的隣接ブロック(spatial neighboring block)と参照ピクチャに存在する時間的隣接ブロック(temporal neighboring block)とを含むことができる。前記参照ブロックを含む参照ピクチャと前記時間的隣接ブロックを含む参照ピクチャとは同じであってもよく、異なってもよい。前記時間的隣接ブロックは、同一位置参照ブロック(collocated reference block)、同一位置CU(colCU)などの名称で呼ばれることができ、前記時間的隣接ブロックを含む参照ピクチャは、同一位置ピクチャ(collocated picture、colPic)と呼ばれることもできる。例えば、インター予測部221は、隣接ブロックに基づいて動き情報候補リストを構成し、前記現在ブロックの動きベクトル及び/又は参照ピクチャインデックスを導出するためにどのような候補が使用されるかを指示する情報を生成することができる。様々な予測モードに基づいてインター予測が実行されることができ、例えば、スキップモードとマージモードの場合に、インター予測部221は、隣接ブロックの動き情報を現在ブロックの動き情報として利用することができる。スキップモードの場合、マージモードとは異なってレジデュアル信号が送信されないことがある。動き情報予測(motion vector prediction、MVP)モードの場合、隣接ブロックの動きベクトルを動きベクトル予測子(Motion Vector Predictor)として利用し、動きベクトル差分(motion vector difference)をシグナリングすることによって現在ブロックの動きベクトルを指示することができる。
予測部220は、後述する様々な予測方法に基づいて予測信号を生成することができる。例えば、予測部は、1つのブロックに対する予測のために、イントラ予測またはインター予測を適用することができるだけでなく、イントラ予測とインター予測とを同時に適用することができる。これは、combined inter and intra prediction(CIIP)と呼ばれることができる。また、予測部は、ブロックに対する予測のために、イントラブロックコピー(intra block copy、IBC)予測モードに基づくこともでき、または、パレットモード(palette mode)に基づくこともできる。前記IBC予測モードまたはパレットモードは、例えば、SCC(screen content coding)などのように、ゲームなどのコンテンツ画像/動画像コーディングのために使用されることができる。IBCは、基本的に現在ピクチャ内で予測を実行するが、現在ピクチャ内で参照ブロックを導出する点においてインター予測と類似して実行されることができる。すなわち、IBCは、本文書において説明されるインター予測技法のうち、少なくとも1つを利用することができる。パレットモードは、イントラコーディングまたはイントラ予測の一例と見ることができる。パレットモードが適用される場合、パレットテーブル及びパレットインデックスに関する情報に基づいてピクチャ内のサンプル値をシグナリングすることができる。
前記予測部(インター予測部221及び/又は前記イントラ予測部222を含む)を介して生成された予測信号は、復元信号を生成するために用いられ、またはレジデュアル信号を生成するために用いられることができる。変換部232は、レジデュアル信号に変換技法を適用して変換係数(transform coefficients)を生成することができる。例えば、変換技法は、DCT(Discrete Cosine Transform)、DST(Discrete Sine Transform)、KLT(Karhunen-Loeve Transform)、GBT(Graph-Based Transform)、またはCNT(Conditionally Non-linear Transform)のうち、少なくとも1つを含むことができる。ここで、GBTは、ピクセル間の関係情報をグラフで表現するとするとき、このグラフから得られた変換を意味する。CNTは、以前に復元された全てのピクセル(all previously reconstructed pixel)を用いて予測信号を生成し、それに基づいて取得される変換を意味する。また、変換過程は、正方形の同じサイズを有するピクセルブロックに適用されることもでき、正方形でない、可変サイズのブロックにも適用されることもできる。
量子化部233は、変換係数を量子化してエントロピーエンコード部240に送信され、エントロピーエンコード部240は、量子化された信号(量子化された変換係数に関する情報)をエンコードしてビットストリームとして出力することができる。前記量子化された変換係数に関する情報は、レジデュアル情報と呼ばれることができる。量子化部233は、係数スキャン順序(scan order)に基づいてブロック形態の量子化された変換係数を1次元ベクトル形態で再整列することができ、前記1次元ベクトル形態の量子化された変換係数に基づいて前記量子化された変換係数に関する情報を生成することもできる。エントロピーエンコード部240は、例えば、指数ゴロム(exponential Golomb)、CAVLC(context-adaptive variable length coding)、CABAC(context-adaptive binary arithmetic coding)などのような様々なエンコード方法を実行することができる。エントロピーエンコード部240は、量子化された変換係数の他に、ビデオ/イメージ復元に必要な情報(例えば、シンタックス要素(syntax elements)の値等)を共に、または別にエンコードすることもできる。エンコードされた情報(例えば、エンコードされたビデオ/画像情報)は、ビットストリーム形態でNAL(network abstraction layer)ユニット単位で送信または格納されることができる。前記ビデオ/画像情報は、アダプテーションパラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、またはビデオパラメータセット(VPS)など、様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/画像情報は、一般制限情報(general constraint information)をさらに含むことができる。本文書においてエンコード装置からデコード装置に伝達/シグナリングされる情報及び/又はシンタックス要素は、ビデオ/画像情報に含まれることができる。前記ビデオ/画像情報は、前述したエンコード手順を介してエンコードされて前記ビットストリームに含まれることができる。前記ビットストリームは、ネットワークを介して送信されることができ、またはデジタル記録媒体に格納されることができる。ここで、ネットワークは、放送網及び/又は通信網などを含むことができ、デジタル記録媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど、様々な記録媒体を含むことができる。エントロピーエンコード部240から出力された信号は、送信する送信部(図示せず)及び/又は格納する格納部(図示せず)がエンコード装置200の内/外部エレメントとして構成されることができ、または送信部は、エントロピーエンコード部240に含まれることもできる。
量子化部233から出力された量子化された変換係数は、予測信号を生成するために用いられることができる。例えば、量子化された変換係数に逆量子化部234及び逆変換部235を介して逆量子化及び逆変換を適用することによってレジデュアル信号(レジデュアルブロックまたはレジデュアルサンプル)を復元することができる。加算部250は、復元されたレジデュアル信号をインター予測部221またはイントラ予測部222から出力された予測信号に加えることによって復元(reconstructed)信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)が生成され得る。スキップモードが適用された場合のように、処理対象ブロックに対するレジデュアルがない場合、予測されたブロックが復元ブロックとして使用されることができる。加算部250は、復元部または復元ブロック生成部と呼ばれることができる。生成された復元信号は、現在ピクチャ内の次の処理対象ブロックのイントラ予測のために使用されることができ、後述するように、フィルタリングを経て次のピクチャのインター予測のために使用されることもできる。
一方、ピクチャエンコード及び/又は復元過程でLMCS(luma mapping with chroma scaling)が適用されることもできる。
フィルタリング部260は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部260は、復元ピクチャに様々なフィルタリング方法を適用して修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ270、具体的に、メモリ270のDPBに格納することができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルタ(adaptive loop filter)、両方向フィルタ(bilateral filter)などを含むことができる。フィルタリング部260は、各フィルタリング方法についての説明で後述するように、フィルタリングに関する様々な情報を生成してエントロピーエンコード部240に伝達することができる。フィルタリングに関する情報は、エントロピーエンコード部240でエンコードされてビットストリーム形態で出力されることができる。
メモリ270に送信された修正された復元ピクチャは、インター予測部221で参照ピクチャとして使用されることができる。エンコード装置は、これを介してインター予測が適用される場合、エンコード装置200とデコード装置300での予測ミスマッチを避けることができ、符号化効率も向上させることができる。
メモリ270DPBは、修正された復元ピクチャをインター予測部221での参照ピクチャとして使用するために格納することができる。メモリ270は、現在ピクチャ内の動き情報が導出された(または、エンコードされた)ブロックの動き情報及び/又は既に復元されたピクチャ内のブロックの動き情報を格納することができる。前記格納された動き情報は、空間的隣接ブロックの動き情報または時間的隣接ブロックの動き情報として活用するために、インター予測部221に伝達することができる。メモリ270は、現在ピクチャ内の復元されたブロックの復元サンプルを格納することができ、イントラ予測部222に伝達することができる。
図3は、本文書の実施形態が適用され得るビデオ/画像デコード装置の構成を概略的に説明する図である。
図3に示すように、デコード装置300は、エントロピーデコード部(entropy decoder)310、レジデュアル処理部(residual processor)320、予測部(predictor)330、加算部(adder)340、フィルタリング部(filter)350、及びメモリ(memory)360を備えて構成されることができる。予測部330は、インター予測部331及びイントラ予測部332を備えることができる。レジデュアル処理部320は、逆量子化部(dequantizer)321及び逆変換部(inverse transformer)322を備えることができる。前述したエントロピーデコード部310、レジデュアル処理部320、予測部330、加算部340、及びフィルタリング部350は、実施形態によって1つのハードウェアコンポーネント(例えば、デコーダチップセットまたはプロセッサ)により構成されることができる。また、メモリ360は、DPB(decoded picture buffer)を備えることができ、デジタル記録媒体により構成されることもできる。前記ハードウェアコンポーネントは、メモリ360を内/外部コンポーネントとしてさらに備えることもできる。
ビデオ/画像情報を含むビットストリームが入力されると、デコード装置300は、図2のエンコード装置でビデオ/画像情報が処理されたプロセスに対応して画像を復元することができる。例えば、デコード装置300は、前記ビットストリームから取得したブロック分割関連情報に基づいてユニット/ブロックを導出できる。デコード装置300は、エンコード装置で適用された処理ユニットを用いてデコードを実行することができる。したがって、デコードの処理ユニットは、例えば、コーディングユニットであり、コーディングユニットは、コーディングツリーユニットまたは最大コーディングユニットからクアッドツリー構造、バイナリツリー構造、及び/又はターナリツリー構造にしたがって分割されることができる。コーディングユニットから1つ以上の変換ユニットが導出されることができる。そして、デコード装置300を介してデコード及び出力された復元画像信号は、再生装置を介して再生されることができる。
デコード装置300は、図2のエンコード装置から出力された信号をビットストリーム形態で受信することができ、受信された信号は、エントロピーデコード部310を介してデコードされることができる。例えば、エントロピーデコード部310は、前記ビットストリームをパーシングして画像復元(または、ピクチャ復元)に必要な情報(例えば、ビデオ/画像情報)を導出できる。前記ビデオ/画像情報は、アダプテーションパラメータセット(APS)、ピクチャパラメータセット(PPS)、シーケンスパラメータセット(SPS)、またはビデオパラメータセット(VPS)など、様々なパラメータセットに関する情報をさらに含むことができる。また、前記ビデオ/画像情報は、一般制限情報(general constraint information)をさらに含むことができる。デコード装置は、前記パラメータセットに関する情報及び/又は前記一般制限情報に基づいてさらにピクチャをデコードすることができる。本文書において後述されるシグナリング/受信される情報及び/又はシンタックス要素は、前記デコード手順を介してデコードされて前記ビットストリームから取得されることができる。例えば、エントロピーデコード部310は、指数ゴロム符号化、CAVLCまたはCABAC等のコーディング方法を基にビットストリーム内の情報をデコードし、画像復元に必要なシンタックスエレメントの値、レジデュアルに関する変換係数の量子化された値などを出力することができる。より詳細に、CABACエントロピーデコード方法は、ビットストリームで各構文要素に該当するビンを受信し、デコード対象構文要素情報と周辺及びデコード対象ブロックのデコード情報、または以前ステップでデコードされたシンボル/ビンの情報を利用して文脈(context)モデルを決定し、決定された文脈モデルによってビン(bin)の発生確率を予測し、ビンの算術デコード(arithmetic decoding)を実行して各構文要素の値に該当するシンボルを生成することができる。このとき、CABACエントロピーデコード方法は、文脈モデル決定後、次のシンボル/ビンの文脈モデルのためにデコードされたシンボル/ビンの情報を利用して文脈モデルをアップデートすることができる。エントロピーデコード部310でデコードされた情報のうち、予測に関する情報は、予測部(インター予測部332及びイントラ予測部331)に提供され、エントロピーデコード部310でエントロピーデコードが実行されたレジデュアル値、すなわち、量子化された変換係数及び関連パラメータ情報は、レジデュアル処理部320に入力されることができる。レジデュアル処理部320は、レジデュアル信号(レジデュアルブロック、レジデュアルサンプル、レジデュアルサンプルアレイ)を導出できる。また、エントロピーデコード部310でデコードされた情報のうち、フィルタリングに関する情報は、フィルタリング部350に提供されることができる。一方、エンコード装置から出力された信号を受信する受信部(図示せず)がデコード装置300の内/外部エレメントとしてさらに構成されることができ、または、受信部は、エントロピーデコード部310の構成要素である。一方、本文書に係るデコード装置は、ビデオ/画像/ピクチャデコード装置と呼ばれることができ、前記デコード装置は、情報デコーダ(ビデオ/画像/ピクチャ情報デコーダ)及びサンプルデコーダ(ビデオ/画像/ピクチャサンプルデコーダ)に区分することもできる。前記情報デコーダは、前記エントロピーデコード部310を備えることができ、前記サンプルデコーダは、前記逆量子化部321、逆変換部322、加算部340、フィルタリング部350、メモリ360、インター予測部332、及びイントラ予測部331のうち、少なくとも1つを備えることができる。
逆量子化部321では、量子化された変換係数を逆量子化して変換係数を出力することができる。逆量子化部321は、量子化された変換係数を2次元のブロック形態で再整列することができる。この場合、前記再整列は、エンコード装置で実行された係数スキャン順序に基づいて再整列を実行することができる。逆量子化部321は、量子化パラメータ(例えば、量子化ステップサイズ情報)を利用して量子化された変換係数に対する逆量子化を実行し、変換係数(transform coefficient)を取得することができる。
逆変換部322では、変換係数を逆変換してレジデュアル信号(レジデュアルブロック、レジデュアルサンプルアレイ)を取得するようになる。
予測部は、現在ブロックに対する予測を実行し、前記現在ブロックに対する予測サンプルを含む予測されたブロック(predicted block)を生成することができる。予測部は、エントロピーデコード部310から出力された前記予測に関する情報に基づいて、前記現在ブロックにイントラ予測が適用されるか、またはインター予測が適用されるかを決定することができ、具体的なイントラ/インター予測モードを決定することができる。
予測部320は、後述する様々な予測方法に基づいて予測信号を生成することができる。例えば、予測部は、1つのブロックに対する予測のために、イントラ予測またはインター予測を適用することができるだけでなく、イントラ予測とインター予測とを同時に適用することができる。これは、combined inter and intra prediction(CIIP)と呼ばれることができる。また、予測部は、ブロックに対する予測のために、イントラブロックコピー(intra block copy、IBC)予測モードに基づくこともでき、またはパレットモード(palette mode)に基づくこともできる。前記IBC予測モードまたはパレットモードは、例えば、SCC(screen content coding)などのように、ゲームなどのコンテンツ画像/動画コーディングのために使用されることができる。IBCは、基本的に現在ピクチャ内で予測を実行するが、現在ピクチャ内で参照ブロックを導出する点においてインター予測と類似して実行されることができる。すなわち、IBCは、本文書において説明されるインター予測技法のうち、少なくとも1つを利用することができる。パレットモードは、イントラコーディングまたはイントラ予測の一例と見ることができる。パレットモードが適用される場合、パレットテーブル及びパレットインデックスに関する情報が前記ビデオ/画像情報に含まれてシグナリングされることができる。
イントラ予測部331は、現在ピクチャ内のサンプルを参照して現在ブロックを予測することができる。前記参照されるサンプルは、予測モードによって前記現在ブロックの周辺(neighbor)に位置することができ、または離れて位置することもできる。イントラ予測において予測モードは、複数の非方向性モードと複数の方向性モードとを含むことができる。イントラ予測部331は、隣接ブロックに適用された予測モードを用いて、現在ブロックに適用される予測モードを決定することもできる。
インター予測部332は、参照ピクチャ上で動きベクトルにより特定される参照ブロック(参照サンプルアレイ)に基づいて、現在ブロックに対する予測されたブロックを誘導することができる。このとき、インター予測モードから送信される動き情報の量を減らすために、隣接ブロックと現在ブロックとの間の動き情報の相関性に基づいて動き情報をブロック、サブブロック、またはサンプル単位で予測することができる。前記動き情報は、動きベクトル及び参照ピクチャインデックスを含むことができる。前記動き情報は、インター予測方向(L0予測、L1予測、Bi予測等)情報をさらに含むことができる。インター予測の場合に、隣接ブロックは、現在ピクチャ内に存在する空間的隣接ブロック(spatial neighboring block)と参照ピクチャに存在する時間的隣接ブロック(temporal neighboring block)とを含むことができる。例えば、インター予測部332は、隣接ブロックに基づいて動き情報候補リストを構成し、受信した候補選択情報に基づいて前記現在ブロックの動きベクトル及び/又は参照ピクチャインデックスを導出できる。様々な予測モードに基づいてインター予測が実行されることができ、前記予測に関する情報は、前記現在ブロックに対するインター予測のモードを指示する情報を含むことができる。
加算部340は、取得されたレジデュアル信号を予測部(インター予測部332及び/又はイントラ予測部331を含む)から出力された予測信号(予測されたブロック、予測サンプルアレイ)に加えることにより復元信号(復元ピクチャ、復元ブロック、復元サンプルアレイ)を生成することができる。スキップモードが適用された場合のように、処理対象ブロックに対するレジデュアルがない場合、予測されたブロックが復元ブロックとして使用されることができる。
加算部340は、復元部または復元ブロック生成部と呼ばれることができる。生成された復元信号は、現在ピクチャ内の次の処理対象ブロックのイントラ予測のために使用されることができ、後述するように、フィルタリングを経て出力されることができ、または次のピクチャのインター予測のために使用されることもできる。
一方、ピクチャデコード過程でLMCS(luma mapping with chroma scaling)が適用されることもできる。
フィルタリング部350は、復元信号にフィルタリングを適用して主観的/客観的画質を向上させることができる。例えば、フィルタリング部350は、復元ピクチャに様々なフィルタリング方法を適用して修正された(modified)復元ピクチャを生成することができ、前記修正された復元ピクチャをメモリ360、具体的に、メモリ360のDPBに送信することができる。前記様々なフィルタリング方法は、例えば、デブロッキングフィルタリング、サンプル適応的オフセット(sample adaptive offset)、適応的ループフィルタ(adaptive loop filter)、両方向フィルタ(bilateral filter)などを含むことができる。
メモリ360のDPBに格納された(修正された)復元ピクチャは、インター予測部332で参照ピクチャとして使用されることができる。メモリ360は、現在ピクチャ内の動き情報が導出された(または、デコードされた)ブロックの動き情報及び/又は既に復元されたピクチャ内のブロックの動き情報を格納することができる。前記格納された動き情報は、空間的隣接ブロックの動き情報または時間的隣接ブロックの動き情報として活用するために、インター予測部260に伝達することができる。メモリ360は、現在ピクチャ内の復元されたブロックの復元サンプルを格納することができ、イントラ予測部331に伝達することができる。
本明細書において、エンコード装置200のフィルタリング部260、インター予測部221、及びイントラ予測部222で説明された実施形態は、各々デコード装置300のフィルタリング部350、インター予測部332、及びイントラ予測部331にも同一または対応するように適用されることができる。
本文書において量子化/逆量子化及び/又は変換/逆変換のうち、少なくとも1つは省略されることができる。前記量子化/逆量子化が省略される場合、前記量子化された変換係数は、変換係数と呼ばれることができる。前記変換/逆変換が省略される場合、前記変換係数は、係数またはレジデュアル係数と呼ばれることができ、または、表現の統一性のために、変換係数と依然と呼ばれることもできる。
本文書において量子化された変換係数及び変換係数は、各々変換係数及びスケーリングされた(scaled)変換係数と称されることができる。この場合、レジデュアル情報は、変換係数(等)に関する情報を含むことができ、前記変換係数(等)に関する情報は、レジデュアルコーディングシンタックスを介してシグナリングされることができる。前記レジデュアル情報(または、前記変換係数(等)に関する情報)に基づいて変換係数が導出され得るし、前記変換係数に対する逆変換(スケーリング)を介してスケーリングされた変換係数が導出され得る。前記スケーリングされた変換係数に対する逆変換(変換)に基づいてレジデュアルサンプルが導出され得る。これは、本文書の他の部分でも同様に適用/表現されることができる。
一方、前述したDPB(Decoded Picture Buffer)は、概念的にサブ(sub)DPBで構成されることができ、サブDPBは、一レイヤのデコーディングされたピクチャを格納するためのピクチャ格納バッファ(picture storage buffer)を含むことができる。ピクチャ格納バッファは、「参照に使われる(used for reference)」で表示され、または今後出力(output)のために保有されるデコーディングされたピクチャを含むことができる。
また、マルチレイヤビットストリーム(multilayer bitstreams)に対して、DPBパラメータは、OLS(Output Layer Set、OLS)別に割り当てられなく、その代わりに各レイヤに対して割り当てられることができる。例えば、各レイヤに対して最大二つのDPBパラメータが割り当てられることができる。一つは、レイヤが出力レイヤである場合(すなわち、例えば、前記レイヤが参照及び今後出力に使われることができる場合)に割り当てられることができ、他の一つは、レイヤが出力レイヤではないが、参照レイヤとして使われる場合に割り当てられることができる(例えば、レイヤスイッチング(layer switching)がない場合に前記レイヤが出力レイヤ(output layer)のピクチャ/スライス/ブロックの参照としてのみ使われることができる場合)。これはOLSの各レイヤが自体DPBパラメータを有するHEVC階層拡張(HEVC layered extension)のマルチレイヤビットストリームに対するDPBパラメータと対比する時、より簡単なものと考慮される。
例えば、DPBパラメータのシグナリングは、以下のシンタックス(syntax)及びセマンティック(semantic)の通りである。
Figure 2023509934000001
例えば、前述した表1は、シグナリングされるDPBパラメータに対するシンタックスエレメントを含むVPS(Video Parameter Set、VPS)を示すことができる。
前述した表1に示すシンタックスエレメント(syntax elements)に対するセマンティック(semantics)は、下記の通りである。
Figure 2023509934000002
Figure 2023509934000003
例えば、シンタックスエレメントvps_num_dpb_paramsは、VPSでdpb_parameters()シンタックス構造(syntax structure)の数を示すことができる。例えば、vps_num_dpb_paramsの値は、0乃至16の範囲にある。また、シンタックスエレメントvps_num_dpb_paramsが存在しない場合、シンタックスエレメントvps_num_dpb_paramsの値は、0と同じであると見なされることができる。
また、例えば、シンタックスエレメントsame_dpb_size_output_or_nonoutput_flagは、VPSにシンタックスエレメントlayer_nonoutput_dpb_params_idx[i]が存在できるかどうかを示すことができる。例えば、シンタックスエレメントsame_dpb_size_output_or_nonoutput_flagの値が1である場合、シンタックスエレメントsame_dpb_size_output_or_nonoutput_flagは、VPSにシンタックスエレメントlayer_nonoutput_dpb_params_idx[i]が無いことを示すことができ、シンタックスエレメントsame_dpb_size_output_or_nonoutput_flagの値が0である場合、シンタックスエレメントsame_dpb_size_output_or_nonoutput_flagは、VPSにシンタックスエレメントlayer_nonoutput_dpb_params_idx[i]が存在できることを示すことができる。
また、例えば、シンタックスエレメントvps_sublayer_dpb_params_present_flagは、VPSのdpb_parameters()シンタックス構造内のシンタックスエレメントmax_dec_pic_buffering_minus1[]、max_num_reorder_pics[]、及びmax_latency_increase_plus1[]の存在を制御(control)するときに使われることができる。また、シンタックスエレメントvps_sublayer_dpb_params_present_flagが存在しない場合、シンタックスエレメントvps_sublayer_dpb_params_present_flagの値は、0と同じであると見なされることができる。
また、例えば、シンタックスエレメントdpb_size_only_flag[i]は、シンタックスエレメントmax_num_reorder_pics[]及びmax_latency_increase_plus1[]がVPSのi番目のdpb_parameters()シンタックス構造に存在できるかどうかを示すことができる。例えば、シンタックスエレメントdpb_size_only_flag[i]の値が1である場合、シンタックスエレメントdpb_size_only_flag[i]は、シンタックスエレメントmax_num_reorder_pics[]及びmax_latency_increase_plus1[]がVPSのi番目のdpb_parameters()シンタックス構造に存在しないことを示すことができ、シンタックスエレメントdpb_size_only_flag[i]の値が0である場合、シンタックスエレメントdpb_size_only_flag[i]は、シンタックスエレメントmax_num_reorder_pics[]及びmax_latency_increase_plus1[]がVPSのi番目のdpb_parameters()シンタックス構造に存在できることを示すことができる。
また、例えば、シンタックスエレメントdpb_max_temporal_id[i]は、VPSでi番目のdpb_parameters()シンタックス構造にDPBパラメータが存在できる最上位サブレイヤ表現(highest sublayer representation)のTemporalIdを示すことができる。また、dpb_max_temporal_id[i]の値は、0乃至vps_max_sublayers_minus1の範囲にある。また、例えば、vps_max_sublayers_minus1の値が0である場合、dpb_max_temporal_id[i]の値は、0と見なされることができる。また、例えば、vps_max_sublayers_minus1の値が0より大きい、vps_all_layers_same_num_sublayers_flagが1である場合、dpb_max_temporal_id[i]の値は、vps_max_sublayers_minus1と同じであると見なされることができる。
また、例えば、シンタックスエレメントlayer_output_dpb_params_idx[i]は、OLSの出力レイヤであるi番目のレイヤに適用されるdpb_parameters()シンタックス構造のインデックスを、VPSのdpb_parameters()シンタックス構造のリストに、指定できる。シンタックスエレメントlayer_output_dpb_params_idx[i]が存在する場合、シンタックスエレメントlayer_output_dpb_params_idx[i]の値は、0乃至vps_num_dpb_params-1の範囲にある。
例えば、vps_independent_layer_flag[i]が1である場合、出力レイヤであるi番目のレイヤに適用されるdpb_parameters()シンタックス構造レイヤで参照するSPSに存在するdpb_parameters()シンタックス構造である。
または、例えば、vps_independent_layer_flag[i]が0である場合、下記のような内容が適用されることができる。
-vps_num_dpb_paramsが1である場合、layer_output_dpb_params_idx[i]の値は、0と見なされることができる。
-layer_output_dpb_params_idx[i]の値は、dpb_size_only_flag[layer_output_dpb_params_idx[i]]の値が0になるようにすることがビットストリーム適合性(bitstream conformance)の要求事項(requirement)である。
また、例えば、シンタックスエレメントlayer_nonoutput_dpb_params_idx[i]は、OLSの非出力レイヤ(non-output layer)であるi番目のレイヤに適用されるdpb_parameters()シンタックス構造のインデックスを、VPSのdpb_parameters()シンタックス構造のリストに、指定できる。シンタックスエレメントlayer_nonoutput_dpb_params_idx[i]が存在する場合、シンタックスエレメントlayer_nonoutput_dpb_params_idx[i]の値は、0乃至vps_num_dpb_params-1の範囲にある。
例えば、same_dpb_size_output_or_nonoutput_flagが1である場合、下記のような内容が適用されることができる。
-vps_independent_layer_flag[i]が1である場合、非出力レイヤであるi番目のレイヤに適用されるdpb_parameters()シンタックス構造のレイヤが参照するSPSにあるdpb_parameters()シンタックス構造である。
-vps_independent_layer_flag[i]が0である場合、layer_nonoutput_dpb_params_idx[i]の値は、layer_output_dpb_params_idx[i]と同じであると見なされることができる。
または、例えば、same_dpb_size_output_or_nonoutput_flagが0である場合、vps_num_dpb_paramsが1であると、layer_output_dpb_params_idx[i]の値は、0と見なされることができる。
一方、例えば、dpb_parameters()シンタックス構造は、下記のシンタックス(syntax)及びセマンティック(semantic)と同じである。
Figure 2023509934000004
表3を参照すると、dpb_parameters()シンタックス構造は、CVSの各CLVSに対するDPBサイズ、最大ピクチャリオーダ数(maximum picture reorder number)、及び最大レイテンシー(maximum latency)に対する情報を提供することができる。前記dpb_parameters()シンタックス構造は、DPBパラメータに対する情報またはDPBパラメータ情報で表すこともできる。
VPSにdpb_parameters()シンタックス構造が含まれている場合、dpb_parameters()シンタックス構造が適用されるOLSは、VPSにより指定されることができる。また、dpb_parameters()シンタックス構造がSPSに含まれている場合、dpb_parameters()シンタックス構造は、SPSを参照するレイヤのうち最下位レイヤのみを含むOLSに適用されることができ、ここで、前記最下位レイヤは独立レイヤである。
前述した表3に示すシンタックスエレメント(syntax elements)に対するセマンティック(semantics)は、下記の通りである。
Figure 2023509934000005
例えば、シンタックスエレメントmax_dec_pic_buffering_minus1[i]に1を加えた値は、CVSの各CLVSに対してHtidがiと同じ場合にDPBの最大要求サイズ(maximum required size)をピクチャ格納バッファ単位で表すことができる。例えば、max_dec_pic_buffering_minus1[i]は、DPBサイズに対する情報である。例えば、シンタックスエレメントmax_dec_pic_buffering_minus1[i]の値は、0乃至MaxDpbSize-1の範囲にある。また、例えば、iが0より大きい場合、max_dec_pic_buffering_minus1[i]は、max_dec_pic_buffering_minus1[i-1]より大きいまたは同じである。また、例えば、0乃至maxSubLayersMinus1-1の範囲内のiに対するmax_dec_pic_buffering_minus1[i]が存在しない場合、subLayerInfoFlagが0であるため、シンタックスエレメントmax_dec_pic_buffering_minus1[i]の値は、max_dec_pic_buffering_minus1[maxSubLayersMinus1]と同じであると見なされることができる。
また、例えば、シンタックスエレメントmax_num_reorder_pics[i]は、CVSの各CLVSに対してデコーディング順序でCLVSの全てのピクチャに先行でき、Htidがiと同じ場合に出力順序(output order)に該当ピクチャを後行(follow)することができるCLVSの最大許容ピクチャ数(maximum allowed number of pictures)を示すことができる。例えば、max_num_reorder_pics[i]は、DPBの最大ピクチャリオーダ数に対する情報である。max_num_reorder_pics[i]の値は、0乃至max_dec_pic_buffering_minus1[i]の範囲にある。また、例えば、iが0より大きい場合、max_num_reorder_pics[i]は、max_num_reorder_pics[i-1]より大きいまたは同じである。また、例えば、0乃至maxSubLayersMinus1-1の範囲内のiに対するmax_num_reorder_pics[i]が存在しない場合、subLayerInfoFlagが0であるため、シンタックスエレメントmax_num_reorder_pics[i]は、max_num_reorder_pics[maxSubLayersMinus1]と同じであると見なされることができる。
また、例えば、値が0でないシンタックスエレメントmax_latency_increase_plus1[i]は、MaxLatencyPictures[i]の値を計算するときに使われることができる。前記MaxLatencyPictures[i]は、CVSの各CLVSに対して出力順序でCLVSの全てのピクチャに先行でき、Htidがiと同じ場合にデコーディング順序に該当ピクチャを後行(follow)することができるCLVSの最大ピクチャ数(the maximum number of pictures)を示すことができる。例えば、max_latency_increase_plus1[i]は、DPBの最大レイテンシー(maximum latency)に対する情報である。
例えば、max_latency_increase_plus1[i]が0でない場合、MaxLatencyPictures[i]の値は、以下の数式のように導出されることができる。
Figure 2023509934000006
一方、例えば、max_latency_increase_plus1[i]が0である場合、該当制限が表示されない。前記max_latency_increase_plus1[i]の値は、0乃至232-2の範囲にある。また、例えば、0乃至maxSubLayersMinus1-1の範囲内のiに対するmax_latency_increase_plus1[i]が存在しない場合、subLayerInfoFlagが0であるため、シンタックスエレメントmax_latency_increase_plus1[i]は、max_latency_increase_plus1[maxSubLayersMinus1]と同じであると見なされることができる。
一方、DPBパラメータは、以下の表のようにピクチャプロセスの出力(output)及び除去(removal)に使われることができる。
Figure 2023509934000007
Figure 2023509934000008
一方、既存VVC標準でのDPBパラメータシグナリングデザインには最小限下記のような問題がある。
第一に、VVCドラフトテキスト(draft text)は、サブDPBのコンセプトを考慮したが、物理的デコーディング装置は、マルチレイヤビットストリーム(multilayer bitstreams)のデコーディングのために一つのDPBのみを有することができる。したがって、デコーディング装置は、与えられたマルチレイヤビットストリームでOLSをデコーディングする前にDPBサイズ要求事項(requirement)を知らなければならないが、既存VVCドラフトテキストにはそのような情報がどのように知られるかが明確に開示されない。
例えば、ビットストリーム内のOLSに必要なDPBサイズは、OLSの各レイヤのサブ-DPB(sub-DPB)サイズで単純に導出されない。すなわち、OLSに必要なDPBサイズは、単純に前記OLS内のレイヤのmax_dec_pic_buffering_minus1[]+1値の和として導出されない。例えば、前記OLSで各レイヤのmax_dec_pic_buffering_minus1[]+1の和は、実際DPBサイズより大きい。例えば、特定アクセスユニット(access unit)で、DPB内の各レイヤが互いに異なる参照ピクチャリスト構造を有することができ、前記DPB内の各レイヤの復元ピクチャ(reconstructed picture)の数は最大ではなく、したがって、OLSに必要なDPBサイズは、単純に前記OLS内のレイヤのmax_dec_pic_buffering_minus1[]+1値の和として導出されない。
例えば、以下の表は、2個の空間拡張性レイヤ(spatial scalability layers)があり、GOP(group of pictures)サイズが16であり、時間的サブレイヤがないビットストリームに対して各サブ-DPBが存在するときに必要なピクチャを例示的に示す。
Figure 2023509934000009
表6を参照すると、ベース(base)レイヤ(すなわち、レイヤ0)は、レイヤ1よりRPL構造がより複雑であり、サブDPB0のサイズは、二つのレイヤ間のピクチャサイズを考慮してサブDPB1より多くの参照ピクチャを含むことができる。また、例えば、表6に示すように、二つのレイヤの参照ピクチャの最大個数(すなわち、12)がDPBの実際全体ピクチャの数(すなわち、11)より大きい。
第二に、バンピングプロセス(bumping process)が実際必要な時に呼び出されない。前述した例を使用すると、2番目のレイヤのPOC(picture order count)37を有するピクチャの1番目のスライスヘッダがデコーディングされた以後にはsub-DPB1のピクチャ数が最大sub-DPBサイズに到達しないため、バンピングプロセスが呼び出されない。すなわち、POC37を有するピクチャを含むと、sub-DPB1のピクチャ数は4であり、前記sub-DPB1の最大ピクチャ個数は5まで上がることができる。しかし、DPBの最大ピクチャ個数に既に到達したため、バンピングプロセスは、該当時点で呼び出されなければならない。このような問題は、バンピングプロセスを呼び出す条件で現在レイヤのDPBパラメータのみを確認するため発生できる。ここで、例えば、前記バンピングプロセスは、DPB内のピクチャのうち出力(output)に必要なピクチャを導出し、参照に使われないピクチャをDPBから除去する過程を意味することができる。
したがって、本文書は、前述した問題に対する解決方案を提案する。提案される実施例は、個別的にまたは組み合わせて適用されることができる。
一例として、各レイヤにマッピングされるDPBパラメータをシグナリングすること外にもOLSにマッピングされるDPBパラメータをシグナリングする方案を提案する。
また、一例として、OLSにマッピングされるDPBパラメータのシグナリングは、選択事項であって、OLSにマッピングされるDPBパラメータが存在しない場合、max_dec_pic_buffering_minus1[i]の値は、OLS内の全てのレイヤに対するmax_dec_pic_buffering_minus1[i]に1を加えた値の和から1を引いた値と同じく導出する方案を提案する。本実施例で提案された方案は、OLSにマッピングされるDPBパラメータが存在するかどうかを示すフラグに基づいて実行されることができる。例えば、前記フラグの値が1である場合、前記フラグは、少なくとも一つ以上のレイヤを含む全てのOLSに対するDPBパラメータインデックスが存在することを示すことができ、そうでない場合、すなわち、前記フラグの値が0である場合、前記フラグは、OLSにマッピングされるDPBパラメータ(すなわち、OLSに対するDPBパラメータインデックス)が存在しないことを示すことができる。一方、例えば、前記フラグは、各OLSに対して存在することもできる。
また、一例として、各OLSのmax_dec_pic_buffering_minus1[hightest temporal sublayer]の値は、MaxDpbSizeから1を引いた値及びOLS内のレイヤにImax_dec_pic_buffering_minus1[hightes temporal sublayer]に1を加えた値の和から1を引いた値より大きくないようにする方案が提案されることができる。
また、一例として、OLSに割り当てられたDPBパラメータがDPBサイズのみを含む方案が提案されることができる。
また、一例として、DPB内のピクチャ数とデコーディング装置で処理中であるOLSのmax_dec_pic_buffering_minus1[i]の値を考慮してバンピングプロセスを呼び出すための条件をアップデートする方案が提案されることができる。
一方、例えば、実施例(等)は、下記の手順によって適用されることができる。
図4は、本文書の実施例に係るエンコーディング手順を例示的に示す。
図4を参照すると、エンコーディング装置は、(復元)ピクチャをデコーディングすることができる(S400)。エンコーディング装置は、DPBパラメータに基づいてDPBをアップデートすることができる(S410)。例えば、デコーディングされたピクチャは、基本的にDPBに挿入されることができ、デコーディングされたピクチャは、インター予測のための参照ピクチャとして使われることができる。また、DPBパラメータに基づいてDPBでデコーディングされたピクチャが削除されることができる。また、エンコーディング装置は、DPBパラメータを含む映像情報をエンコーディングすることができる(S420)。また、図示されてはいないが、エンコーディング装置は、ステップS410以後にアップデートされたDPBに基づいて現在ピクチャをさらにデコーディングできる。また、デコーディングされた現在ピクチャは、DPBに挿入されることができ、デコーディングされた現在ピクチャを含むDPBは、デコーディング順序上次のピクチャをデコーディングする前にDPBパラメータに基づいてさらにアップデートされることができる。
図5は、本文書の実施例に係るデコーディング手順を例示的に示す。
図5を参照すると、デコーディング装置は、ビットストリームからDPBパラメータに対する情報を含む映像情報を取得することができる(S500)。デコーディング装置は、前記DPBパラメータに対する情報に基づいてDPBでデコーディングされたピクチャを出力することができる(S505)。一方、DPB(または、DPBパラメータ)と関連したレイヤが出力レイヤでない参照レイヤである場合には前記S505ステップが省略されることもできる。
また、デコーディング装置は、DPBパラメータに対する情報に基づいてDPBをアップデートすることができる(S510)。デコーディングされたピクチャは、基本的にDPBに挿入されることができる。以後、DPBは、現在ピクチャをデコーディングする前にアップデートされることができる。例えば、前記DPBパラメータに対する情報に基づいてDPBでデコーディングされたピクチャが削除されることもできる。ここで、DPBアップデート(DPB updating)は、DPB管理(DPB management)ということもできる。
DPBパラメータに対する情報は、前述した表1及び表3に開示された情報/シンタックスエレメントを含むことができる。また、例えば、現在レイヤが出力レイヤであるかまたは参照レイヤであるかによって、他のDPBパラメータ(等)がシグナリングされることができ、またはDPB(または、DPBパラメータ)が本文書で提案された実施例のようにOLSに対するもの(OLSにマッピングされるもの)であるかどうかによって、他のDPBパラメータ(等)がシグナリングされることができる。
一方、デコーディング装置は、前記DPBに基づいて現在ピクチャをデコーディングすることができる(S520)。例えば、デコーディング装置は、DPBの(現在ピクチャ以前に)デコーディングされたピクチャを参照ピクチャとして使用した現在ピクチャのブロック/スライスに対するインター予測に基づいて前記現在ピクチャをデコーディングすることができる。
一方、図示されてはいないが、エンコーディング装置は、前述したS410ステップ以後にアップデートされたDPBに基づいて現在ピクチャをデコーディングすることができる。また、デコーディングされた現在ピクチャは、DPBに挿入されることができ、デコーディングされた現在ピクチャを含むDPBは、次のピクチャをデコーディングする前にDPBパラメータに基づいてさらにアップデートされることができる。
本文書で提案した実施例が適用されたシンタックス及びDPB管理過程は、後述の通りである。
一実施例として、シグナリングされるVPS(video parameter set)シンタックスは、下記の通りである。
Figure 2023509934000010
表7を参照すると、VPSは、シンタックスエレメントvps_num_dpb_params、same_dpb_size_output_or_nonoutput_flag、vps_sublayer_dpb_params_present_flag、dpb_size_only_flag[i]、dpb_max_temporal_id[i]、layer_output_dpb_params_idx[i]及び/またはlayer_nonoutput_dpb_params_idx[i]を含むことができる。
また、表7を参照すると、VPSは、シンタックスエレメントvps_ols_dpb_params_present_flag及び/またはols_dpb_params_idx[i]をさらに含むことができる。
例えば、シンタックスエレメントvps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在できるかどうかを示すことができる。例えば、vps_ols_dpb_params_present_flagの値が1である場合、vps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在できることを示すことができ、vps_ols_dpb_params_present_flagの値が0である場合、vps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在しないことを示すことができる。一方、vps_ols_dpb_params_present_flagが存在しない場合、vps_ols_dpb_params_present_flagの値は、0と見なされることができる。
また、例えば、iがTotalNumOlssより小さい、vps_ols_dpb_params_present_flagが1であり、vps_num_dpb_paramsが1より大きい場合、NumLayersInOls[i]が1より大きいと、シンタックスエレメントols_dpb_params_idx[i]がシグナリングされることができる。前記ols_dpb_params_idx[i]は、vps_ols_dpb_params_idx[i]で表すこともできる。
例えば、シンタックスエレメントols_dpb_params_idx[i]は、NumLayersInOls[i]が1より大きい場合に、VPSのdpb_parameters()シンタックス構造のリストでの、i番目のOLSに適用されるdpb_parameters()シンタックス構造のインデックスを指定することができる。すなわち、例えば、シンタックスエレメントols_dpb_params_idx[i]は、対象OLS(すなわち、i番目のOLS)に対するVPSのdpb_parameters()シンタックス構造を示すことができる。ols_dpb_params_idx[i]が存在する場合、ols_dpb_params_idx[i]の値は、0乃至vps_num_dpb_params-1の範囲にある。
また、例えば、NumLayersInOls[i]が1と同じ場合、i番目のOLSに適用されるdpb_parameters()シンタックス構造は、i番目のOLSでレイヤが参照するSPSに存在できる。
一方、本実施例によると、OlsMaxDecPicBufferingMinus1[Htid]が以下のように定義されることができる。
Figure 2023509934000011
例えば、表8を参照すると、対象OLSに対するOlsMaxDecPicBufferingMinus1[Htid]の値は、下記のように導出されることができる。
例えば、vps_ols_dpb_params_present_flagの値が1である場合、OlsMaxDecPicBufferingMinus1[Htid]は、ols_dpb_params_idx[opOlsIdx]内のmax_dec_pic_buffering_minus1[Htid]の値と同じく導出されることができる。
また、例えば、以外の場合、すなわち、vps_ols_dpb_params_present_flagの値が0である場合、OlsMaxDecPicBufferingMinus1[Htid]は、対象OLS内の各レイヤのmax_dec_pic_buffering_minus1[Htid]+1の和から1を引いた値と同じく導出されることができる。
また、本実施例によると、ピクチャの出力及び除去過程(すなわち、DPB管理過程)は、以下のように定義されることができる。
Figure 2023509934000012
Figure 2023509934000013
例えば、表9を参照すると、サブDPBのピクチャ数は、max_dec_pic_buffering_minus1[Htid]+1より大きいまたは同じである。また、例えば、DPBのピクチャ数は、OlsMaxDecPicBufferingMinus1[Htid]+1より大きいまたは同じである。
また、本実施例によると、DPBの最大ピクチャ(すなわち、DPBの最大ピクチャ数)に対する制約条件は、以下のようにアップデートされることができる。ここで、前記DPBの最大ピクチャ数は、最大DPBサイズで表すこともできる。
Figure 2023509934000014
例えば、表10を参照すると、レベルがレベル8.5でない場合、OlsMaxDecPicBufferingMinus1[Htid]+1の値は、MaxDpbSizeより小さいまたは同じである。
または、一実施例として、シグナリングされるVPS(video parameter set)シンタックスは、下記の通りである。
Figure 2023509934000015
表11を参照すると、VPSは、シンタックスエレメントvps_num_dpb_params、same_dpb_size_output_or_nonoutput_flag、vps_sublayer_dpb_params_present_flag、dpb_size_only_flag[i]、dpb_max_temporal_id[i]、layer_output_dpb_params_idx[i]及び/またはlayer_nonoutput_dpb_params_idx[i]を含むことができる。
また、表11を参照すると、VPSは、シンタックスエレメントvps_ols_dpb_params_present_flag及び/またはols_dpb_params_idx[i]をさらに含むことができる。
例えば、iがTotalNumOlssより小さい、vps_num_dpb_paramsが1より大きい場合、NumLayersInOls[i]が1より大きいと、シンタックスエレメントvps_ols_dpb_params_present_flagがシグナリングされることができる。前記表7に示す実施例でvps_ols_dpb_params_present_flagが別途の条件無しでシグナリングされることと違って、iがTotalNumOlssより小さい、vps_num_dpb_paramsが1より大きい場合にのみ、vps_ols_dpb_params_present_flagがシグナリングされることができる。
例えば、シンタックスエレメントvps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在できるかどうかを示すことができる。例えば、vps_ols_dpb_params_present_flagの値が1である場合、vps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在できることを示すことができ、vps_ols_dpb_params_present_flagの値が0である場合、vps_ols_dpb_params_present_flagは、ols_dpb_params_idx[]が存在しないことを示すことができる。一方、vps_ols_dpb_params_present_flagが存在しない場合、vps_ols_dpb_params_present_flagの値は、0と見なされることができる。
また、例えば、vps_ols_dpb_params_present_flagが1である場合、シンタックスエレメントols_dpb_params_idx[i]がシグナリングされることができる。
例えば、シンタックスエレメントols_dpb_params_idx[i]は、NumLayersInOls[i]が1より大きい場合に、VPSのdpb_parameters()シンタックス構造のリストでの、i番目のOLSに適用されるdpb_parameters()シンタックス構造のインデックスを指定することができる。すなわち、例えば、シンタックスエレメントols_dpb_params_idx[i]は、対象OLS(すなわち、i番目のOLS)に対するVPSのdpb_parameters()シンタックス構造を示すことができる。ols_dpb_params_idx[i]が存在する場合、ols_dpb_params_idx[i]の値は、0乃至vps_num_dpb_params-1の範囲にある。
図6は、本文書によるエンコーディング装置による映像エンコーディング方法を概略的に示す。図6に開示された方法は、図2に開示されたエンコーディング装置により実行されることができる。具体的に、例えば、図6のS600乃至S620は、前記エンコーディング装置のエントロピーエンコーディング部により実行されることができる。また、図示されてはいないが、DPBをアップデートする過程は、前記エンコーディング装置のDPBにより実行されることができ、現在ピクチャをデコーディングする過程は、前記エンコーディング装置の予測部及びレジデュアル処理部により実行されることができる。
エンコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報を生成する(S600)。エンコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報を生成及びエンコーディングすることができる。映像情報は、DPB(Decoded Picture Buffer)パラメータ情報を含むことができる。例えば、VPS(Video Parameter Set、VPS)シンタックスは、前記DPBパラメータ情報を含むことができる。
例えば、DPB(Decoded Picture Buffer)パラメータ情報は、対象OLS(Output Layer set)に対するDPBパラメータ情報を含むことができる。例えば、前記対象OLSに対する前記DPBパラメータ情報は、前記対象OLSに対するDPBサイズに対する情報、前記対象OLSに対するDPBの最大ピクチャリオーダ数に対する情報、及び/または前記対象OLSに対するDPBの最大レイテンシーに対する情報を含むことができる。ここで、前記DPBサイズは、前記DPBが含むことができる最大ピクチャ数を示すことができる。
前記対象OLSに対するDPBサイズに対する情報のシンタックスエレメントは、前述したmax_dec_pic_buffering_minus1[i]であり、前記対象OLSに対するDPBの最大ピクチャリオーダ数に対する情報のシンタックスエレメントは、前述したmax_num_reorder_pics[i]であり、前記対象OLSに対するDPBの最大レイテンシーに対する情報のシンタックスエレメントは、前述したmax_latency_increase_plus1[i]である。
一方、例えば、DPB内のピクチャの数及び前記対象OLSに対するDPBサイズに対する情報に基づいて前記DPB内のピクチャに対するバンピングプロセス(bumping process)が実行されるかどうかが決定されることができる。例えば、前記DPB内の前記ピクチャの数が前記DPBサイズに対する情報に基づいて導出された値より大きいまたは同じ場合、前記バンピングプロセスが実行されることができ、前記DPB内の前記ピクチャの数が前記DPBサイズに対する情報に基づいて導出された値より小さい場合、前記バンピングプロセスが実行されない。ここで、例えば、前記DPBサイズに対する情報に基づいて導出された値は、前記DPBサイズに対する情報の値に1を加えた値である。
エンコーディング装置は、対象OLS(Output Layer set)のDPBパラメータ情報に対するOLS DPBパラメータインデックスを生成する(S610)。エンコーディング装置は、対象OLSのDPBパラメータ情報に対するOLS DPBパラメータインデックスを生成及びエンコーディングすることができる。映像情報は、対象OLSのDPBパラメータ情報に対するOLS DPBパラメータインデックスを含むことができる。例えば、前記VPSシンタックスは、前記OLS DPBパラメータインデックスを含むことができる。
例えば、前記対象OLSに対する前記OLS DPBパラメータインデックスは、前記対象OLSに対するDPBパラメータ情報を指すことができる。例えば、前記対象OLSに対する前記OLS DPBパラメータインデックスは、前記DPBパラメータ情報で前記対象OLSに対するDPBパラメータ情報を指すことができる。前記OLS DPBパラメータインデックスのシンタックスエレメントは、前述したvps_ols_dpb_params_idx[i]またはols_dpb_params_idx[i]である。
一方、例えば、エンコーディング装置は、前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかに対するOLS DPBパラメータフラグを生成及びエンコーディングすることができる。例えば、映像情報は、前記OLS DPBパラメータフラグを含むことができる。また、例えば、前記VPSシンタックスは、前記OLS DPBパラメータフラグを含むことができる。例えば、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかを示すことができる。例えば、前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在できることを示すことができ、前記OLS DPBパラメータフラグの値が0である場合、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在しないことを示すことができる。また、例えば、前記OLS DPBパラメータフラグに基づいて前記OLS DPBパラメータインデックスが生成及びエンコーディングされることができる。例えば、前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータインデックスが生成/エンコーディング/シグナリングされることがあり、前記OLS DPBパラメータフラグの値が0である場合、前記OLS DPBパラメータインデックスが生成/エンコーディング/シグナリングされないことがある。前記OLS DPBパラメータフラグのシンタックスエレメントは、前述したvps_ols_dpb_params_present_flagである。
エンコーディング装置は、前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスを含む映像情報をエンコーディングする(S620)。エンコーディング装置は、前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスをエンコーディングすることができる。映像情報は、前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスを含むことができる。また、映像情報は、前述したOLS DPBパラメータフラグを含むことができる。
一方、エンコーディング装置は、前記対象OLSのピクチャをデコーディングすることができる。また、例えば、エンコーディング装置は、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートすることができる。例えば、エンコーディング装置は、前記DPBパラメータ情報に基づいてDPBのデコーディングされたピクチャに対するピクチャ管理プロセスを実行することができる。例えば、エンコーディング装置は、デコーディングされたピクチャを前記DPBに追加でき、または、DPB内のデコーディングされたピクチャを除去することができる。例えば、前記DPB内のデコーディングされたピクチャは、現在ピクチャに対するインター予測の参照ピクチャとして使われることができ、または、前記DPB内のデコーディングされたピクチャは、出力ピクチャとして使われることができる。前記デコーディングされたピクチャは、前記対象OLSでデコーディング順序上現在ピクチャ以前にデコーディングされたピクチャを意味することができる。
また、例えば、エンコーディング装置は、前記アップデートされたDPBに基づいて前記対象OLSの現在ピクチャをデコーディングすることができる。例えば、エンコーディング装置は、前記アップデートされたDPBの参照ピクチャに基づいて前記現在ピクチャ内のブロックに対するインター予測を実行して予測サンプルを導出することができ、前記予測サンプルに基づいて前記現在ピクチャに対する復元サンプル及び/または復元ピクチャを生成することができる。一方、例えば、エンコーディング装置は、前記現在ピクチャ内のブロックにレジデュアルサンプルを導出することができ、前記予測サンプルと前記レジデュアルサンプルとの加算を介して復元サンプル及び/または復元ピクチャを生成することができる。
一方、例えば、エンコーディング装置は、前記現在ピクチャのブロックに対する予測情報を生成及びエンコーディングすることができる。この場合、インター予測またはイントラ予測など、本文書に開示された多様な予測方法が適用されることができる。例えば、エンコーディング装置は、前記ブロックにインター予測を実行するかまたはイントラ予測を実行するかを決定することができ、具体的なインター予測モードまたは具体的なイントラ予測モードをRDコストに基づいて決定できる。決定されたモードによって、エンコーディング装置は、前記現在クロマブロックに対する予測サンプルを導出することができる。前記予測情報は、前記現在クロマブロックに対する予測モード情報を含むことができる。前記映像情報は、前記予測情報を含むことができる。
また、例えば、エンコーディング装置は、前記ピクチャのブロックに対するレジデュアル情報をエンコーディングすることができる。
例えば、エンコーディング装置は、前記ブロックに対する原本サンプルと予測サンプルとの減算を介して前記レジデュアルサンプルを導出することができる。
以後、例えば、エンコーディング装置は、前記レジデュアルサンプルを量子化して量子化されたレジデュアルサンプルを導出することができ、前記量子化されたレジデュアルサンプルに基づいて変換係数を導出することができ、前記変換係数に基づいて前記レジデュアル情報を生成及びエンコーディングすることができる。または、例えば、エンコーディング装置は、前記レジデュアルサンプルを量子化して量子化されたレジデュアルサンプルを導出することができ、前記量子化されたレジデュアルサンプルを変換して変換係数を導出することができ、前記変換係数に基づいて前記レジデュアル情報を生成及びエンコーディングすることができる。前記映像情報は、前記レジデュアル情報を含むことができる。また、例えば、エンコーディング装置は、映像情報をエンコーディングしてビットストリーム形態で出力できる。
エンコーディング装置は、前記予測サンプルと前記レジデュアルサンプルとの加算を介して復元サンプル及び/または復元ピクチャを生成することができる。以後、必要によって、主観的/客観的画質を向上させるために、デブロッキングフィルタリング、SAO及び/またはALF手順のようなインループフィルタリング手順が前記復元サンプルに適用されることができることは、前述の通りである。
一方、前記映像情報を含むビットストリームは、ネットワークまたは(デジタル)格納媒体を介してデコーディング装置に送信されることができる。ここで、ネットワークは、放送網及び/または通信網などを含むことができ、デジタル格納媒体は、USB、SD、CD、DVD、ブルーレイ、HDD、SSDなど、多様な格納媒体を含むことができる。
図7は、本文書による映像エンコーディング方法を実行するエンコーディング装置を概略的に示す。図6に開示された方法は、図7に開示されたエンコーディング装置により実行されることができる。具体的に、例えば、図7の前記エンコーディング装置のエントロピーエンコーディング部は、S600乃至S620を実行することができる。また、図示されてはいないが、DPBをアップデートする過程は、前記エンコーディング装置のDPBにより実行されることができ、現在ピクチャをデコーディングする過程は、前記エンコーディング装置の予測部及びレジデュアル処理部により実行されることができる。
図8は、本文書によるデコーディング装置による映像デコーディング方法を概略的に示す。図8に開示された方法は、図3に開示されたデコーディング装置により実行されることができる。具体的に、例えば、図8のS800は、前記デコーディング装置のエントロピーデコーディング部により実行されることができ、図8のS810乃至S820は、前記デコーディング装置のDPBにより実行されることができ、図8のS830は、前記デコーディング装置の予測部及びレジデュアル処理部により実行されることができる。
デコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得する(S800)。デコーディング装置は、DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得することができる。
例えば、デコーディング装置は、ビットストリームからVPS(Video Parameter Set、VPS)シンタックスを取得することができる。映像情報は、前記VPSシンタックスを含むことができる。前記映像情報は、ビットストリームで受信されることができる。前記VPSシンタックスは、前記DPBパラメータ情報及び前記対象OLSに対する前記OLS DPBパラメータインデックスを含むことができる。すなわち、例えば、デコーディング装置は、前記VPSシンタックスで前記DPBパラメータ情報及び前記対象OLSに対する前記OLS DPBパラメータインデックスを取得することができる。
例えば、前記対象OLSに対する前記OLS DPBパラメータインデックスは、前記対象OLSに対するDPBパラメータ情報を指すことができる。例えば、前記DPBパラメータ情報は、前記対象OLSに対するDPBパラメータ情報を含むことができ、前記対象OLSに対する前記OLS DPBパラメータインデックスは、前記DPBパラメータ情報で前記対象OLSに対するDPBパラメータ情報を指すことができる。前記OLS DPBパラメータインデックスのシンタックスエレメントは、詳述したvps_ols_dpb_params_idx[i]またはols_dpb_params_idx[i]である。
一方、例えば、デコーディング装置は、前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかに対するOLS DPBパラメータフラグを取得することができる。例えば、映像情報は、前記OLS DPBパラメータフラグを含むことができる。また、例えば、前記VPSシンタックスは、前記OLS DPBパラメータフラグを含むことができる。例えば、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかを示すことができる。例えば、前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在できることを示すことができ、前記OLS DPBパラメータフラグの値が0である場合、前記OLS DPBパラメータフラグは、前記対象OLSに対する前記DPBパラメータ情報が存在しないことを示すことができる。また、例えば、前記OLS DPBパラメータフラグに基づいて前記OLS DPBパラメータインデックスが取得されることができる。例えば、前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータインデックスがシグナリング/取得されることができ、前記OLS DPBパラメータフラグの値が0である場合、前記OLS DPBパラメータインデックスがシグナリング/取得されない。前記OLS DPBパラメータフラグのシンタックスエレメントは、詳述したvps_ols_dpb_params_present_flagである。
デコーディング装置は、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出する(S810)。デコーディング装置は、前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出することができる。例えば、デコーディング装置は、前記OLS DPBパラメータインデックスが指す対象OLSに対するDPBパラメータ情報を導出することができる。前記DPBパラメータ情報は、前記対象OLSに対する前記DPBパラメータ情報を含むことができる。
例えば、前記対象OLSに対する前記DPBパラメータ情報は、前記対象OLSに対するDPBサイズに対する情報、前記対象OLSに対するDPBの最大ピクチャリオーダ数に対する情報、及び/または前記対象OLSに対するDPBの最大レイテンシーに対する情報を含むことができる。ここで、前記DPBサイズは、前記DPBが含むことができる最大ピクチャ数を示すことができる。
前記対象OLSに対するDPBサイズに対する情報のシンタックスエレメントは、詳述したmax_dec_pic_buffering_minus1[i]であり、前記対象OLSに対するDPBの最大ピクチャリオーダ数に対する情報のシンタックスエレメントは、詳述したmax_num_reorder_pics[i]であり、前記対象OLSに対するDPBの最大レイテンシーに対する情報のシンタックスエレメントは、詳述したmax_latency_increase_plus1[i]である。
デコーディング装置は、前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートする(S820)。デコーディング装置は、前記DPBパラメータ情報に基づいてDPBをアップデートすることができる。例えば、デコーディング装置は、前記DPBパラメータ情報に基づいてDPBのデコーディングされたピクチャに対するピクチャ管理プロセスを実行することができる。例えば、デコーディング装置は、デコーディングされたピクチャを前記DPBに追加でき、または、DPB内のデコーディングされたピクチャを除去することができる。例えば、前記DPB内のデコーディングされたピクチャは、現在ピクチャに対するインター予測の参照ピクチャとして使われることができ、または、前記DPB内のデコーディングされたピクチャは、出力ピクチャとして使われることができる。前記デコーディングされたピクチャは、前記対象OLSでデコーディング順序上現在ピクチャ以前にデコーディングされたピクチャを意味することができる。
例えば、デコーディング装置は、DPB内のピクチャの数及び前記対象OLSに対するDPBサイズに対する情報に基づいて前記DPB内のピクチャに対するバンピングプロセス(bumping process)が実行されるかどうかを決定することができ、前記決定結果に基づいて前記DPB内の前記ピクチャに対するバンピングプロセスを実行することができる。例えば、前記DPB内の前記ピクチャの数が前記DPBサイズに対する情報に基づいて導出された値より大きいまたは同じ場合は、前記バンピングプロセスが実行されることができ、前記DPB内の前記ピクチャの数が前記DPBサイズに対する情報に基づいて導出された値より小さい場合は、前記バンピングプロセスが実行されない。ここで、例えば、前記DPBサイズに対する情報に基づいて導出された値は、前記DPBサイズに対する情報の値に1を加えた値である。
デコーディング装置は、前記アップデートされたDPBに基づいて現在ピクチャをデコーディングする(S830)。デコーディング装置は、前記アップデートされたDPBに基づいて前記現在ピクチャをデコーディングすることができる。例えば、デコーディング装置は、前記アップデートされたDPBの参照ピクチャに基づいて前記現在ピクチャ内のブロックに対するインター予測を実行して予測サンプルを導出することができ、前記予測サンプルに基づいて前記現在ピクチャに対する復元サンプル及び/または復元ピクチャを生成することができる。一方、例えば、デコーディング装置は、ビットストリームを介して受信されたレジデュアル情報に基づいて前記現在ピクチャ内のブロックにレジデュアルサンプルを導出することができ、前記予測サンプルと前記レジデュアルサンプルとの加算を介して復元サンプル及び/または復元ピクチャを生成することができる。
以後、必要によって、主観的/客観的画質を向上させるために、デブロッキングフィルタリング、SAO及び/またはALF手順のようなインループフィルタリング手順が前記復元サンプルに適用されることができることは、前述の通りである。
図9は、本文書による映像デコーディング方法を実行するデコーディング装置を概略的に示す。図8に開示された方法は、図9に開示されたデコーディング装置により実行されることができる。具体的に、例えば、図9の前記デコーディング装置のエントロピーデコーディング部は、図8のS800を実行することができ、図9の前記デコーディング装置のDPBは、図8のS810乃至S820を実行することができ、図9の前記デコーディング装置の予測部及びレジデュアル処理部は、図8のS830を実行することができる。
詳述した本文書によると、OLSに対するDPBパラメータをシグナリングすることができ、これによって、OLSに適応的にDPBをアップデートすることができ、全般的なコーディング効率を向上させることができる。
また、本文書によると、OLSに対するDPBパラメータを指すインデックス情報をシグナリングすることができ、これによって、OLSに適応的にDPBパラメータを導出することができ、導出されたDPBパラメータに基づいてOLSに対するDPBをアップデートして全般的なコーディング効率を向上させることができる。
前述した実施形態において、方法は、一連のステップまたはブロックで流れ図を基に説明されているが、本文書は、ステップの順序に限定されるものではなく、あるステップは、前述と異なるステップと異なる順序でまたは同時に発生することができる。また、当業者であれば、流れ図に示されたステップが排他的でなく、他のステップが含まれ、または流れ図の1つまたはそれ以上のステップが本文書の範囲に影響を及ぼさずに削除可能であることを理解することができる。
本文書において説明した実施形態は、プロセッサ、マイクロプロセッサ、コントローラ、またはチップ上で実現されて実行されることができる。例えば、各図面において図示した機能ユニットは、コンピュータ、プロセッサ、マイクロプロセッサ、コントローラ、またはチップ上で実現されて実行されることができる。この場合、実現のための情報(例えば、information on instructions)またはアルゴリズムがデジタル記録媒体に格納されることができる。
また、本文書の実施形態が適用されるデコード装置及びエンコード装置は、マルチメディア放送送受信装置、モバイル通信端末、ホームシネマビデオ装置、デジタルシネマビデオ装置、監視用カメラ、ビデオ対話装置、ビデオ通信のようなリアルタイム通信装置、モバイルストリーミング装置、記録媒体、カムコーダ、注文型ビデオ(VoD)サービス提供装置、OTTビデオ(Over the top video)装置、インターネットストリーミングサービス提供装置、3次元(3D)ビデオ装置、画像電話ビデオ装置、運送手段端末(例えば、車両端末、飛行機端末、船舶端末等)、及び医療用ビデオ装置などに含まれることができ、ビデオ信号またはデータ信号を処理するために使用されることができる。例えば、OTTビデオ(Over the top video)装置として、ゲームコンソール、ブルーレイプレーヤ、インターネット接続TV、ホームシアターシステム、スマートフォン、タブレットPC、DVR(Digital Video Recoder)などを備えることができる。
また、本文書の実施形態が適用される処理方法は、コンピュータで実行されるプログラムの形態で生産されることができ、コンピュータが読み取り可能な記録媒体に格納されることができる。本文書に係るデータ構造を有するマルチメディアデータもコンピュータが読み取り可能な記録媒体に格納されることができる。前記コンピュータが読み取り可能な記録媒体は、コンピュータで読み出すことができるデータが格納される全ての種類の格納装置及び分散格納装置を含む。前記コンピュータが読み取り可能な記録媒体は、例えば、ブルーレイディスク(BD)、汎用直列バス(USB)、ROM、PROM、EPROM、EEPROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、及び光学的データ格納装置を含むことができる。また、前記コンピュータが読み取り可能な記録媒体は、搬送波(例えば、インターネットを介しての送信)の形態で実現されたメディアを含む。また、エンコード方法で生成されたビットストリームがコンピュータが読み取り可能な記録媒体に格納され、または有無線通信ネットワークを介して送信されることができる。
また、本文書の実施形態は、プログラムコードによるコンピュータプログラム製品で実現されることができ、前記プログラムコードは、本文書の実施形態によってコンピュータで実行されることができる。前記プログラムコードは、コンピュータにより読み取り可能なキャリア上に格納されることができる。
図10は、本文書の実施形態が適用されるコンテンツストリーミングシステム構造図を例示的に示す。
本文書の実施形態が適用されるコンテンツストリーミングシステムは、大別して、エンコードサーバ、ストリーミングサーバ、ウェブサーバ、メディア格納所、ユーザ装置、及びマルチメディア入力装置を含むことができる。
前記エンコードサーバは、スマートフォン、カメラ、カムコーダなどのようなマルチメディア入力装置から入力されたコンテンツをデジタルデータで圧縮してビットストリームを生成し、これを前記ストリーミングサーバに送信する役割をする。他の例として、スマートフォン、カメラ、カムコーダなどのようなマルチメディア入力装置がビットストリームを直接生成する場合、前記エンコードサーバは省略されることができる。
前記ビットストリームは、本文書の実施形態が適用されるエンコード方法またはビットストリーム生成方法により生成されることができ、前記ストリーミングサーバは、前記ビットストリームを送信または受信する過程で一時的に前記ビットストリームを格納することができる。
前記ストリーミングサーバは、ウェブサーバを介したユーザ要請に基づいてマルチメディアデータをユーザ装置に送信し、前記ウェブサーバは、ユーザにどのようなサービスがあるかを知らせる媒介体の役割をする。ユーザが前記ウェブサーバに所望のサービスを要請すると、前記ウェブサーバは、これをストリーミングサーバに伝達し、前記ストリーミングサーバは、ユーザにマルチメディアデータを送信する。このとき、前記コンテンツストリーミングシステムは、別の制御サーバを含むことができ、この場合、前記制御サーバは、前記コンテンツストリーミングシステム内の各装置間命令/応答を制御する役割をする。
前記ストリーミングサーバは、メディア格納所及び/またはエンコードサーバからコンテンツを受信することができる。例えば、前記エンコードサーバからコンテンツを受信するようになる場合、前記コンテンツをリアルタイムで受信することができる。この場合、円滑なストリーミングサービスを提供するために、前記ストリーミングサーバは、前記ビットストリームを一定時間の間格納することができる。
前記ユーザ装置の例として、携帯電話、スマートフォン(smartphone)、ノートブックコンピュータ(laptop computer)、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、ナビゲーション、スレートPC(slate PC)、タブレットPC(tablet PC)、ウルトラブック(ultrabook)、ウェアラブルデバイス(wearable device、例えば、ウォッチ型端末(smartwatch)、グラス型端末(smart glass)、HMD(head mounted display))、デジタルTV、デスクトップコンピュータ、デジタルサイニジなどがある。前記コンテンツストリーミングシステム内の各サーバは、分散サーバで運営されることができ、この場合、各サーバで受信するデータは分散処理されることができる。
本明細書に記載された請求項は様々な方式で組み合わせることができる。例えば、本明細書の方法請求項の技術的特徴が組み合わせられて装置として実現されることもでき、本明細書の装置請求項の技術的特徴が組み合わせられて方法として実現されることもできる。また、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせられて装置として実現されることもでき、本明細書の方法請求項の技術的特徴と装置請求項の技術的特徴が組み合わせられて方法として実現されることもできる。

Claims (15)

  1. デコーディング装置により実行される映像デコーディング方法において、
    DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するステップと、
    前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出するステップと、
    前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするステップと、
    前記アップデートされたDPBに基づいて現在ピクチャをデコーディングするステップと、を含むことを特徴とする、映像デコーディング方法。
  2. 前記OLS DPBパラメータインデックスは、前記対象OLSに対する前記DPBパラメータ情報を指すことを特徴とする、請求項1に記載の映像デコーディング方法。
  3. 前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスは、VPS(Video Parameter Set、VPS)シンタックスに含まれることを特徴とする請求項1に記載の映像デコーディング方法。
  4. 前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかに対するOLS DPBパラメータフラグが取得されることを特徴とする、請求項1に記載の映像デコーディング方法。
  5. 前記OLS DPBパラメータインデックスは、前記OLS DPBパラメータフラグに基づいて取得されることを特徴とする、請求項4に記載の映像デコーディング方法。
  6. 前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータインデックスが取得されることを特徴とする、請求項5に記載の映像デコーディング方法。
  7. 前記OLS DPBパラメータフラグは、VPS(Video Parameter Set、VPS)シンタックスに含まれることを特徴とする、請求項5に記載の映像デコーディング方法。
  8. 前記対象OLSに対する前記DPBパラメータ情報は、DPBサイズに対する情報、前記対象OLSに対する前記DPBの最大ピクチャリオーダ数に対する情報、及び前記DPBの最大レイテンシーに対する情報を含むことを特徴とする、請求項1に記載の映像デコーディング方法。
  9. エンコーディング装置により実行される映像エンコーディング方法において、
    DPB(Decoded Picture Buffer)パラメータ情報を生成するステップと、
    対象OLS(Output Layer set)のDPBパラメータ情報に対するOLS DPBパラメータインデックスを生成するステップと、
    前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスを含む映像情報をエンコーディングするステップと、を含むことを特徴とする、映像エンコーディング方法。
  10. 前記DPBパラメータ情報及び前記OLS DPBパラメータインデックスは、VPS(Video Parameter Set、VPS)シンタックスに含まれることを特徴とする、請求項9に記載の映像エンコーディング方法。
  11. 前記対象OLSに対する前記DPBパラメータ情報が存在するかどうかに対するOLS DPBパラメータフラグがエンコーディングされることを特徴とする、請求項9に記載の映像エンコーディング方法。
  12. 前記OLS DPBパラメータインデックスは、前記OLS DPBパラメータフラグに基づいて生成されることを特徴とする、請求項11に記載の映像エンコーディング方法。
  13. 前記OLS DPBパラメータフラグの値が1である場合、前記OLS DPBパラメータインデックスが生成されることを特徴とする、請求項12に記載の映像エンコーディング方法。
  14. 前記OLS DPBパラメータフラグは、VPS(Video Parameter Set、VPS)シンタックスに含まれることを特徴とする、請求項12に記載の映像エンコーディング方法。
  15. デコーディング装置にとって映像デコーディング方法を実行するようにする映像情報を含むビットストリームが格納されたコンピュータ読み取り可能なデジタル格納媒体において、前記映像デコーディング方法は、
    DPB(Decoded Picture Buffer)パラメータ情報及び対象OLS(Output Layer set)に対するOLS DPBパラメータインデックスを含む映像情報を取得するステップと、
    前記OLS DPBパラメータインデックスに基づいて前記対象OLSに対するDPBパラメータ情報を導出するステップと、
    前記対象OLSに対する前記DPBパラメータ情報に基づいてDPBをアップデートするステップと、
    前記アップデートされたDPBに基づいて現在ピクチャをデコーディングするステップと、を含むことを特徴とする、コンピュータ読み取り可能なデジタル格納媒体。
JP2022540580A 2019-12-30 2020-12-29 Dpbパラメータをコーディングする映像デコーディング方法及びその装置 Active JP7439267B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024019912A JP2024040399A (ja) 2019-12-30 2024-02-14 Dpbパラメータをコーディングする映像デコーディング方法及びその装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962955356P 2019-12-30 2019-12-30
US62/955,356 2019-12-30
PCT/KR2020/019333 WO2021137596A1 (ko) 2019-12-30 2020-12-29 Dpb 파라미터를 코딩하는 영상 디코딩 방법 및 그 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024019912A Division JP2024040399A (ja) 2019-12-30 2024-02-14 Dpbパラメータをコーディングする映像デコーディング方法及びその装置

Publications (2)

Publication Number Publication Date
JP2023509934A true JP2023509934A (ja) 2023-03-10
JP7439267B2 JP7439267B2 (ja) 2024-02-27

Family

ID=76686655

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022540580A Active JP7439267B2 (ja) 2019-12-30 2020-12-29 Dpbパラメータをコーディングする映像デコーディング方法及びその装置
JP2024019912A Pending JP2024040399A (ja) 2019-12-30 2024-02-14 Dpbパラメータをコーディングする映像デコーディング方法及びその装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024019912A Pending JP2024040399A (ja) 2019-12-30 2024-02-14 Dpbパラメータをコーディングする映像デコーディング方法及びその装置

Country Status (8)

Country Link
US (1) US20220417526A1 (ja)
EP (1) EP4068787A4 (ja)
JP (2) JP7439267B2 (ja)
KR (1) KR20220100976A (ja)
CN (1) CN115244932A (ja)
BR (1) BR112022012976A2 (ja)
MX (1) MX2022008116A (ja)
WO (1) WO2021137596A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7827467B2 (en) * 2006-01-04 2010-11-02 Nokia Corporation Method for checking of video encoder and decoder state integrity
US9591321B2 (en) * 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
JP6505026B2 (ja) * 2013-07-10 2019-04-24 シャープ株式会社 符号化方法
US9819941B2 (en) * 2013-10-10 2017-11-14 Qualcomm Incorporated Signaling for sub-decoded picture buffer (sub-DPB) based DPB operations in video coding
KR20220070325A (ko) * 2019-10-07 2022-05-30 후아웨이 테크놀러지 컴퍼니 리미티드 서브 비트스트림 추출의 sps 오류 방지
CN115152233A (zh) * 2019-12-30 2022-10-04 Lg电子株式会社 包括dpb管理处理的图像解码方法及其设备
WO2021137597A1 (ko) * 2019-12-30 2021-07-08 엘지전자 주식회사 Ols에 대한 dpb 파라미터를 사용하는 영상 디코딩 방법 및 그 장치

Also Published As

Publication number Publication date
EP4068787A1 (en) 2022-10-05
EP4068787A4 (en) 2023-04-19
WO2021137596A1 (ko) 2021-07-08
CN115244932A (zh) 2022-10-25
KR20220100976A (ko) 2022-07-18
BR112022012976A2 (pt) 2022-09-13
MX2022008116A (es) 2022-09-19
US20220417526A1 (en) 2022-12-29
JP7439267B2 (ja) 2024-02-27
JP2024040399A (ja) 2024-03-25

Similar Documents

Publication Publication Date Title
JP7259087B2 (ja) Bdpcmに基づく画像デコード方法及びその装置
JP7284342B2 (ja) クロマ量子化パラメータオフセット関連情報をコーディングする画像デコード方法及びその装置
JP7230189B2 (ja) シンタックスデザイン方法及びシンタックスを用いてコーディングを行う装置
JP2022537725A (ja) 画像デコード方法及びその装置
US11770537B2 (en) Image encoding/decoding method and apparatus for performing intra prediction, and method for transmitting bitstream
KR20230008795A (ko) 영상 디코딩 방법 및 그 장치
JP2024040519A (ja) Ols dpbパラメータインデックスを含む映像情報ベースの映像デコーディング方法及びその装置
JP2023516617A (ja) サインデータハイディング関連映像デコーディング方法及びその装置
JP2023507625A (ja) 予測重みテーブルに基づく映像/ビデオコーディング方法及び装置
JP2023510796A (ja) ルマ成分及びクロマ成分に対するbdpcmに基づく画像デコード方法及びその装置
JP2022551250A (ja) 変換スキップ及びパレットコーディング関連情報のシグナリングベースの映像又はビデオコーディング
JP2022543596A (ja) クロマ量子化パラメータを使用する画像デコード方法及びその装置
CA3144206A1 (en) Coding of information about transform kernel set
US20220408115A1 (en) Image decoding method and device
JP2023509684A (ja) ピクチャヘッダを含む映像情報をコーディングする映像デコーディング方法及びその装置
KR20220165256A (ko) 영상 디코딩 방법 및 그 장치
JP2023504417A (ja) 映像/ビデオコーディング方法及び装置
JP7439267B2 (ja) Dpbパラメータをコーディングする映像デコーディング方法及びその装置
JP7310022B2 (ja) 映像/ビデオエンコーディング/デコーディングシステムにおけるスライスに関する情報のシグナリング方法及び装置
US11483573B2 (en) Image encoding/decoding method and device for determining division mode on basis of prediction mode type determined according to color format, and method for transmitting bitstream
KR102669640B1 (ko) 크로마 양자화 파라미터 데이터 기반 영상 디코딩 방법 및 그 장치
JP2023526389A (ja) 映像デコーディング方法及びその装置
JP2023503660A (ja) ピクチャ分割情報をシグナリングする方法及び装置
JP2023506194A (ja) ピクチャレベルまたはスライスレベルで適用される画像情報をシグナリングする方法及び装置
JP2023519978A (ja) レジデュアルコーディングに対する映像デコーディング方法及びその装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7439267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150