JP2023542227A - 補助情報のシグナリング - Google Patents

補助情報のシグナリング Download PDF

Info

Publication number
JP2023542227A
JP2023542227A JP2023518730A JP2023518730A JP2023542227A JP 2023542227 A JP2023542227 A JP 2023542227A JP 2023518730 A JP2023518730 A JP 2023518730A JP 2023518730 A JP2023518730 A JP 2023518730A JP 2023542227 A JP2023542227 A JP 2023542227A
Authority
JP
Japan
Prior art keywords
video
bitstream
information
auxiliary
video layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023518730A
Other languages
English (en)
Inventor
ワン,イェ-クイ
ザン,リー
ザン,カイ
デン,ジピン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023542227A publication Critical patent/JP2023542227A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

デジタルビデオを符号化、復号化、又はトランスコーディングするシステム、方法、及び装置が記載される。ビデオデータを処理する、一例となる方法は、フォーマット規則に従ってビデオとビデオのビットストリームとの間の変換を実行するステップを含み、フォーマット規則は、ビットストリームに含まれる補足強化情報フィールドにより、ビットストリームが、補助情報を表す1つ以上のビデオレイヤを有するかどうかが示される、ことを定める。

Description

[関連出願への相互参照]
適用される特許法及び/又はパリ条約に従う規則の下で、本願は、2020年9月29日付けで出願された国際特許出願第PCT/CN2020/118711号に対する優先権及びその利益を適宜請求するようになされたものである。法の下での全ての目的のために、上記の出願の全開示は、本願の開示の部分として参照により援用される。
[技術分野]
本特許明細書は、ビデオ符号化、トランスコーディング、又は復号化を含むデジタルビデオコーディング技術に関係がある。
デジタルビデオは、インターネット及び他のデジタル通信網で最大のバンド幅使用を占めている。ビデオを受信及び表示することができるユーザ機器の接続数が増えるにつれて、デジタルビデオ利用のためのバンド幅需要は増え続けることが予想される。
本明細書は、ファイルフォーマットに従ってビデオ又は画像のコーディングされた表現を処理するためにビデオエンコーダ及びデコーダによって使用され得る技術を開示する。
一例となる態様で、ビデオデータを処理する方法が開示される。方法は、フォーマット規則に従ってビデオとビデオのビットストリームとの間の変換を実行するステップを含み、フォーマット規則は、ビットストリームに含まれる補足強化情報フィールド又はビデオユーザビリティ情報シンタックス構造により、ビットストリームが、複数のビデオが複数のビデオレイヤにおいてコーディングされているマルチビュービットストリームを有するかどうかが示される、ことを定める。
他の例となる態様で、ビデオデータを処理する方法が開示される。方法は、フォーマット規則に従ってビデオとビデオのビットストリームとの間の変換を実行するステップを含み、フォーマット規則は、ビットストリームに含まれる補足強化情報フィールドにより、ビットストリームが、補助情報を表す1つ以上のビデオレイヤを有するかどうかが示される、ことを定める。
他の例となる態様で、ビデオ処理方法が開示される。方法は、ビデオピクチャを含むビデオとビデオのコーディングされた表現との間の変換を実行するステップを含み、コーディングされた表現はフォーマット規則に従い、フォーマット規則は、コーディングされた表現に含まれるフィールドによりビデオがマルチビュービデオであることが示される、ことを定める。
他の例となる態様で、他のビデオ処理方法が開示される。方法は、ビデオピクチャを含むビデオとビデオのコーディングされた表現との間の変換を実行するステップを含み、コーディングされた表現はフォーマット規則に従い、フォーマット規則は、コーディングされた表現に含まれるフィールドにより、ビデオが複数のビデオレイヤにおいてコーディングされた表現でコーディングされていることが示される、ことを定める。
更なる他の例となる態様で、ビデオエンコーダ装置が開示される。ビデオエンコーダは、上記の方法を実装するよう構成されたプロセッサを有する。
更なる他の例となる態様では、ビデオデコーダ装置が開示される。ビデオデコーダは、上記の方法を実装するよう構成されたプロセッサを有する。
更なる他の例となる態様では、コードが記憶されているコンピュータ可読媒体が開示される。コードは、プロセッサ実行可能コードの形で、本明細書で記載される方法の1つを具現化する。
更なる他の例となる態様では、ビットストリームが記憶されているコンピュータ可読媒体が開示される。ビットストリームは、本明細書で記載される方法を用いて生成又は処理される。
これら及び他の特徴は、本明細書にわたって記載される。
例となるビデオ処理システムのブロック図である。 ビデオ処理装置のブロック図である。 ビデオ処理の例示的な方法のフローチャートである。 本開示のいくつかの実施形態に係るビデオコーディングシステムを表すブロック図である。 本開示のいくつかの実施形態に係るエンコーダを表すブロック図である。 本開示のいくつかの実施形態に係るデコーダを表すブロック図である。 2つのOLSを含み、OLS2が0に等しいvps_max_tid_il_ref_pics_plus1[1][0]を有するビットストリームの例である。 ビデオ処理の例示的な方法のフローチャートである。 ビデオ処理の例示的な方法のフローチャートである。
セクション見出しは、理解を簡単にするために本明細書で使用されているのであって、各セクションで開示されている技術及び実施形態の適用可能性をそのセクションにのみ制限するものではない。更に、H.266という用語は、開示されている技術の範囲を限定するためではなく、理解を容易にするためにのみ、いくつかの記載で使用されている。そのようなものとして、本明細書で記載される技術は、他のビデオコーデックプロトコル及び設計にも適用可能である。本明細書中、編集の変更は、VVC仕様の現在の草案に関して、テキストの取消を示す取消線及びテキストの追加を示す強調表示によってテキストに対して示されている。
[1.導入]
本明細書は、ビデオコーディング技術に関係がある。具体的に、それは、バーサタイルビデオコーディング(Versatile Video Coding,VVC)ビデオビットストリームのスケーラビリティディメンション情報のシグナリングに関係がある。アイデアは、個別的に、又は様々な組み合わせで、如何なるビデオコーディング標準規格又は非標準のビデオコーデック、例えば、最近最終合意に達したVVC、にも適用されてよい。
[2.頭字語]
ACT Adaptive Colour Transform
ALF Adaptive Loop Filter
AMVR Adaptive Motion Vector Resolution
APS Adaptation Parameter Set
AU Access Unit
AUD Access Unit Delimiter
AVC Advanced Video Coding(Rec.ITU-T H.265|ISO/IEC 14496-10)
B Bi-predictive
BCW Bi-prediction with CU-level Weights
BDOF Bi-Directional Optical Flow
BDPCM Block-Based Delta Pulse Code Modulation
BP Buffering Period
CABAC Context-based Adaptive Binary Arithmetic Coding
CB Coding Block
CBR Constant Bit Rate
CCALF Cross-Component Adaptive Loop Filter
CLVS Coded Layer Video Sequence
CLVSS Coded Layer Video Sequence Start
CPB Coded Picture Buffer
CRA Clean Random Access
CRC Cyclic Redundancy Check
CTB Coding Tree Block
CTU Coding Tree Unit
CU Coding Unit
CVS Coded Video Sequence
CVSS Coded Video Sequence Start
DCI Decoding Capability Information
DPB Decoded Picture Buffer
DRAP Dependent Random Access Point
DU Decoding Unit
DUI Decoding Unit Information
EG Exponential-Golomb
EGk k-th order Exponential-Golomb
EOB End Of Bitstream
EOS End Of Sequence
FD Filler Data
FIFO First-In, First-Out
FL Fixed-Length
GBR Green, Blue, and Red
GCI General Constraints Information
GDR Gradual Decoding Refresh
GPM Geometric Partitioning Mode
HEVC High Efficiency Video Coding(Rec.ITU-T H.265|ISO/IEC 23008-2)
HRD Hypothetical Reference Decoder
HSS Hypothetical Stream Scheduler
I Intra
IBC Intra Block Copy
IDR Instantaneous Decoding Refresh
ILRP Inter-Layer Reference Picture
IRAP Intra Random Access Point
LFNST Low Frequency Non-Separable Transform
LPS Least Probable Symbol
LSB Least Significant Bit
LTRP Long-Term Reference Picture
LMCS Luma Mapping with Chroma Scaling
MIP Matrix-based Intra Prediction
MPS Most Probable Symbol
MSB Most Significant Bit
MTS Multiple Transform Selection
MVP Motion Vector Prediction
NAL Network Abstraction Layer
OLS Output Layer Set
OP Operation Point
OPI Operating Point Information
P Predictive
PH Picture Header
POC Picture Order Count
PPS Picture Parameter Set
PROF Prediction Refinement with Optical Flow
PT Picture Timing
PU Picture Unit
QP Quantization Parameter
RADL Random Access Decodable Leading (picture)
RASL Random Access Skipped Leading (picture)
RBSP Raw Byte Sequence Payload
RGB Red, Green, and Blue
RPL Reference Picture List
SAO Sample Adaptive Offset
SAR Sample Aspect Ratio
SEI Supplemental Enhancement Information
SH Slice Header
SLI Subpicture Level Information
SODB String Of Data Bits
SPS Sequence Parameter Set
STRP Short-Term Reference Picture
STSA Step-wise Temporal Sublayer Access
TR Truncated Rice
TU Transform Unit
VBR Variable Bit Rate
VCL Video Coding Layer
VPS Video Parameter Set
VSEI Versatile Supplemental Enhancement Information(Rec.ITU-T H.274|ISO/IEC 23002-7)
VUI Video Usability Information
VVC Versatile Video Coding(Rec.ITU-T H.266|ISO/IEC 23090-3)
[3.最初の議論]
[3.1.ビデオコーディング標準規格]
ビデオコーディング標準規格は、よく知られているITU-T及びISO/IEC標準規格の開発を通じて主に発展してきた。ITU-TはH.261及びH.263を作り出し、ISO/IECはMPEG-1及びMPEG-4 Visualを作り出し、2つの組織は共同でH.262/MPEG-2 Video及びH264/MPEG-4 AVC(Advanced Video Coding)及びH.265/HEVC標準規格を作り出した。H.262以降、ビデオコーディング標準規格は、時間予測に変換コーディングをプラスしたものが利用されるハイブリッド型ビデオコーディング構造に基づいている。HEVCを超える将来のビデオコーディング技術を探求するために、JVET(Joint Video Exploration Team)が2015年にVCEG及びMPEGによって共同で設立された。それ以降、多くの新しい方法がJVETによって採用され、JEM(Joint Exploration Model)と名付けられた参照ソフトウェアに置かれてきた。後に、VVC(Versatile Video Coding)プロジェクトが公式に始まると、JVETはJVET(Joint Video Experts Team)と改名された。VVCは、2020年6月1日に終了した19回目のJVETで最終合意された新しいコーディング標準規格であり、HEVCと比較してビットレートを50%削減することを目標としている。
VVC(Versatile Video Coding)標準規格(ITU-T H.266|ISO/IEC 23090-3)及び関連するVSEI(Versatile Supplemental Enhancement Information)標準規格(ITU-T H.274|ISO/IEC 23002-7)は、テレビ放送、ビデオ会議、又は記憶媒体からの再生などの従来の使用と、適応ビットレートストリーミング、ビデオ領域抽出、複数のコーディングされたビデオビットストリームからのコンテンツの合成及びマージ、マルチビュービデオ、スケラーブルレイヤードコーディング、並びにビューポート適応360°没入ビデオのようなより新しくより進歩した使用ケースとの両方を含む最大限に広範囲の用途での使用のために設計されている。
[3.2.ビデオに基づいた点群圧縮(Video based Point Cloud Compression,V-PCC)]
略してV-PCCとも呼ばれるISO/IEC 23090-5,Information technology - Coded Representation of Immersive Media - Part 5: Visual Volumetric Video-based Coding (V3C) and Video-based Point Cloud Compression(V-PCC)は、点群信号のコーディングされた表現を規定する標準規格である。V-PCC標準規格は、最近最終合意されたもう1つの標準規格である。
V-PCCは、VVC、HEVC、AVCなどのような特定のビデオコーデックを使用してコーディングされ得る占有、ジオメトリ、テクスチャ属性、マテリアル属性、透明度属性、反射率属性、及び標準属性のようなデータタイプを規定する。
[3.3.VVCにおける時間スケーラビリティのサポート]
VVCは、HEVCで見られるような時間スケーラビリティの類似したサポートを含む。そのようなサポートは、NALユニットヘッダでの時間IDのシグナリング、特定の時間サブレイヤのピクチャがより低い時間サブレイヤのピクチャによるインター予測参照に使用され得ないという制限、サブビットストリーム抽出プロセス、及び適切な入力の各サブビットストリーム抽出出力が適合(conforming)ビットストリームでなければならないという要求をサポートする。MANE(Media-Aware Network Element(s))は、時間スケーラビリティに基づいたストリーム適応のためにNALユニットヘッダ内の時間IDを利用することができる。
[3.4.VVCにおけるシーケンス内のピクチャ分解能の変更]
AVC及びHEVCでは、ピクチャの空間分解能は、新しいSPSを使用する新しいシーケンスがIRAPピクチャで始まらない限りは、変更することができない。VVCは、常にイントラコーディングされるIRAPピクチャを符号化せずに、ある位置でシーケンス内でのピクチャ分解能の変更を可能にする。この特徴は、インター予測に使用される参照ピクチャが復号中の現在ピクチャとは異なる分解能を有している場合にその参照ピクチャのリサンプリングを必要とするということで、参照ピクチャリサンプリング(Reference Picture Resampling,RPR)と呼ばれることがある。
既存の実施の動き補償モジュールを再利用することを可能にするために、スケーリング比は、1/2以上(参照ピクチャから現在ピクチャへの2倍のダウンサンプリング)かつ8以下(8倍のアップサンプリング)であるよう制限される。水平及び垂直スケーリング比は、参照ピクチャ及び現在ピクチャについて指定されているピクチャ幅及び高さ、並びに左、右、上、及び下スケーリングオフセットに基づいて導出される。
例えばネットワーク条件の変化に即応するためにストリーミング又はビデオ会議シナリオで瞬時のビットレートスパイクを引き起こすIRAPピクチャをコーディングする必要性なしに、RPRは分解能の変更を可能にする。RPRはまた、ビデオ領域の全体又は関心のある一部の領域のズームが必要とされる適応シナリオでも使用され得る。スケーリングウィンドウオフセットは、より広範囲のズームに基づいた適用をサポートするよう負であることができる。負のスケーリングウィンドウオフセットはまた、抽出されたサブビットストリームに対して元のビットストリームで見られるのと同じスケーリングウィンドウを保ちながら、マルチレイヤビットストリームからのサブピクチャシーケンスの抽出を可能にする。
ピクチャリサンプリング及び動き補償が2つの異なる段階で適用されるHEVCのスケーラブル拡張における空間スケーラビリティとは異なり、VVCのRPRは、サンプル位置の導出及び動きベクトルスケーリングが動き補償中に実行されるブロックレベルでの同じプロセスの部分として実行される。
実施複雑性を制限することを目指して、CLVS内のピクチャ分解能の変更は、CLVS内のピクチャがピクチャごとに複数のサブピクチャを有する場合には許可されない。更に、デコーダ側動きベクトル精緻化(decoder side motion vector refinement)、双方向オプティカルフロー(bi-directional optical flow)、及びオプティカルフローによる予測精緻化(prediction refinement with optical flow)は、RPRが現在ピクチャと参照ピクチャとの間で使用される場合には適用されない。時間動きベクトル候補の導出のための同一位置(collocated)ピクチャも、現在ピクチャと同じピクチャサイズ、スケーリングウィンドウオフセット、及びCTUサイズを有するように制限される。
RPRのサポートについて、VVC設計のその他の側面は、HEVCとは異なるものにされている。第1に、ピクチャ分解能並びに対応する適合性(conformance)及びスケーリングウィンドウは、SPSでではなく、PPSでシグナリングされ、一方、SPSでは、最大ピクチャ分解能及び対応する適合ウィンドウがシグナリングされる。応用では、SPSでの対応する適合ウィンドウオフセットを伴った最大ピクチャ分解能は、クロッピング後に、意図された又は所望のピクチャ出力サイズとして使用され得る。第2に、シングルレイヤビットストリームの場合に、各ピクチャストア(1つの復号されたピクチャの記憶のためのDPB内のスロット)は、最大ピクチャ分解能を有している復号されたピクチャを記憶するのに必要なバッファサイズを占有する。
[3.5.VVCにおけるマルチレイヤスケーラビリティのサポート]
VVCコア設計においてRPRを用いて現在ピクチャとは異なるサイズの参照ピクチャからインター予測する能力を有することにより、VVCは、異なる分解能の複数のレイヤ、例えば、標準画質分解能及び高精細分解能を夫々有する2つのレイヤ、を含むビットストリームを容易にサポートすることができる。VVCデコーダでは、そのような機能は、空間スケーラビリティのサポートに必要なアップサンプリング機能がRPRアップサンプリングフィルタを再利用することによって提供され得るということで、如何なる追加の信号処理レベルのコーディングツールも必要とせずに組み込まれ得る。それでもなお、ビットストリームのスケーラビリティサポートを可能にするための追加の高位シンタックス設計が必要とされる。
スケーラビリティはVVCでサポートされているが、マルチレイヤプロファイルにしか含まれていない。AVC及びHEVCの拡張を含む如何なる先のビデオコーディング標準規格におけるスケーラビリティサポートとも異なり、VVCスケーラビリティの設計は、可能な限りシングルレイヤデコーダ設計に適したものとなっている。マルチレイヤビットストリームのための復号化能力は、あたかもビットストリームに単一レイヤしかないかのように規定されている。例えば、DPBサイズなどの復号化能力は、復号されるべきビットストリーム内のレイヤの数に依存しない方法で規定されている。基本的に、シングルレイヤビットストリームのために設計されているデコーダは、マルチレイヤビットストリームを復号することができるように大幅な変更を必要としない。
AVC及びHEVCのマルチレイヤ拡張の設計と比較して、HLSの側面は、いくらかの柔軟性を犠牲にして大幅に簡素化されている。例えば、1)IRAP AUは、CVSに存在するレイヤの夫々についてピクチャを含むことを求められており、これにより、レイヤ単位で開始される復号化プロセスを規定する必要がなくなり、2)複雑なPOC再設定メカニズムに代えて、POCシグナリングのためのよりずっと簡単な設計がVVCには含まれており、導出されたPOC値がAU内の全ピクチャについて同じであることを確認する。
HEVCと同様に、レイヤ及びレイヤ依存性に関する情報はVPSに含まれる。OLSの情報は、どのレイヤがOLSに含まれるかと、どのレイヤが出力されるかと、各OLSに関連したPTL及びHRDパラメータなどのような他の情報とのシグナリングのために与えられる。HEVCと同様に、カスタム出力モードで全レイヤ、最高レイヤのみ、又は特定の指示されたレイヤのどれかを出力する3つの動作モードが存在する。
VVCでのOLS設計とHEVCでのOLS設計との間にはいくつかの違いがある。第1に、HEVCでは、レイヤセットがシグナリングされ、次いで、OLSがレイヤセットに基づいてシグナリングされ、各OLSについて、出力レイヤがシグナリングされる。HEVCの設計により、レイヤは、出力レイヤでも出力レイヤを復号するために必要なレイヤでもないOLSに属することができるようになった。VVCでは、設計は、OLS内の任意のレイヤが出力レイヤ又は出力レイヤを復号するために必要なレイヤのどちらかであることを必要とする。従って、VVCでは、OLSは、OLSの出力レイヤを示すことによってシグナリングされ、次いで、OLSに属する他のレイヤは、VPSで示されているレイヤ依存性によって、簡単に導出される。更に、VVCは、各レイヤが少なくとも1つのOLSに含まれることを必要とする。
VVC OLS設計における他の違いは、OLSにマッピングされている識別されたレイヤの組に属する全てのNALユニットからOLSが構成されるHEVCとは対照的に、VVCが、OLSにマッピングされている非出力レイヤに属する一部のNALユニットを除き得る点である。より具体的には、VVCのOLSは、0に等しいph_recovery_poc_cntを有するIRAP若しくはGDRピクチャ又はインターレイヤ予測に使用されるサブレイヤからのピクチャのみを含む非出力レイヤを含んだ、OLSにマッピングされているレイヤの組から成る。これは、OLSを形成するレイヤ内の全サブレイヤの“必要な”全てのピクチャのみを考慮してマルチレイヤビットストリームの最適なレベル値を示すことを可能にする。ここで、“必要な”とは、出力又は復号化に必要であることを意味する。図7は、0に等しいvps_max_tid_il_ref_pics_plus1[1][0]を有する2レイヤビットストリーム、すなわち、OLS2が抽出されるときにレイヤL0からのIRAPピクチャのみが保たれるサブビットストリーム、の例を示す。
異なるレイヤでの異なるRAP周期性を許すことが有益であるいくつかのシナリオを考慮すると、AVC及びHEVCと同様に、AUは、整列されていないRAPを含むレイヤを有することを許される。マルチレイヤビットストリーム内のRAP、つまり、全レイヤでRAPを持ったAU、のより迅速な識別のために、アクセスユニットデリミタ(Access Unit Delimiter,AUD)は、AUがIRAP AU又はGDR AUであるかどうかを示すフラグを持ったHEVCと比較して拡張された。更に、AUDは、VPSが複数のレイヤを示す場合に、そのようなIRAP又はGDR AUに存在することを義務づけられている。しかし、VPSによって示されるシングルレイヤビットストリーム又はVPSを参照しないビットストリームの場合に、AUDは、HEVCで見られるように、完全に任意である。これは、この場合に、RAPが、AU内の第1スライスのNALユニットタイプ及び各々のパラメータセットから容易に検出され得るからである。
複数のレイヤによるSPS、PPS、及びAPSの共有を可能にするために、同時に、ビットストリーム抽出プロセスが復号化プロセスで必要なパラメータセットを無駄にしないことを確認するために、第1レイヤのVCL NALユニットは、その第1レイヤを含む全てのOLSがより低いレイヤのID値によって識別されるレイヤも含む限りは、同じ又はより低いレイヤのID値を有するSPS、PPS、又はAPSを参照することができる。
[3.6.VUI及びSEIメッセージ]
VUIは、SPSの部分として(及び、場合により、HEVCのVPSでも)送信されるシンタックス構造である。VUIは、規範的な復号化プロセスに影響を及ぼさないが、コーディングされたビデオの適切なレンダリングにとって重要であり得る情報を運ぶ。
SEIは、復号、表示、又は他の目的に関係があるプロセスを支援する。VUIと同じく、SEIは規範的な復号化プロセスに影響を及ぼさない。SEIはSEIメッセージで運ばれる。SEIメッセージのデコーダサポートは任意である。しかし、SEIメッセージは、ビットストリーム適合性に影響を及ぼし(例えば、ビットストリーム内のSEIメッセージのシンタックスが仕様に従わない場合に、ビットストリームは適合しない。)、一部のSEIメッセージはHRD仕様で必要とされる。
VVCで使用されるVUIシンタックス構造及びほとんどのSEIメッセージは、VVC仕様において規定されておらず、むしろVSEI仕様で規定されている。HRD適合性試験に必要なSEIメッセージは、VVC仕様で規定されている。VVC v1は、HRD適合性試験に関連した5つのSEIメッセージを定義しており、VSEI v1は、20個の追加のSEIメッセージを規定している。VSEI仕様で運ばれるSEIメッセージは、適合するデコーダ挙動に直接に影響せず、それらがコーディングフォーマットにとらわれない方法で使用され得るように定義されており、これにより、VVCに加えて、VSEIを、他のビデオコーディング標準規格により将来使用することができる。VVCシンタックス要素名を具体的に参照するのではなく、VSEI仕様は、値がVVC仕様内でセットされている変数を参照する。
HEVCと比較して、VVCのVUIシンタックス構造は、ピクチャの適切なレンダリングに関連した情報にのみ焦点を当てており、如何なるタイミング情報又はビットストリーム制限指示も含まない。VVCでは、VUIはSPS内でシグナリングされ、SPSは、バイトでのVUIペイロードの長さを通知するようVUIシンタックス構造の前に長さフィールドを含む。これは、デコーダが容易に情報を飛び越すことを可能にし、より重要なことには、SEIメッセージシンタックス拡張と同様の方法で、VUIシンタックス構造の終わりに新しいシンタックス要素を直接追加することによって、便利な将来のVUIシンタックス構造を可能にする。
VUIシンタックス構造は、次の情報を含む:
●インターレースされているか又は累進的であるコンテンツ;
●コンテンツがフレームパックされた立体視ビデオ又は投影全方向ビデオを含むかどうか;
●サンプルアスペクト比:
●コンテンツがオーバースキャン表示に適しているかどうか;
●超高解像度(Ultra High Definition,UHD)対高解像度(High Definition,HD)の色空間及びハイダイナミックレンジ(High Dynamic Range,HDR)シグナリングすることができるようにするために特に重要な、原色、マトリックス、及び伝達特性を含む色の説明;
●輝度(ルーマ)と比較した彩度(クロマ)の位置(HEVCと比較して、累進的なコンテンツについて、シグナリングが明確化された)。
SPSが如何なるVUIも含まないとき、情報は指定されていないと見なされ、ビットストリームがディスプレイでのレンダリングを意図されている場合に、アプリケーションによって指定されるか、又は外部手段によって運ばれなければならない。
表1は、VVC v1について規定されている全てのSEIメッセージと、それらのシンタックス及びセマンティクスを含む仕様とをリストアップしている。VSEI仕様で規定されている20個のSEIメッセージのうち、多くはHEVCから継承された(例えば、フィラーペイロード及び両方のユーザデータSEIメッセージ)。いくつかのSEIメッセージは、コーディングされたビデオコンテンツの正確な処理又はレンダリングに必須である。これは、例えば、マスタリング表示色ボリューム、コンテンツ光レベル情報、又はHDRコンテンツに特に関連する代替伝達特性SEIメッセージについて当てはまる。他の例には、正距円筒図法、球面回転、領域ごとのパッキング、全方向ビューポートSEIメッセージなどがあり、これらは、360°ビデオコンテンツのシグナリング及び処理に関連する。
Figure 2023542227000002
Figure 2023542227000003
VVC v1のために規定された新しいSEIメッセージは、フレームフィールドSEIメッセージ、サンプルアスペクト比情報SEIメッセージ、及びサブピクチャレベル情報SEIメッセージを含む。
フレームフィールドSEIメッセージは、関連するピクチャがどのように表示されるべきか(フィールドパリティ又はフレーム繰り返し周期)と、関連するピクチャのスキャンタイプと、関連するピクチャが前のピクチャの複製であるかどうかとを示す情報を含む。この情報は、関連する画像のタイミング情報とともに、以前のビデオコーディング標準規格では画像タイミングSEIメッセージで通知されていた。しかし、フレームフィールド情報及びタイミング情報は、必ずしも一緒にシグナリングされるとは限らない2つの異なる種類の情報であることが観察された。典型的な例は、システムレベルでタイミング情報をシグナリングするが、ビットストリーム内でフレームフィールド情報をシグナリングすることから成る。従って、ピクチャタイミングSEIメッセージからフレームフィールド情報を削除し、代わりにそれを専用のSEIメッセージ内でシグナリングすることが決定された。この変更により、フレームフィールド情報のシンタックスを変更して、フィールドのペアリングやフレーム繰り返しのためのより多くの値など、追加のより明確な指示をディスプレイに伝えることも可能になった。
サンプルアスペクト比SEIメッセージは、同じシーケンス内の異なるピクチャについて異なるサンプルアスペクト比をシグナリングすることを可能にし、一方、VUIに含まれる対応する情報はシーケンス全体に適用される。それは、同じシーケンスの異なるピクチャに異なるサンプルアスペクト比を持たせるスケーリング係数で参照ピクチャリサンプリング機能を使用する場合に関連し得る。
サブピクチャレベル情報SEIメッセージは、サブピクチャシーケンスのレベル情報を提供する。
[4.開示されている技術的解決法によって解決される技術的課題]
VVCはマルチレイヤスケーラビリティをサポートする。しかし、VVCのマルチレイヤビットストリームを所与として、OLSのビットストリームがマルチビュービットストリームであるか、それとも、単に、SNR及び/又は空間スケーラビリティを持った複数のレイヤから成るビットストリームであるかは、未知である。更に、VVCのマルチレイヤビットストリームを所与として、アルファ、デプス、などのような補助情報を表す1つ以上のレイヤが存在するかどうか、及び、そうである場合に、どのレイヤが何を表しているかは、未知である。
[5.技術的解決法のリスト]
上記の課題を解決するために、以下で要約されている方法が開示される。発明は、概要を説明するための例と見なされるべきであり、狭い意味で解釈されるべきではない。更に、これらの発明は、個々に適用されても、又はあらゆる方法で組み合わされてもよい。

1)VVCビデオビットストリームがマルチビュービットストリームであるかどうかを示す情報は、VVCビデオビットストリームでシグナリングされる。
a.一例で、情報はSEIメッセージ(例えば、スケーラビリティディメンションSEIメッセージと呼ばれる。)でシグナリングされる。
i.一例で、スケーラビリティディメンションSEIメッセージは、ビットストリームbitstreamInScopeの情報を提供する。ビットストリームbitstreamInScopeは、スケーラビリティディメンションSEIメッセージを含む任意の後続AUまでの、しかしそれを含まない全ての後続AUを含むゼロ以上のAUが後に続く、現在のスケーラビリティディメンションSEIメッセージを含むAUを復号化順に有するAUの連続として定義される。
ii.一例で、SEIメッセージは、ビットストリームがマルチビュービットストリームであり得るかどうかを示すフラグを含む。
iii.一例で、SEIメッセージは、各レイヤのビューIDを示す。
1.一例で、SEIメッセージは、ビューIDがレイヤごとにシグナリングされるかどうかを示すフラグを含む。
2.一例で、レイヤごとのビューIDのビットでの長さは、SEIメッセージでシグナリングされる。
b.一例で、情報はVUIの部分としてシグナリングされる。

2)VVCビデオビットストリームが補助情報を表す1つ以上のレイヤを含むかどうかを示す情報は、VVCビデオビットストリームでシグナリングされる。
a.一例で、情報はSEIメッセージ(例えば、スケーラビリティディメンションSEIメッセージ)でシグナリングされる。
i.一例で、スケーラビリティディメンションSEIメッセージは、ビットストリームbitstreamInScopeの情報を提供する。ビットストリームbitstreamInScopeは、スケーラビリティディメンションSEIメッセージを含む任意の後続AUまでの、しかしそれを含まない全ての後続AUを含むゼロ以上のAUが後に続く、現在のスケーラビリティディメンションSEIメッセージを含むAUを復号化順に有するAUの連続として定義される。
ii.一例で、SEIメッセージは、ビットストリームが1つ以上のレイヤによって運ばれる補助情報を含み得るかどうかを示すフラグを含む。
iii.一例で、SEIメッセージは、各レイヤの補助IDを示す。
1.一例で、SEIメッセージは、補助IDがレイヤごとにシグナリングされるかどうかを示すフラグを含む。
2.一例で、補助IDの値(例えば、0)は、当該レイヤが補助ピクチャを含まないことを示す。
3.一例で、補助IDの値(例えば、1)は、補助情報のタイプがアルファであることを示す。
4.一例で、補助IDの値(例えば、2)は、補助情報のタイプがデプスであることを示す。
5.一例で、補助IDの値(例えば、3)は、補助情報のタイプが占有(例えば、V-PCCで規定される。)であることを示す。
6.一例で、補助IDの値(例えば、4)は、補助情報のタイプがジオメトリ(例えば、V-PCCで規定される。)であることを示す。
7.一例で、補助IDの値(例えば、5)は、補助情報のタイプが属性(例えば、V-PCCで規定される。)であることを示す。
8.一例で、補助IDの値(例えば、6)は、補助情報のタイプがテクスチャ属性(例えば、V-PCCで規定される。)であることを示す。
9.一例で、補助IDの値(例えば、7)は、補助情報のタイプがマテリアル属性(例えば、V-PCCで規定される。)であることを示す。
10.一例で、補助IDの値(例えば、8)は、補助情報のタイプが透明度属性(例えば、V-PCCで規定される。)であることを示す。
11.一例で、補助IDの値(例えば、9)は、補助情報のタイプが反射率属性(例えば、V-PCCで規定される。)であることを示す。
12.一例で、補助IDの値(例えば、10)は、補助情報のタイプが標準属性(例えば、V-PCCで規定される。)であることを示す。
b.一例で、情報はVUIの部分としてシグナリングされる。
[6.実施形態]
以下は、VVC仕様及びVSEI仕様に適用することができる、上記のセクション5で要約された本発明の側面のいくつかについてのいくつかの例示的な実施形態である。
[6.1.第1実施形態]
この実施例は、項目1、1.a、及び全てのそのサブ項目、2、2.a、2.a.i、2.a.ii、2.a.iii、2.a.iii.1、2.a.iii.2、2.a.iii.3、及び2.a.iii.4に係る。
[6.1.1.スケーラビリティディメンションSEIメッセージのシンタックス]
Figure 2023542227000004
[6.1.2.スケーラビリティディメンションSEIメッセージのセマンティクス]
スケーラビリティディメンションSEIメッセージは、1)bitstreamInScopeがマルチビュービットストリームであり得る場合には、各レイヤのビューID、及び2)bitstreamInScopeにおいて1つ以上のレイヤによって運ばれる補助情報(例えば、デプス又はアルファ)が存在し得る場合には、各レイヤの補助IDといった、bitstreamInScope(以下で定義される。)内のレイヤごとのスケーラビリティディメンション情報を提供する。bitstreamInScopeは、スケーラビリティディメンションSEIメッセージを含む任意の後続AUまでの、しかしそれを含まない全ての後続AUを含むゼロ以上のAUが後に続く、現在のスケーラビリティディメンションSEIメッセージを含むAUを復号化順に有するAUの連続である。
sd_max_layers_minus1に1をプラスしたものは、bitstreamInScope内のレイヤの最大数を示す。
1に等しいsd_multiview_info_flagは、bitstreamInScopeがマルチビュービットストリームであり得ることを示し、sd_view_id_val[]シンタックス要素がスケーラビリティディメンションSEIメッセージに存在する。0に等しいsd_multiview_info_flagは、bitstreamInScopeがマルチビュービットストリームではないことを示し、sd_view_id_val[]シンタックス要素はスケーラビリティディメンションSEIメッセージに存在しない。
1に等しいsd_auxilary_info_flagは、bitstreamInScope内において1つ以上のレイヤによって運ばれる補助情報が存在し得ることを示し、sd_aux_id[]シンタックス要素がスケーラビリティディメンションSEIメッセージに存在する。0に等しいsd_auxilary_info_flagは、bitstreamInScope内において1つ以上のレイヤによって運ばれる補助情報が存在しないことを示し、sd_aux_id[]シンタックス要素はスケーラビリティディメンションSEIメッセージに存在しない。
sd_view_id_lenは、sd_view_id_val[i]シンタックス要素のビットでの長さを指定する。
sd_view_id_val[i]は、bitstreamInScope内のi番目のレイヤのビューIDを指定する。sd_view_id_val[i]シンタックス要素の長さはsd_view_id_lenビットである。存在しない場合には、sd_view_id_val[i]の値は、0に等しいと推測される。
0に等しいsd_aux_id[i]は、bitstreamInScope内のi番目のレイヤが補助ピクチャを含まないことを示す。0よりも大きいsd_aux_id[i]は、下の表2で特定されているように、bitstreamInScope内のi番目のレイヤにおける補助ピクチャのタイプを示す。
Figure 2023542227000005
注記1:128以上159以下の範囲内のsd_aux_idに関連した補助ピクチャの解釈は、sd_aux_idの値以外の手段により指定される。
sd_aux_id[i]は、この仕様のこのバージョンに適合するビットストリームの場合に、0以上2以下、又は128以上159以下の範囲内にあるべきである。sd_aux_id[i]の値は、0以上2以下、又は128以上159以下の範囲内にあるべきであるが、この仕様のこのバージョンにおいて、デコーダは、0以上255以下の範囲内のsd_aux_id[i]の値を許すべきである。
図1は、本明細書で開示されている様々な技術が実装され得る例示的なビデオ処理システム1900を示すブロック図である。様々な実施は、システム1900のコンポーネントのいくつか又は全てを含み得る。システム1900は、ビデオコンテンツを受ける入力部1902を含み得る。ビデオコンテンツは、生の又は圧縮されていないフォーマット、例えば、8又は10ビットのマルチコンポーネントピクセル値で受け取られてよく、あるいは、圧縮又は符号化されたフォーマットにあってもよい。入力部1902は、ネットワークインターフェース、ペリフェラルバスインターフェース、又はストレージインターフェースに相当し得る。ネットワークインターフェースの例には、Ethernet(登録商標)、受動光ネットワーク(Passive Optical Network,PON)などのような有線インターフェース、及びWi-Fi又はセルラーネットワークなどの無線インターフェースがある。
システム1900は、本明細書で記載されている様々なコーディング又は符号化方法を実装し得るコーディングコンポーネント1904を含んでもよい。コーディングコンポーネント1904は、ビデオのコーディングされた表現を生成するよう、入力部1902からコーディングコンポーネント1904の出力部までビデオの平均ビットレートを低減し得る。コーディング技術は、従って、ビデオ圧縮又はビデオトランスコーディング技術と時々呼ばれる。コーディングコンポーネント1904の出力は、コンポーネント1906によって表されるように、保存されても、あるいは、接続された通信を介して伝送されてもよい。入力部1902で受け取られたビデオの保存又は通信されたビットストリーム(又はコーディングされた)表現は、ピクセル値又は表示インターフェース1910へ送られる表示可能なビデオを生成するコンポーネント1908によって使用されてもよい。ユーザが見ることができるビデオをビットストリーム表現から生成するプロセスは、ビデオ圧縮解除と時々呼ばれる。更に、特定のビデオ処理動作が「コーディング」動作又はツールと呼ばれる一方で、そのようなコーディングツール又は動作はエンコーダで使用され、コーディングの結果を入れ替える対応する復号化ツール又は動作は、デコーダによって実行されることになることが理解されるだろう。
ペリフェラルバスインターフェース又は表示インターフェースの例には、ユニバーサルシリアルバス(USB)又は高精細マルチメディアインターフェース(HDMI(登録商標))又はDisplayport(登録商標)などが含まれ得る。ストレージインターフェースの例には、SATA(Serial Advanced Technology Attachment)、PCI(Peripheral Component Interconnect)、IDE(Integrated Drive Electronics)インターフェース、などがある。本明細書で説明されている技術は、携帯電話機、ラップトップ、スマートフォン、あるいは、デジタルデータ処理及び/又はビデオ表示を実行する能力がある他のデバイスなどの、様々な電子デバイスで具現化されてもよい。
図2は、ビデオ処理装置3600のブロック図である。装置3600は、本明細書で記載されている方法の1つ以上を実装するために使用され得る。装置3600は、スマートフォン、タブレット、コンピュータ、インターネット・オブ・シングス(IoT)レシーバ、などで具現化されてもよい。装置3600は、1つ以上のプロセッサ3602、1つ以上のメモリ3604、及びビデオ処理ハードウェア3606を含み得る。プロセッサ3602は、本明細書で記載される1つ以上の方法を実装するよう構成され得る。メモリ(複数のメモリ)3604は、本明細書で記載される方法及び技術を実装するために使用されるデータ及びコードを記憶するために使用され得る。ビデオ処理ハードウェア3606は、ハードウェア回路において、本明細書で記載されるいくつかの技術を実装するために使用され得る。いくつかの実施形態で、ビデオ処理ハードウェア3606は、プロセッサ3602、例えば、グラフィクス・コプロセッサに少なくとも部分的に含まれてもよい。
図4は、本開示の技術を利用し得る例示的なビデオコーディングシステム100を表すブロック図である。
図4に示されるように、ビデオコーディングシステム100は、送信元デバイス110及び送信先デバイス120を含んでよい。送信元デバイス110は、符号化されたビデオデータを生成し、ビデオ符号化デバイスと呼ばれ得る。送信先デバイス120は、送信元デバイス110によって生成された符号化されたビデオデータを復号することができ、ビデオ復号化デバイスと呼ばれ得る。
送信元デバイス110は、ビデオソース112、ビデオエンコーダ114、及び入力/出力(I/O)インターフェース116を含んでよい。
ビデオソース112は、ビデオ捕捉デバイスなどのソース、ビデオコンテンツプロバイダからビデオデータを受け取るインターフェース、及び/又はビデオデータを生成するコンピュータグラフィクスシステム、あるいは、そのようなソースの組み合わせを含んでよい。ビデオデータは1つ以上のピクチャを有してもよい。ビデオエンコーダ114は、ビットストリームを生成するようビデオソース112からのビデオデータを符号化する。ビットストリームは、ビデオデータのコーディングされた表現を形成するビットの連続を含んでよい。ビットストリームは、コーディングされたピクチャ及び関連するデータを含んでもよい。コーディングされたピクチャは、ピクチャのコーディングされた表現である。関連するデータは、シーケンスパラメータセット、ピクチャパラメータセット、及び他のシンタックス構造を含んでもよい。I/Oインターフェース116は、変調器/復調器(モデム)及び/又は送信器を含んでよい。符号化されたビデオデータは、I/Oインターフェース116を介して送信先デバイス120に対してネットワーク130aを通じて直接に伝送されてよい。符号化されたビデオデータはまた、送信先デバイス120によるアクセスのために記憶媒体/サーバ130bに記憶されてもよい。
送信先デバイス120は、I/Oインターフェース126、ビデオデコーダ124、及び表示デバイス122を含んでよい。
I/Oインターフェース126は、受信器及び/又はモデムを含んでよい。I/Oインターフェース126は、送信元デバイス110又は記憶媒体/サーバ130bから符号化されたビデオデータを取得してよい。ビデオデコーダ124は、符号化されたビデオデータを復号してよい。表示デバイス122は、復号されたビデオデータをユーザに表示してよい。表示デバイス122は、送信先デバイス120と一体化されてもよく、あるいは、外付け表示デバイスとインターフェース接続するよう構成されて送信先デバイス120の外にあってもよい。
ビデオエンコーダ114及びビデオデコーダ124は、HEVC(High Efficiency Video Coding)標準規格、VVC(Versatile Video Coding)標準規格、並びに他の現在の及び/又は更なる標準規格などのビデオ圧縮規格に従って作動してもよい。
図5は、ビデオエンコーダ200の例を表すブロック図であり、図4に表されているシステム100のビデオエンコーダ114であってよい。
ビデオエンコーダ200は、本開示の技術のいずれか又は全てを実行するよう構成されてよい。図5の例では、ビデオエンコーダ200は、複数の機能コンポーネントを含む。本開示で記載される技術は、ビデオエンコーダ200の様々なコンポーネントの間で共有されてもよい。いくつかの例では、プロセッサが、本開示で記載される技術のいずれか又は全てを実行するよう構成されてもよい。
ビデオエンコーダ200の機能コンポーネントは、パーティションユニット201と、モード選択ユニット203、動き推定ユニット204、動き補償ユニット205及びイントラ予測ユニット206を含み得る予測ユニット202と、残差生成ユニット207と、変換ユニット208と、量子化ユニット209と、逆量子化ユニット210と、逆変換ユニット211と、再構成ユニット212と、バッファ213と、エントロピ符号化ユニット214とを含んでよい。
他の例では、ビデオエンコーダ200は、より多い、より少ない、又は異なる機能コンポーネントを含んでもよい。例において、予測ユニット202は、イントラブロックコピー(Intra Block Copy,IBC)ユニットを含んでもよい。IBCユニットは、少なくとも1つの参照ピクチャが、現在のビデオブロックが位置しているピクチャであるところの、IBCモードで、予測を実行してよい。
更に、動き推定ユニット204及び動き補償ユニット205などのいくつかのコンポーネントは、高度に集積されてもよいが、説明のために図5の例では別々に表されている。
パーティションユニット201は、ピクチャを1つ以上のビデオブロックにパーティション化し得る。ビデオエンコーダ200及びビデオデコーダ300は、様々なビデオブロックサイズをサポートしてよい。
モード選択ユニット203は、例えば、エラー結果に基づいて、イントラ又はインターのコーディングモードの1つを選択し、結果として得られたイントラ又はインターコーディングされたブロックを、残差ブロックデータを生成する残差生成ユニット207へ、及び参照ピクチャとしての使用のために、符号化されたブロックを再構成する再構成ユニット212へ供給してよい。いくつかの例において、モード選択ユニット203は、予測がインター予測信号及びイントラ予測信号に基づくイントラ-インター複合予測(Combination of Intra and Inter Prediction,CIIP)モードを選択してもよい。モード選択ユニット203はまた、インター予測の場合に、ブロックの動きベクトルのための分解能(例えば、サブピクセル又は整数ピクセル精度)を選択してもよい。
現在のビデオブロックに対してインター予測を実行するために、動き推定ユニット204は、バッファ213からの1つ以上の参照フレームを現在のビデオブロックと比較することによって、現在のビデオブロックの動き情報を生成し得る。動き補償ユニット205は、動き情報と、現在のビデオブロックに関連したピクチャ以外のバッファ213からのピクチャの復号されたサンプルとに基づいて、現在のビデオブロックの予測されたビデオブロックを決定し得る。
動き推定ユニット204及び動き補償ユニット205は、例えば、現在のビデオブロックがIスライス、Pスライス、又はBスライスであるかどうかに応じて、現在のビデオブロックのために異なる動作を実行してもよい。
いくつかの例において、動き推定ユニット204は、現在のビデオブロックのために一方向予測を実行してもよく、動き推定ユニット204は、現在のビデオブロックのための参照ビデオブロックをリスト0又はリスト1の参照ピクチャから探してもよい。動き推定ユニット204は、次いで、参照ビデオブロックを含むリスト0又はリスト1内の参照ピクチャを示す参照インデックスと、現在のビデオブロックと参照ビデオブロックとの間の空間変位を示す動きベクトルとを生成してよい。動き推定ユニット204は、現在のビデオブロックの動き情報として参照インデックス、予測方向インジケータ、及び動きベクトルを出力してもよい。動き補償ユニット205は、現在のビデオブロックの動き情報によって示されている参照ビデオブロックに基づいて、現在のブロックの予測されたビデオブロックを生成してもよい。
他の例では、動き推定ユニット204は、現在のビデオブロックのために双方向予測を実行してもよく、動き推定ユニット204は、現在のビデオブロックのための参照ビデオブロックをリスト0内の参照ピクチャから探してもよく、また、現在のビデオブロックのためのもう1つの参照ビデオブロックをリスト1内の参照ピクチャから探してもよい。動き推定ユニット204は、次いで、参照ビデオブロックを含むリスト0及びリスト1内の参照ピクチャを示す参照インデックスと、それらの参照ビデオブロックと現在のビデオブロックとの間の空間変位を示す動きベクトルとを生成してもよい。動き推定ユニット204は、現在のビデオブロックの動き情報として、現在のビデオブロックの参照インデックス及び動きベクトルを出力してもよい。動き補償ユニット205は、現在のビデオブロックの動き情報によって示されている参照ビデオブロックに基づいて、現在のビデオブロックの予測されたビデオブロックを生成してもよい。
いくつかの例において、動き推定ユニット204は、デコーダの復号化処理のために動き情報のフルセットを出力してもよい。
いくつかの例において、動き推定ユニット204は、現在のビデオの動き情報のフルセットを出力しなくてもよい。むしろ、動き推定ユニット204は、他のビデオブロックの動き情報を参照して現在のビデオブロックの動き情報をシグナリングしてもよい。例えば、動き推定ユニット204は、現在のビデオブロックの動き情報が隣接ビデオブロックの動き情報と十分に類似していることを決定してもよい。
一例において、動き推定ユニット204は、現在のビデオブロックに関連したシンタックス構造において、現在のビデオブロックが他のビデオブロックと同じ動き情報を有していることをビデオデコーダ300に示す値を示してもよい。
他の例では、動き推定ユニット204は、現在のビデオブロックに関連したシンタックス構造において、他のビデオブロック及び動きベクトル差分(Motion Vector Difference,MVD)を特定してもよい。動きベクトル差分は、現在のビデオブロックの動きベクトルと、指示されたビデオブロックの動きベクトルとの間の差を示す。ビデオデコーダ300は、現在のビデオブロックの動きベクトルを決定するために、指示されたビデオブロックの動きベクトル及び動きベクトル差分を使用し得る。
上述されたように、ビデオエンコーダ200は、動きベクトルを予測的にシグナリングしてもよい。ビデオエンコーダ200によって実装され得る予測シグナリング技術の2つの例には、アドバンスド動きベクトル予測(Advanced Motion Vector Prediction,AMVP)及びマージモードシグナリングがある。
イントラ予測ユニット206は、現在のビデオブロックに対してイントラ予測を実行してよい。イントラ予測ユニット206が現在のビデオブロックに対してイントラ予測を実行する場合に、イントラ予測ユニット206は、同じピクチャ内の他のビデオブロックの復号されたサンプルに基づいて、現在のビデオブロックの予測データを生成し得る。現在のビデオブロックの予測データは、予測されたビデオブロック及び様々なシンタックス要素を含み得る。
残差生成ユニット207は、現在のビデオブロックから現在のビデオブロックの予測されたビデオブロックを減じること(例えば、マイナス符号によって示される。)によって、現在のビデオブロックの残差データを生成してよい。現在のビデオブロックの残差データは、現在のビデオブロック内のサンプルの異なるサンプルコンポーネントに対応する残差ビデオブロックを含み得る。
他の例では、例えば、スキップモードで、現在のビデオブロックについて、現在のビデオブロックの残差データは存在しない場合があり、残差生成ユニット207は、減算演算を実行しなくてもよい。
変換処理ユニット208は、現在のビデオブロックに関連した残差ビデオブロックに1つ以上の変換を適用することによって、現在のビデオブロックの1つ以上の変換係数ビデオブロックを生成してよい。
変換処理ユニット208が現在のビデオブロックに関連した変換係数ビデオブロックを生成した後、量子化ユニット209は、現在のビデオブロックに関連した1つ以上の量子化パラメータ(QP)値に基づいて、現在のビデオブロックに関連した変換係数ビデオブロックを量子化してよい。
逆量子化ユニット210及び逆変換ユニット211は、変換係数ビデオブロックに各々逆量子化及び逆変換を適用して、変換係数ビデオブロックから残差ビデオブロックを再構成してよい。再構成ユニット212は、再構成された残差ビデオブロックを、予測ユニット202によって生成された1つ以上の予測されたビデオブロックからの対応するサンプルに加えて、バッファ213での記憶のために、現在のブロックに関連した再構成されたビデオブロックを生成してよい。
再構成ユニット212がビデオブロックを再構成した後、ループフィルタリング動作が、ビデオブロックにおいてビデオブロッキングアーチファクトを低減するよう実行されてもよい。
エントロピ符号化ユニット214は、ビデオエンコーダ200の他の機能コンポーネントからデータを受け取ってもよい。エントロピ符号化ユニット214がデータを受け取ると、エントロピ符号化ユニット214は、エントロピ符号化されたデータを生成するよう1つ以上のエントロピ符号化動作を実行し、そのエントロピ符号化されたデータを含むビットストリームを出力し得る。
図6は、ビデオデコーダ300の例を表すブロック図であり、図4で表されているシステム100のビデオデコーダ124であってよい。
ビデオデコーダ300は、本開示の技術のいずれか又は全てを実行するよう構成されてよい。図6の例では、ビデオデコーダ300は、複数の機能コンポーネントを含む。本開示で記載される技術は、ビデオデコーダ300の様々なコンポーネントの間で共有されてもよい。いくつかの例では、プロセッサが、本開示で記載される技術のいずれか又は全てを実行するよう構成されてもよい。
図6の例では、ビデオデコーダ300は、エントロピ復号化ユニット301と、動き補償ユニット302と、イントラ予測ユニット303と、逆量子化ユニット304と、逆変換ユニット305と、再構成ユニット306と、バッファ307とを含む。ビデオデコーダ300は、いくつかの例において、ビデオエンコーダ200(図5)に関して記載された符号化パスとは概して逆の復号化パスを実行してもよい。
エントロピ復号化ユニット301は、符号化されたビットストリームを取り出し得る。符号化されたビットストリームは、エントロピコーディングされたビデオデータ(例えば、ビデオデータの符号化されたブロック)を含んでもよい。エントロピ復号化ユニット301は、エントロピコーディングされたビデオデータを復号してよく、エントロピ復号されたビデオデータから、動き補償ユニット302は、動きベクトル、動きベクトル精度、参照ピクチャリストインデックス、及び他の動き情報を含む動き情報を決定し得る。動き補償ユニット302は、例えば、AMVP及びマージモードを実行することによって、そのような情報を決定してよい。
動き補償ユニット302は、場合により、補間フィルタに基づいた補間を実行して、動き補償されたブロックを生成してよい。サブピクセル精度で使用される補間フィルタのための識別子が、シンタックス要素に含まれてもよい。
動き補償ユニット302は、参照ブロックのサブ整数ピクセルについて補間値を計算するために、ビデオブロックの符号化中にビデオエンコーダ200によって使用された補間フィルタを使用し得る。動き補償ユニット302は、受け取られたシンタックス情報に従って、ビデオエンコーダ200によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
動き補償ユニット302は、符号化されたビデオシーケンスのフレーム及び/又はスライスを符号化するために使用されるブロックのサイズと、符号化されたビデオシーケンスのピクチャの各マクロブロックがどのようにパーティション化されるかを記述するパーティション情報と、各パーティションがどのように符号化されるかを示すモードと、各インター符号化されたブロックについての1つ以上の参照フレーム(及び参照フレームリスト)と、符号化されたビデオシーケンスを復号するための他の情報とを決定するために、シンタックス情報のいくつかを使用してもよい。
イントラ予測ユニット303は、空間的に隣接するブロックから予測ブロックを形成するよう、例えば、ビットストリームで受け取られたイントラ予測モードを使用してもよい。逆量子化ユニット304は、ビットストリームで供給されてエントロピ復号化ユニット301によって復号された量子化されたビデオブロック係数を逆量子化、すなわち、量子化解除する。逆変換ユニット305は逆変換を適用する。
再構成ユニット306は、動き補償ユニット302又はイントラ予測ユニット303によって生成された対応する予測ブロックを残差ブロックに加算して、復号されたブロックを形成し得る。必要に応じて、デブロッキングフィルタも、ブロッキネスアーチファクトを取り除くために、復号されたブロックにフィルタをかけるよう適用されてもよい。復号されたビデオブロックは、次いで、バッファ307に格納され、バッファ307は、その後の動き補償/イントラ予測のために参照ブロックを供給し、更には、復号されたビデオを表示デバイスでの提示のために生成する。
いくつかの実施形態によって好まれている解決法のリストが次に与えられる。
以下は、前のセクション(例えば、項目1)で議論された技術の例示的な実施形態を示す。
解決法1.
ビデオ処理の方法(例えば、図3に表されている方法700)であって、
ビデオピクチャを含むビデオと前記ビデオのコーディングされた表現との間の変換を実行するステップ(702)を有し、
前記コーディングされた表現はフォーマット規則に従い、
前記フォーマット規則は、前記ビデオがマルチビュービデオであることを示すフィールドが前記コーディングされた表現に含まれることを定める、
方法。
解決法2.
前記フィールドは、前記コーディングされた表現の補足強化情報部分に含まれる、
解決法1の方法。
解決法3.
前記フィールドは、前記コーディングされた表現のビデオユーザビリティ情報部分に含まれる、
解決法1の方法。
以下は、前のセクション(例えば、項目2)で議論された技術の例示的な実施形態を示す。
解決法4.
ビデオ処理の方法であって、
ビデオピクチャを含むビデオと前記ビデオコーディングされた表現との間の変換を実行するステップを有し、
前記コーディングされた表現はフォーマット規則に従い、
前記フォーマット規則は、前記ビデオが複数のビデオレイヤにおいて前記コーディングされた表現にコーディングされていることを示すフィールドが前記コーディングされた表現に含まれることを定める、
方法。
解決法5.
前記フィールドは、前記コーディングされた表現の補足強化情報部分に含まれる、
解決法4の方法。
解決法6.
前記フィールドは、前記コーディングされた表現のビデオユーザビリティ情報部分に含まれる、
解決法4の方法。
解決法7.
前記変換は、前記ビデオから前記コーディングされた表現を生成することを有する、
解決法1乃至6のいずれかの方法。
解決法8.
前記変換は、前記コーディングされた表現を復号して前記ビデオを生成することを有する、
解決法1乃至6のいずれかの方法。
解決法9.
解決法1乃至8の1つ以上に記載される方法を実装するよう構成されたプロセッサを有するビデオ復号化装置。
解決法10.
解決法1乃至8の1つ以上に記載される方法を実装するよう構成されたプロセッサを有するビデオ符号化装置。
解決法11.
プロセッサによって実行される場合に、解決法1乃至8のいずれかに記載される方法プロセッサに実装させるコンピュータコードが記憶されているコンピュータプログラム製品。
解決法12.
解決法1乃至8のいずれかにしたがって生成されたコーディングされた表現を記憶するコンピュータ可読媒体。
本明細書で記載される方法、装置、又はシステム。
本明細書で記載されている解決法で、エンコーダは、コーディングされた表現をフォーマット規則に従って生成することによって、フォーマット規則に従ってよい。本明細書で記載されている解決法で、デコーダは、復号されたビデオを生成するために、フォーマット規則に従うシンタックス要素の有無を知った上で、フォーマット規則を用いて、コーディングされた表現内のシンタックス要素をパースしてよい。
図8は、ビデオ処理の例示的な方法のフローチャートである。動作802は、フォーマット規則に従ってビデオとビデオのビットストリームとの間の変換を実行することを含み、フォーマット規則は、ビットストリームに含まれている補足強化情報フィールド又はビデオユーザビリティ情報シンタックス構造により、ビットストリームが、複数のビューが複数のビデオレイヤにおいてコーディングされているマルチビュービットストリームを有するかどうかが示される、ことを定める。
いくつかの実施形態において、フォーマット規則は、補足強化情報フィールドがビットストリームにおいて補足強化情報メッセージ内のスケーラビリティディメンション情報に含まれる、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージが、ビットストリームがマルチビュービットストリームであるかどうかを示す第1フラグを含む、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージがビットストリームの複数のビデオレイヤのうちの各ビデオレイヤのビュー識別子を含む、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージが各ビデオレイヤのビュー識別子のビットの長さを含む、ことを定める。
いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージが、各ビデオレイヤについてビュー識別子がビットストリームに含まれるかどうかを示す第2フラグを含む、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージ内のスケーラビリティディメンション情報が、第3補足強化情報メッセージ内の第3スケーラビリティディメンション情報を含む後続のアクセスユニットまでの、しかしそれを含まない全ての後続のアクセスユニットを含むゼロ以上のアクセスユニットが後に続いている、第2補足強化情報メッセージ内の第2スケーラビリティディメンション情報を含むアクセスユニットを復号化順に含む一連のアクセスユニットに関する情報を提供する、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報フィールドがビットストリームにおいてビデオユーザビリティ情報シンタックス構造に含まれる、ことを定める。いくつかの実施形態において、ビットストリームは、バーサタイルビデオコーディングビットストリームである。いくつかの実施形態において、変換を実行するステップは、ビデオをビットストリームに符号化することを含む。いくつかの実施形態において、変換を実行するステップは、ビットストリームをビデオから生成することを含み、方法は、ビットストリームを非一時的なコンピュータ可読記録媒体に記憶することを更に含む。いくつかの実施形態において、変換を実行するステップは、ビデオをビットストリームから復号することを含む。
図9は、ビデオ処理の例示的な方法のフローチャートである。動作902は、フォーマット規則に従ってビデオとビデオのビットストリームとの間の変換を実行することを含み、フォーマット規則は、ビットストリームに含まれる補足強化情報フィールドにより、補助情報を表す1つ以上のビデオレイヤをビットストリームが有するかどうかが示される、ことを定める。
いくつかの実施形態において、フォーマット規則は、補足強化情報フィールドがビットストリームにおいて補足強化情報メッセージ内のスケーラビリティディメンション情報に含まれる、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージが、ビットストリームが1つ以上のビデオレイヤの補助情報を含むかどうかを示す第1フラグを含む、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージがビットストリームの複数のビデオレイヤのうちの各ビデオレイヤの補助識別子を含む、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第1値により、そのビデオレイヤが補助ピクチャを含まないことが示される、ことを定める。
いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第2値により、そのビデオレイヤの補助情報のタイプがアルファ(alpha)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプがデプス(depth)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージが、各ビデオレイヤについて補助識別子がビットストリームに含まれるかどうかを示す第2フラグを含む、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第4値により、そのビデオレイヤの補助情報のタイプが占有(occupancy)であることが示される、ことを定める。
いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプがジオメトリ(geometry)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプが属性(attribute)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプがテクスチャ属性(texture attribute)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプがマテリアル属性(material attribute)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプが透明度属性(transparent attribute)であることが示される、ことを定める。
いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプが反射率属性(reflectance attribute)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、ビデオレイヤの補助識別子の第3値により、そのビデオレイヤの補助情報のタイプが標準属性(normal attribute)であることが示される、ことを定める。いくつかの実施形態において、フォーマット規則は、補足強化情報メッセージ内のスケーラビリティディメンション情報が、第3補足強化情報メッセージ内の第3スケーラビリティディメンション情報を含む後続のアクセスユニットまでの、しかしそれを含まない全ての後続のアクセスユニットを含むゼロ以上のアクセスユニットが後に続いている、第2補足強化情報メッセージ内の第2スケーラビリティディメンション情報を含むアクセスユニットを復号化順に含む一連のアクセスユニットに関する情報を提供する、ことを定める。
いくつかの実施形態において、フォーマット規則は、補足強化情報フィールドがビットストリームにおいてビデオユーザビリティ情報に含まれる、ことを定める。いくつかの実施形態において、ビデオは、バーサタイルビデオコーディングビデオである。いくつかの実施形態において、変換を実行するステップは、ビデオをビットストリームに符号化することを含む。いくつかの実施形態において、変換を実行するステップは、ビットストリームをビデオから生成することを含み、方法は、ビットストリームを非一時的なコンピュータ可読記録媒体に記憶することを更に含む。いくつかの実施形態において、変換を実行するステップは、ビデオをビットストリームから復号することを含む。
いくつかの実施形態において、ビデオ復号化装置は、本特許文献で記載されている技術の1つ以上で挙げられている方法を実装するよう構成されたプロセッサを有する。いくつかの実施形態において、ビデオ符号化装置は、本特許文献で記載されている技術の1つ以上で挙げられている方法を実装するよう構成されたプロセッサを有する。いくつかの実施形態において、コンピュータプログラム製品は、プロセッサによって実行される場合に、本特許文献で記載されている技術をプロセッサに実施させるコンピュータ命令が記憶されている。いくつかの実施形態において、非一時的なコンピュータ可読記憶媒体は、本特許文献で記載されている技術のいずれか1つの方法に従って生成されたビットストリームを記憶する。
いくつかの実施形態において、非一時的なコンピュータ可読記憶媒体は、本特許文献で記載されている技術のいずれかに挙げられている方法をプロセッサに実施される命令を記憶している。いくつかの実施形態において、ビットストリーム生成の方法は、本特許文献で記載されている技術のいずれかに挙げられている方法に従ってビデオのビットストリームを生成するステップと、ビットストリームをコンピュータ可読プログラム媒体に記憶するステップとを有する。いくつかの実施形態において、本特許文献で記載されている方法、装置、開示されている方法に従って生成されたビットストリーム、又はシステム。
本特許文献中、「ビデオ処理」という用語は、ビデオ符号化、ビデオ復号化、ビデオ圧縮又はビデオ圧縮解除を指し得る。例えば、ビデオ圧縮アルゴリズムは、ビデオのピクセル表現から、対応するビットストリーム表現への変換中に、又はその逆も同様に、適用されてもよい。現在のビデオブロックのビットストリーム表現は、例えば、シンタックスによって定義されるような、ビットストリーム内で同一位置にあるか又は異なった場所に広がっているかのどちらかであるビットに対応してもよい。例えば、マクロブロックは、変換及びコーディングされた誤差残余値に関して、更には、ビットストリーム内のヘッダ及び他のフィールドにおけるビットを用いて、符号化されてよい。更に、変換中に、デコーダは、上記の解決法で記載されているように、決定に基づいて、いくつかのフィールドが存在している又は存在していない可能性があると知った上で、ビットストリームをパースしてもよい。同様に、エンコーダは、特定のシンタックスフィールドが含まれている又は含まれるべきではないと決定し、それに応じて、コーディングされた表現にシンタックスフィールドを含めるか又は除くことによって、コーディングされた表現を生成してもよい。
開示されている技術のいくつかの実施形態は、ビデオ処理ツール又はモードを有効にするとの決定又は判断を行うことを含む。例において、ビデオ処理ツール又はモードが有効にされる場合に、エンコーダは、ビデオのブロックの処理においてそのツール又はモードを使用又は実装することになるが、ツール又はモードの使用に基づき、必ずしも、結果として得られるビットストリームを変更しなくてもよい。つまり、ビデオのブロックからビデオのビットストリーム表現への変換は、ビデオ処理ツール又はモードが決定又は判断に基づき有効にされる場合にそのツール又はモードを使用することになる。他の例においては、ビデオ処理ツール又はモードが有効にされる場合に、デコーダは、ビットストリームがそのビデオ処理ツール又はモードに基づき変更されていると知った上で、ビットストリームを処理することになる。つまり、ビデオのビットストリーム表現からビデオのブロックへの変換は、決定又は判断に基づき有効にされたビデオ処理ツール又はモードを用いて実行されることになる。
開示されている技術のいくつかの実施形態は、ビデオ処理ツール又はモードを無効にするとの決定又は判断を行うことを含む。例において、ビデオ処理ツール又はモードが無効にされる場合に、エンコーダは、ビデオのブロックからビデオのビットストリーム表現への変換においてそのツール又はモードを使用しない。他の例においては、ビデオ処理ツール又はモードが無効にされる場合に、デコーダは、決定又は判断に基づき無効にされたビデオ処理ツール又はモードを用いてビットストリームは変更されていないと知った上で、ビットストリームを処理することになる。
本明細書中で記載されている開示された及び他の解決法、例、実施形態、モジュール及び機能動作は、デジタル電子回路で、あるいは、本明細書で開示されている構造及びそれらの構造的な同等物を含むコンピュータソフトウェア、ファームウェア、又はハードウェアで、あるいは、それらのうちの1つ以上の組み合わせで実装可能である。開示された及び他の実施形態は、1つ以上のコンピュータプログラム製品、つまり、データ処理装置によって実行されるか又はその動作を制御するためにコンピュータ可読媒体で符号化されたコンピュータプログラム命令の1つ以上のモジュール、として実装可能である。コンピュータ可読媒体は、マシン可読記憶デバイス、マシン可読記憶基板、メモリデバイス、マシン可読な伝播信号に影響を与える物質の組成、又はそれらの1つ以上の組み合わせであることができる。「データ処理装置」という用語は、例として、プログラム可能なプロセッサ、コンピュータ、又は複数のプロセッサ若しくはコンピュータを含む、データを処理するための全ての装置、デバイス、及びマシンを包含する。装置は、ハードウェアに加えて、問題となっているコンピュータプログラムのための実行環境を作り出すコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はそれらの1つ以上の組み合わせを構成するコードを含むことができる。伝播信号は、人工的に生成された信号、例えば、マシンにより生成された電気的、光学的、又は電磁気信号であり、適切なレシーバ装置への伝送のために情報を符号化するよう生成される。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる。)は、コンパイル済み又は解釈済みの言語を含む如何なる形式のプログラミング言語でも記述可能であり、それは、スタンドアロンプログラムとして又はコンピューティング環境における使用に適したモジュール、コンポーネント、サブルーチン、若しくは他のユニットとしてを含め、如何なる形式でもデプロイ可能である。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応するわけではない。プログラムは、問題となっているプログラムに専用の単一のファイルで、又は複数の協調したファイル(例えば、1つ以上のモジュール、サブプログラム、又はコードの部分を保存するファイル)で、他のプログラム又はデータ(例えば、マークアップ言語文書で保存された1つ以上のスクリプト)を保持するファイルの部分において保存可能である。コンピュータプログラムは、1つのコンピュータで、あるいは、1つの場所に位置しているか、又は複数の場所にわたって分布しており、通信ネットワークによって相互接続されている複数のコンピュータで実行されるようデプロイ可能である。
本明細書で説明されているプロセス及びロジックフローは、入力データに作用して出力を生成することによって機能を実行するよう1つ以上のコンピュータプログラムを実行する1つ以上のプログラム可能なプロセッサによって実行可能である。プロセス及びロジックフローはまた、専用のロジック回路、例えば、FPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)によっても実行可能であり、装置は、そのようなものとして実装可能である。
コンピュータプログラムの実行に適したプロセッサは、例として、汎用のマイクロプロセッサ及び専用のマイクロプロセッサの両方、並びにあらゆる種類のデジタルコンピュータのいずれか1つ以上のプロセッサを含む。一般に、プロセッサは、リード・オンリー・メモリ若しくはランダム・アクセス・メモリ又はその両方から命令及びデータを読み出すことになる。コンピュータの必須の要素は、命令を実行するプロセッサと、命令及びデータを保存する1つ以上のメモリデバイスとである。一般に、コンピュータはまた、データを保存する1つ以上の大容量記憶デバイス、例えば、磁気、光学磁気ディスク、又は光ディスクを含むか、あるいは、そのような1つ以上の大容量記憶デバイスからのデータの受信若しくはそれへのデータの転送又はその両方のために動作可能に結合されることになる。しかし、コンピュータは、そのようなデバイスを有する必要はない。コンピュータプログラム命令及びデータを保存するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、例えば、消去可能なプログラム可能リード・オンリー・メモリ(EPROM)、電気的消去可能なプログラム可能リード・オンリー・メモリ(EEPROM)、及びフラッシュメモリデバイス;磁気ディスク、例えば、内蔵ハードディスク又はリムーバブルディスク;光学磁気ディスク;並びにコンパクトディスク型リード・オンリー・メモリ(CD ROM)及びデジタルバーサタイルディスク型リード・オンリー・メモリ(DVD-ROM)ディスクを含む全ての形式の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、専用のロジック回路によって強化されるか、あるいは、それに組み込まれ得る。
本明細書は、多数の詳細を含むが、それらは、あらゆる対象の又は請求される可能性があるものの範囲に対する限定としてではなく、むしろ、特定の技術の特定の実施形態に特有であり得る特徴の説明として解釈されるべきである。別々の実施形態に関連して本明細書で説明されている特定の特徴は、単一の実施形態で組み合わせても実装可能である。逆に、単一の実施形態に関連して説明されている様々な特徴はまた、複数の実施形態で別々に、又は何らかの適切なサブコンビネーションで実装可能である。更に、特徴は、特定の組み合わせで動作するものとして先に説明され、更には、そのようなものとして最初に請求されることがあるが、請求されている組み合わせからの1つ以上の特徴は、いくつかの場合に、その組み合わせから削除可能であり、請求されている組み合わせは、サブコンビネーション又はサブコンビネーションの変形に向けられてもよい。
同様に、動作は、特定の順序で図面において表されているが、これは、所望の結果を達成するために、そのような動作が示されているその特定の順序で又は順次的な順序で実行されること、あるいは、表されている全ての動作が実行されることを求めている、と理解されるべきではない。更に、本明細書で説明されている実施形態における様々なシステムコンポーネントの分離は、全ての実施形態でそのような分離を求めている、と理解されるべきではない。
ほんのわずかの実施及び例が説明されており、他の実施、強化及び変形は、本特許文献で記載及び例示されているものに基づいて行われ得る。
[関連出願への相互参照]
願は、2020年9月29日付けで出願された国際特許出願第PCT/CN2020/118711号に対する優先権及びその利益を主張して2021年9月29日付けで出願された国際特許出願第PCT/CN2021/121513号に基づくものである。上記の全ての特許出願は、それらの全文を参照により本願に援用される。

Claims (29)

  1. ビデオデータを処理する方法であって、
    フォーマット規則に従ってビデオと該ビデオのビットストリームとの間の変換を実行するステップを有し、
    前記フォーマット規則は、前記ビットストリームに含まれている補足強化情報フィールドにより、前記ビットストリームが、補助情報を表す1つ以上のビデオレイヤを有するかどうかが示される、ことを定める、
    方法。
  2. 前記フォーマット規則は、前記補足強化情報フィールドが前記ビットストリームにおいて補足強化情報メッセージ内のスケーラビリティディメンション情報に含まれる、ことを定める、
    請求項1に記載の方法。
  3. 前記フォーマット規則は、前記補足強化情報メッセージが、前記ビットストリームが前記1つ以上のビデオレイヤのための前記補助情報を含むかどうかを示す第1フラグを含む、ことを定める、
    請求項2に記載の方法。
  4. 前記フォーマット規則は、前記補足強化情報メッセージが前記ビットストリームの複数のビデオレイヤのうちの各ビデオレイヤの補助識別子を含む、ことを定める、
    請求項2に記載の方法。
  5. 前記フォーマット規則は、ビデオレイヤの補助識別子の第1値により、当該ビデオレイヤが補助ピクチャを含まないことが示される、ことを定める、
    請求項4に記載の方法。
  6. 前記フォーマット規則は、ビデオレイヤの補助識別子の第2値により、当該ビデオレイヤの補助情報タイプがアルファであることが示される、ことを定める、
    請求項4に記載の方法。
  7. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプがデプスであることが示される、ことを定める、
    請求項4に記載の方法。
  8. 前記フォーマット規則は、前記補足強化情報メッセージが、各ビデオレイヤについて前記補助識別子が前記ビットストリームに含まれるかどうかを示す第2フラグを含む、ことを定める、
    請求項4に記載の方法。
  9. 前記フォーマット規則は、ビデオレイヤの補助識別子の第4値により、当該ビデオレイヤの補助情報のタイプが占有であることが示される、ことを定める、
    請求項4に記載の方法。
  10. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプがジオメトリであることが示される、ことを定める、
    請求項4に記載の方法。
  11. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプが属性であることが示される、ことを定める、
    請求項4に記載の方法。
  12. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプはテクスチャ属性であることが示される、ことを定める、
    請求項4に記載の方法。
  13. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプがマテリアル属性であることが示される、ことを定める、
    請求項4に記載の方法。
  14. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプが透明度属性であることが示される、ことを定める、
    請求項4に記載の方法。
  15. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプが反射率属性であることが示される、ことを定める、
    請求項4に記載の方法。
  16. 前記フォーマット規則は、ビデオレイヤの補助識別子の第3値により、当該ビデオレイヤの補助情報のタイプが標準属性であることが示される、ことを定める、
    請求項4に記載の方法。
  17. 前記フォーマット規則は、前記補足強化情報メッセージ内の前記スケーラビリティディメンション情報が、第3補足強化情報メッセージ内の第3スケーラビリティディメンション情報を含む後続のアクセスユニットまでの、しかしそれを含まない全ての後続のアクセスユニットを含むゼロ以上のアクセスユニットが後に続いている、第2補足強化情報メッセージ内の第2スケーラビリティディメンション情報を含むアクセスユニットを復号化順に含む一連のアクセスユニットに関する情報を提供する、ことを定める、
    請求項2に記載の方法。
  18. 前記フォーマット規則は、前記補足強化情報フィールドが前記ビットストリームにおいてビデオユーザビリティ情報に含まれる、ことを定める、
    請求項1に記載の方法。
  19. 前記ビデオは、バーサタイルビデオコーディングビデオである、
    請求項1乃至18のうちいずれかに記載の方法。
  20. 前記変換を実行するステップは、前記ビデオを前記ビットストリームに符号化することを含む、
    請求項1乃至19のうちいずれかに記載の方法。
  21. 前記変換を実行するステップは、前記ビットストリームを前記ビデオから生成することを含み、
    当該方法は、前記ビットストリームを非一時的なコンピュータ可読記録媒体に記憶するステップを更に有する、
    請求項1乃至19のうちいずれかに記載の方法。
  22. 前記変換を実行するステップは、前記ビデオを前記ビットストリームから復号することを含む、
    請求項1乃至19のうちいずれかに記載の方法。
  23. 請求項1乃至22のうちの一項以上に記載の方法を実装するよう構成されたプロセッサを有するビデオ復号化装置。
  24. 請求項1乃至22のうちの一項以上に記載の方法を実装するよう構成されたプロセッサを有するビデオ符号化装置。
  25. プロセッサによって実行される場合に、前記プロセッサに、請求項1乃至22のうちいずれかに記載の方法を実施させるコンピュータ命令が記憶されているコンピュータプログラム製品。
  26. 請求項1乃至22のうちいずれか一項に記載の方法により生成されたビットストリームを記憶する非一時的なコンピュータ可読記憶媒体。
  27. 請求項1乃至22のうちいずれかに記載の方法をプロセッサに実施させる命令を記憶している非一時的なコンピュータ可読記憶媒体。
  28. ビットストリーム生成の方法であって、
    請求項1乃至22のうちいずれかに記載の方法によりビデオのビットストリームを生成するステップと、
    前記ビットストリームをコンピュータ可読プログラム媒体に記憶するステップと
    を有する方法。
  29. 本明細書で記載されている方法、装置、開示されている方法により生成されたビットストリーム、及びシステム。
JP2023518730A 2020-09-29 2021-09-29 補助情報のシグナリング Pending JP2023542227A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2020118711 2020-09-29
CNPCT/CN2020/118711 2020-09-29
PCT/CN2021/121513 WO2022068839A1 (en) 2020-09-29 2021-09-29 Signalling of auxiliary information

Publications (1)

Publication Number Publication Date
JP2023542227A true JP2023542227A (ja) 2023-10-05

Family

ID=80949728

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023518729A Pending JP2023542226A (ja) 2020-09-29 2021-09-29 マルチビュー情報のシグナリング
JP2023518730A Pending JP2023542227A (ja) 2020-09-29 2021-09-29 補助情報のシグナリング

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2023518729A Pending JP2023542226A (ja) 2020-09-29 2021-09-29 マルチビュー情報のシグナリング

Country Status (6)

Country Link
US (2) US20230239511A1 (ja)
EP (2) EP4205383A4 (ja)
JP (2) JP2023542226A (ja)
KR (2) KR20230078736A (ja)
CN (2) CN116671110A (ja)
WO (2) WO2022068838A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11750843B2 (en) * 2021-06-28 2023-09-05 Tencent America LLC Multiview-related supplementary enhancement information messages

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
US9674522B2 (en) * 2013-04-08 2017-06-06 Qualcomm Incorporated Device and method for scalable coding of video information
WO2015009693A1 (en) * 2013-07-15 2015-01-22 Sony Corporation Layer based hrd buffer management for scalable hevc
CN105981387B (zh) * 2013-10-15 2019-09-27 诺基亚技术有限公司 用于处理视频的方法、装置和计算机可读存储介质
WO2015103462A1 (en) * 2014-01-02 2015-07-09 Vidyo, Inc. Overlays using auxiliary pictures
US20150264404A1 (en) * 2014-03-17 2015-09-17 Nokia Technologies Oy Method and apparatus for video coding and decoding
US10264286B2 (en) * 2014-06-26 2019-04-16 Qualcomm Incorporated Bitstream conformance constraints in scalable video coding
FI20165114A (fi) * 2016-02-17 2017-08-18 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten
JP6721631B2 (ja) * 2017-07-07 2020-07-15 ノキア テクノロジーズ オーユー ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト
EP4084490A1 (en) * 2019-01-02 2022-11-02 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
EP3700205A1 (en) * 2019-02-19 2020-08-26 Nokia Technologies Oy Quantization parameter derivation for cross-channel residual encoding and decoding

Also Published As

Publication number Publication date
US20230239502A1 (en) 2023-07-27
CN116671110A (zh) 2023-08-29
JP2023542226A (ja) 2023-10-05
WO2022068838A1 (en) 2022-04-07
WO2022068839A1 (en) 2022-04-07
US20230239511A1 (en) 2023-07-27
EP4205397A4 (en) 2024-02-28
KR20230078736A (ko) 2023-06-02
KR20230078738A (ko) 2023-06-02
EP4205383A4 (en) 2024-02-28
EP4205383A1 (en) 2023-07-05
CN116671111A (zh) 2023-08-29
EP4205397A1 (en) 2023-07-05

Similar Documents

Publication Publication Date Title
US11671627B2 (en) Operating point entity group signaling in coded video
JP7268107B2 (ja) ビジュアル・メディア・データ処理方法
KR20220037391A (ko) 다목적 비디오 코딩 트랙 코딩
JP2023542214A (ja) サブビットストリーム抽出
KR20220037380A (ko) 코딩된 비디오에서의 크로마 포맷 및 비트 깊이 표시
CN115804091A (zh) 访问单元分隔符,以及视频编解码中的通用约束信息
US20230239502A1 (en) Signalling of multiview information
KR20220142957A (ko) 서브픽처 엔티티 그룹에 대한 레벨 표시자
CN115769580A (zh) 在视频子比特流提取中处理不同nal类型
CN115699731A (zh) 参考图片重采样
CN115918067A (zh) 多层视频编解码的图片标头约束

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511