JP2022165994A - 点群コーディングのための高レベルシンタックス設計 - Google Patents

点群コーディングのための高レベルシンタックス設計 Download PDF

Info

Publication number
JP2022165994A
JP2022165994A JP2022116553A JP2022116553A JP2022165994A JP 2022165994 A JP2022165994 A JP 2022165994A JP 2022116553 A JP2022116553 A JP 2022116553A JP 2022116553 A JP2022116553 A JP 2022116553A JP 2022165994 A JP2022165994 A JP 2022165994A
Authority
JP
Japan
Prior art keywords
video
pcc
data
unit
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022116553A
Other languages
English (en)
Inventor
ワン、イエ-クイ
Ye-Kui Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2022165994A publication Critical patent/JP2022165994A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/765Media network packet handling intermediate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】ビデオエンコーダおよびビデオデコーダによって実装される点群コーディング(PCC)の方法を提供する。【解決手段】点群コーディングの方法において、ビデオデコーダは、データユニットヘッダ及びデータユニットを含む符号化ビットストリームを受信する段階であって、データユニットヘッダは、データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む、段階と、符号化ビットストリームを復号する段階と、を含む。ビデオエンコーダは、データユニットヘッダ及びデータユニットを含む符号化ビットストリームを生成する段階であって、データユニットヘッダは、データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む段階と、符号化ビットストリームをデコーダに向けて送信する段階と、を含む。【選択図】図5

Description

本開示は概して点群コーディングに関し、具体的には点群コーディングのための高レベルシンタックスに関する。
点群は、エンターテインメント産業、インテリジェント自動車ナビゲーション、地理空間検査、現実世界のオブジェクトの3次元(3D)モデリング、視覚化等を含む、非常に様々な用途で使用される。点群の一様でないサンプリングジオメトリを考慮すると、そのようなデータの格納及び伝送のためのコンパクトな表示が有用である。他の3Dプレゼンテーションに比べて、不規則な点群はより汎用的であり、幅広いセンサ及びデータ取得ストラテジに適用可能である。例えば、仮想現実世界にて3Dプレゼンテーション又はテレプレゼンス環境にてリモートレンダリングを行う場合、仮想フィギュアのレンダリング及びリアルタイム命令は、高密度な点群データセットとして処理される。
第1の態様は、ビデオデコーダによって実装される点群コーディング(PCC)の方法に関する。方法は、データユニットヘッダ及びデータユニットを含む符号化ビットストリームを受信する段階であって、データユニットヘッダは、データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む、段階と、符号化ビットストリームを復号する段階と、を含む。
第2の態様は、ビデオエンコーダによって実装される点群コーディング(PCC)の方法に関する。方法は、データユニットヘッダ及びデータユニットを含む符号化ビットストリームを生成する段階であって、データユニットヘッダは、データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む、段階と、デコーダに向けて符号化ビットストリームを送信する段階と、を含む。
方法は、以下で説明される点群コーディングに関連する問題の1つ又は複数を解決する高レベルシンタックス設計を提供する。したがって、ビデオコーディングのプロセス及びビデオコーデックがより効率的になる等して改善される。
そのような第1又は第2の態様に係る方法の第1の実装形態では、データユニットヘッダは、PCCネットワーク抽象化層(NAL)ユニットヘッダである。
そのような第1若しくは第2の態様に係る方法の第2の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、データユニットはPCC NALユニットである。
そのような第1若しくは第2の態様に係る方法の第3の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは、コンテンツのタイプがジオメトリコンポーネントであると指定する。
そのような第1若しくは第2の態様に係る方法の第4の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは、コンテンツのタイプがテクスチャコンポーネントであると指定する。
そのような第1若しくは第2の態様に係る方法の第5の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは、コンテンツのタイプがジオメトリコンポーネント又はテクスチャコンポーネントであると指定する。
そのような第1若しくは第2の態様に係る方法の第6の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは、コンテンツのタイプの補助情報であると指定する。
そのような第1若しくは第2の態様に係る方法の第7の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは、コンテンツのタイプが占有マップであると指定する。
そのような第1若しくは第2の態様に係る方法の第8の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、ペイロードは、高効率ビデオコーディング(HEVC)NALユニットを含む。
そのような第1若しくは第2の態様に係る方法の第9の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、ペイロードは、高度ビデオコーディング(AVC)NALユニットを含む。
そのような第1若しくは第2の態様に係る方法の第10の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは5ビットを含む。
そのような第1若しくは第2の態様に係る方法の第11の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、タイプインジケータは7ビットを含む。
そのような第1若しくは第2の態様に係る方法の第12の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、ジオメトリコンポーネントは、点群フレームと関連付けられる1組の座標を含む。
そのような第1若しくは第2の態様に係る方法の第13の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、1組の座標はデカルト座標である。
そのような第1若しくは第2の態様に係る方法の第14の実装形態又は第1若しくは第2の態様の任意の先行する実装形態では、テクスチャコンポーネントは、点群フレームの1組のルマサンプル値を含む。
第3の態様は、符号化するピクチャを受信するように又は復号するビットストリームを受信するように構成されている受信機と、受信機に連結されている送信器であって、ビットストリームをデコーダに送信するように又は復号されたイメージをディスプレイに送信するように構成されている送信器と、受信機又は送信器の少なくとも1つに連結されているメモリであって、命令を格納するように構成されているメモリと、メモリに連結されているプロセッサであって、先行する態様又は実装のいずれかの方法を実行するためにメモリに記憶されている命令を実行するように構成されているプロセッサと、を備える、コーディング装置に関する。
コーディング装置は、以下で説明される点群コーディングに関連する問題の1つ又は複数を解決する高レベルシンタックス設計を使用する。したがって、ビデオコーディングのプロセス及びビデオコーデックがより効率的になる等して改善される。
そのような第3の態様に係る装置の第1の実装形態では、装置は、イメージを表示するように構成されているディスプレイをさらに備える。
第4の態様は、エンコーダ及びエンコーダと通信するデコーダを備えるシステムに関する。エンコーダ又はデコーダは、先行する態様又は実装のいずれかのコーディング装置を含む。
システムは、以下で説明される点群コーディングに関連する問題の1つ又は複数を解決する高レベルシンタックス設計を使用する。したがって、ビデオコーディングのプロセス及びビデオコーデックがより効率的になる等して改善される。
第5の態様は、符号化するピクチャを受信するように又は復号するビットストリームを受信するように構成されている受信手段と、
上記受信手段に連結されている送信手段であって、上記ビットストリームをデコーダに送信するように又は復号されたイメージを表示手段に送信するように構成されている送信手段と、
上記受信手段又は上記送信手段の少なくとも1つに連結されている記憶手段であって、命令を記憶するように構成されている記憶手段と、
上記記憶手段に連結されている処理手段であって、先行する態様又は実装のいずれかの方法を実行するために上記記憶手段に記憶されている上記命令を実行するように構成されている処理手段と、
を備える、コーディング手段に関する。
コーディング手段は、以下で説明される点群コーディングに関連する問題の1つ又は複数を解決する高レベルシンタックス設計を使用する。したがって、ビデオコーディングのプロセス及びビデオコーデックがより効率的になる等して改善される。
明確さのために、前述の実施形態のいずれか1つを他の前述の実施形態のいずれか1つ又は複数と組み合せて、本開示の範囲内で新たな実施形態を作り出してもよい。
これらの特徴及び他の特徴は、添付図面及び特許請求の範囲と共に、以下の詳細な説明からより明確に理解されるであろう。
本開示をより十分に理解するために、次に、添付図面及び詳細な説明と関連した以下の簡潔な説明について言及する。ここで、同様の参照番号は同様の構成要素を表す。
コンテキストモデル化技術を使用し得る例示的なコーディングシステムを示すブロック図である。
コンテキストモデル化技術を実装し得る例示的なビデオエンコーダを示すブロック図である。
コンテキストモデル化技術を実装し得る例示的なビデオデコーダを示すブロック図である。
PCCと適合するデータ構造の一実施形態の概略図である。
ビデオデコーダによって実装される点群コーディングの方法の一実施形態の図である。
ビデオエンコーダによって実装される点群コーディングの方法の一実施形態の図である。
例示的なビデオコーディングデバイスの概略図である。
コーディング手段の一実施形態の概略図である。
最初に、1つ又は複数の実施形態の例示的な実装が以下に提供されるが、開示されたシステム及び/又は方法は、現在既知又は既存であるかに関わらず、任意の数の技術を用いて実装されてよいことを理解されたい。本開示は、本明細書において示され説明される例示的な設計及び実装を含む、以下で示される例示的な実装、図面、及び技術に決して限定されるべきではないが、添付の特許請求の範囲に加え、それらの均等物の全範囲内において変更され得る。
ビデオコーディング規格は、国際電気通信連合の電気通信標準化部門(ITU‐T)H.261、国際標準化機構(ISO)/国際電気標準会議(IEC)の動画専門家集団(MPEG)‐1 Part2、ITU‐T H.262又はISO/IEC MPEG-2 Part2、ITU-T H.263、ISO/IEC MPEG-4 Part2、ITU‐T H.264又はISO/IEC MPEG-4 Part10としても知られている高度ビデオコーディング(AVC)、及び、ITU‐T H.265又はMPEG-H Part2としても知られている高効率ビデオコーディング(HEVC)を含む。AVCは、スケーラブルビデオコーディング(SVC)、マルチビュービデオコーディング(MVC)及びマルチビュービデオコーディングプラス深度(MVC+D)、並びに3D AVC(3D-AVC)等の拡張を含む。HEVCは、スケーラブルHEVC(SHVC)、マルチビューHEVC(MV-HEVC)、及び3D HEVC(3D-HEVC)等の拡張を含む。
点群は、3D空間におけるデータ点のセットである。各データ点は、位置(例えば、X、Y、Z)、色(例えば、R、G、B又はY、U、V)、及びおそらくは透過性、反射率、取得時間等のような他の特性を決定するパラメータから構成される。典型的には、群内の各点には、同じ数の属性が付加されている。点群は、リアルタイム3Dイマーシブテレプレゼンス、インタラクティブパララックスを伴うコンテンツ仮想現実(VR)ビューイング、3D自由視点スポーツリプレイブロードキャスティング、地理的情報システム、文化遺産、大規模3D動的マップに基づく自律ナビゲーション、及び自動車アプリケーション等の様々な用途において用いられ得る。
ISO/IEC動画専門家集団(MPEG)は、かなりのコーディング効率及びネットワーク環境に対するロバスト性を有する、ロスレス及びロッシー圧縮点群データのための点群コーディングに関する新たなコーデック規格の開発を2016年に開始した。このコーデック規格を使用すれば、点群をコンピュータデータの形態として操作し、様々な記憶媒体に記憶し、既存及び将来のネットワークを介して送信及び受信し、既存及び将来のブロードキャスティングチャネル上で配信することができる。
近年、点群コーディング(PCC)作業は、3つのカテゴリ、すなわち、PCCカテゴリ1、PCCカテゴリ2、及びPCCカテゴリ3に分類されていた。2つの別個の作業ドラフトが展開され、その一方はPCCカテゴリ2(PCC Cat2)のためのものであり、他方はPCCカテゴリ1及び3(PCC Cat13)のためのものであった。PCC Cat2のための最新の作業ドラフト(WD)は、MPEGの出力ドキュメントN17534に含まれ、PCC Cat13のための最新のWDは、MPEGの出力ドキュメントN17533に含まれる。
PCC Cat2 WDにおけるPCC Cat2コーデックの設計の背後にある主な理念は、点群データを異なるビデオシーケンスのセットとして圧縮することにより、動的な点群のジオメトリ及びテクスチャ情報を圧縮するために既存のビデオコーデックを活用することである。特に、2つのビデオシーケンス、すなわち、一方は点群データのジオメトリ情報を表し、他方はテクスチャ情報を表すビデオシーケンスは、ビデオコーデックを用いて生成され圧縮される。2つのビデオシーケンスを解釈するための追加のメタデータ、すなわち、占有マップ及び補助パッチ情報もまた、別個に生成され圧縮される。
残念なことに、PCCの既存の設計は欠点を有する。例えば、1つの時間インスタンス、すなわち、1つのアクセスユニット(AU)に関するデータユニットは、復号順序において連続しない。PCC Cat2 WDにおいて、各AUのテクスチャ、ジオメトリ、補助情報、及び占有マップのデータユニットは、フレーム群の単位でインターリーブされる。すなわち、群内の全てのフレームのジオメトリデータはまとまっている。同じことが、テクスチャデータ等にも当てはまることが多い。PCC Cat13 WDでは、ジオメトリのデータユニット及び各AUの一般的属性は、全PCCビットストリームのレベルでインターリーブされる(例えば、全PCCビットストリームと同じ長さを有するフレーム群が1つのみ存在するときのPCC Cat2 WDの場合と同じ)。1つのAUに属するデータユニットのインターリーブは、本質的に、アプリケーションシステムにおけるプレゼンテーション持続時間内のフレーム群の長さに少なくとも等しい膨大なエンドツーエンド遅延を発生させる。
別の欠点は、ビットストリームフォーマットに関するものである。ビットストリームフォーマットは、0x0003のような開始コードパターンのエミュレーションを許容し、したがって、MPEG-2トランスポートストリーム(TS)を介した送信のために動作せず、ここで、開始コードエミュレーションの防止が必要となる。PCC Cat2に関して、現在は、HEVC又はAVCのいずれかがジオメトリ及びテクスチャコンポーネントのコーディングのために用いられる場合、group_of_frames_geometry_video_payload()及びgroup_of_frames_texture_video_payload()のみが開始コードエミュレーションの防止を適所に有する。PCC Cat13に関して、開始コードエミュレーションの防止は、ビットストリームのいずれの場所においても適所に存在しない。
PCC Cat2 WDでは、ジオメトリ及びテクスチャビットストリームのためのコーデック情報の一部(例えば、どのコーデック、コーデックのプロファイル、レベルであるか等)は、構造group_of_frames_geometry_video_payload()及びgroup_of_frames_texture_video_payload()の複数のインスタンスに深く埋め込まれている。さらに、補助情報及び占有マップコンポーネントを復号する能力並びに点群再構成のための能力を示すプロファイル及びレベルのような情報の一部は、失われている。
本明細書には、点群コーディングに関連する前述の問題の1つ又は複数を解決する高レベルシンタックス設計が開示される。以下でより完全に説明されるように、本開示は、データユニットヘッダ(PCCネットワークアクセス層(NAL)ヘッダとも呼ばれる)におけるタイプインジケータを使用して、PCC NALユニットのペイロードにおけるコンテンツのタイプを指定する。また、本開示は、フレーム群ヘッダパラメータを保持するのにフレーム群ヘッダNALユニットを使用する。フレーム群ヘッダNALユニットは、各ジオメトリ又はテクスチャビットストリームのプロファイル及びレベルをシグナリングするために用いられもよい。
図1は、PCCビデオコーディング技術を使用し得る例示的なコーディングシステム10を示すブロック図である。図1に示されるように、コーディングシステム10は、デスティネーションデバイス14によって後の時点で復号されることになる符号化ビデオデータを提供するソースデバイス12を備える。特に、ソースデバイス12は、コンピュータ可読媒体16を介してデスティネーションデバイス14にビデオデータを提供してよい。ソースデバイス12及びデスティネーションデバイス14は、デスクトップコンピュータ、ノートブック(例えば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォン、いわゆる「スマート」パッド等の電話ハンドセット、テレビ、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス等を含む、幅広いデバイスのいずれかを含んでよい。一部の事例において、ソースデバイス12及びデスティネーションデバイス14は、無線通信するように装備されてよい。
デスティネーションデバイス14は、コンピュータ可読媒体16を介して復号されることになる符号化ビデオデータを受信してよい。コンピュータ可読媒体16は、符号化ビデオデータをソースデバイス12からデスティネーションデバイス14に移動可能な任意のタイプの媒体又はデバイスを含んでよい。一例では、コンピュータ可読媒体16は、ソースデバイス12が符号化ビデオデータをリアルタイムでデスティネーションデバイス14に直接送信することを可能にするように通信媒体を含んでもよい。符号化ビデオデータは、無線通信プロトコル等の通信規格に従って変調され、デスティネーションデバイス14に送信されてよい。通信媒体は、無線周波数(RF)スペクトル又は1つ若しくは複数の物理的送信ライン等の、任意の無線又は有線通信媒体を含んでよい。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はインターネット等のグローバルネットワーク等のパケットベースネットワークの一部を形成してよい。通信媒体は、ルータ、スイッチ、基地局、又は、ソースデバイス12からデスティネーションデバイス14への通信を円滑化するのに有用であり得る任意の他の機器を含んでよい。
一部の例において、符号化データは、出力インタフェース22からストレージデバイスに出力されてよい。同様に、符号化データは、入力インタフェースによってストレージデバイスからアクセスされてよい。ストレージデバイスは、ハードドライブ、ブルーレイ(登録商標)ディスク、デジタルビデオディスク(DVD)、コンパクトディスクリードオンリメモリ(CD-ROM)、フラッシュメモリ、揮発性若しくは不揮発性メモリ、又は符号化ビデオデータを格納するのに好適な任意の他のデジタル記憶媒体等の、様々な分散型又はローカルにアクセスされるデータ記憶媒体のいずれかを含んでよい。さらなる例において、ストレージデバイスは、ソースデバイス12によって生成された符号化ビデオを格納し得るファイルサーバ又は別の中間ストレージデバイスに対応してよい。デスティネーションデバイス14は、ストリーミング又はダウンロードを介してストレージデバイスから格納されたビデオデータにアクセスしてよい。ファイルサーバは、符号化ビデオデータを格納するとともにその符号化ビデオデータをデスティネーションデバイス14に送信することが可能な任意のタイプのサーバとしてよい。ファイルサーバの例には、ウェブサーバ(例えばウェブサイト用)、ファイル転送プロトコル(FTP)サーバ、ネットワークアタッチストレージ(NAS)デバイス、又はローカルディスクドライブが含まれる。デスティネーションデバイス14は、インターネット接続を含む、任意の標準的なデータ接続を通して符号化ビデオデータにアクセスしてよい。これには、ファイルサーバに格納されている符号化ビデオデータにアクセスするのに好適な、無線チャネル(例えば、Wi-Fi(登録商標)接続)、有線接続(例えば、デジタル加入者ライン(DSL)、ケーブルモデム等)、又は両方の組み合わせが含まれ得る。ストレージデバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、又はそれらの組み合わせとしてよい。
本開示の技術は、必ずしも無線用途又は設定に限定されない。この技術は、オーバーザエアテレビブロードキャスト、ケーブルテレビ送信、衛星テレビ送信、HTTP(DASH)を介したダイナミックアダプティブストリーミング等のインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体上に記憶されているデジタルビデオの復号、又は他の用途等の、様々なマルチメディア用途のいずれかのサポートにおいてビデオコーディングに適用されてよい。一部の例において、コーディングシステム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、及び/又はビデオテレフォニー等の用途をサポートするために、一方向又は双方向ビデオ送信をサポートするように構成されてよい。
図1の例では、ソースデバイス12は、ビデオソース18、ビデオエンコーダ20、及び出力インタフェース22を含む。デスティネーションデバイス14は、入力インタフェース28、ビデオデコーダ30、及びディスプレイデバイス32を含む。本開示によれば、ソースデバイス12のビデオエンコーダ20及び/又はデスティネーションデバイス14のビデオデコーダ30は、ビデオコーディングのためにこの技術を適用するように構成されてよい。他の例において、ソースデバイス及びデスティネーションデバイスは、他のコンポーネント又は機構を含んでよい。例えば、ソースデバイス12は、外部カメラ等の外部ビデオソースからビデオデータを受信してよい。同様に、デスティネーションデバイス14は、組み込まれたディスプレイデバイスを備えるのではなく、外部ディスプレイデバイスとインタフェースしてよい。
図1に示されているコーディングシステム10は、単に一例である。ビデオコーディングの技術は、任意のデジタルビデオ符号化及び/又は復号デバイスによって実行されてよい。本開示の技術は、一般にビデオコーディングデバイスによって実行されるが、この技術は、典型的には「コーデック」と称されるビデオエンコーダ/デコーダによって実行されてもよい。さらに、本開示の技術は、ビデオプリプロセッサによって実行されてもよい。ビデオエンコーダ及び/又はデコーダは、グラフィック処理ユニット(GPU)又は同様のデバイスとしてよい。
ソースデバイス12及びデスティネーションデバイス14は、ソースデバイス12がデスティネーションデバイス14に送信するためのコーディングされたビデオデータを生成するようなコーディングデバイスの単に例である。一部の例において、ソースデバイス12及びデスティネーションデバイス14は、ソースデバイス12及びデスティネーションデバイス14のそれぞれがビデオ符号化及び復号コンポーネントを含むように実質的に対称に動作してよい。したがって、コーディングシステム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、又はビデオテレフォニーのための、ビデオデバイス12、14間での一方向又は双方向ビデオ送信をサポートしてよい。
ソースデバイス12のビデオソース18は、ビデオカメラ、これまでに捕捉されたビデオを含むビデオアーカイブ、及び/又は、ビデオコンテンツプロバイダからビデオを受信するためのビデオ供給インタフェース等のビデオ捕捉デバイスを含んでよい。さらなる代替物として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックベースデータ、又は、ライブビデオ、アーカイブビデオ、及びコンピュータ生成ビデオの組み合わせを生成してよい。
一部の事例において、ビデオソース18がビデオカメラである場合、ソースデバイス12及びデスティネーションデバイス14は、いわゆるカメラ電話又はビデオ電話を形成してよい。しかしながら、上記で言及したように、本開示で説明される技術は、ビデオコーディングに一般に適用可能であり得、無線及び/又は有線用途に適用され得る。各事例において、捕捉された、事前に捕捉された、又はコンピュータ生成されたビデオは、ビデオエンコーダ20によって符号化されてよい。次に、符号化ビデオ情報が、出力インタフェース22によってコンピュータ可読媒体16上に出力されてよい。
コンピュータ可読媒体16は、無線ブロードキャスト若しくは有線ネットワーク送信等の一時的媒体、又は、ハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイ(登録商標)ディスク等の記憶媒体(すなわち、非一時的記憶媒体)、又は他のコンピュータ可読媒体を含んでよい。一部の例において、ネットワークサーバ(図示せず)は、ソースデバイス12から符号化ビデオデータを受信し、その符号化ビデオデータを、例えばネットワーク送信を介して、デスティネーションデバイス14に提供してよい。同様に、ディスクプレス加工設備等の媒体生産設備のコンピューティングデバイスは、ソースデバイス12から符号化ビデオデータを受信し、その符号化ビデオデータを含むディスクを生産してよい。したがって、コンピュータ可読媒体16は、様々な例において、様々な形態の1つ又は複数のコンピュータ可読媒体を含むものと理解されてよい。
デスティネーションデバイス14の入力インタフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ビデオエンコーダ20によって定義されるシンタックス情報を含んでよい。このシンタックス情報は、ビデオデコーダ30によっても用いられ、ブロック及び他のコーディングされたユニット、例えばピクチャの集合(GOP)の特性及び/又は処理を表すシンタックス要素を含む。ディスプレイデバイス32は、復号済ビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、又は別のタイプのディスプレイデバイス等の様々なディスプレイデバイスのいずれかを含んでよい。
ビデオエンコーダ20及びビデオデコーダ30は、現在開発中の高効率ビデオコーディング(HEVC)規格等のビデオコーディング規格に従って動作してよく、HEVCテストモデル(HM)に準拠してよい。代替的に、ビデオエンコーダ20及びビデオデコーダ30は、動画専門家集団(MPEG)‐4、Part10とも別称される国際電気通信連合の電気通信標準化部門(ITU‐T)H.264規格、高度ビデオコーディング(AVC)、H.265/HEVC、又はそのような規格の拡張等の他の独自規格又は産業規格に従って動作してよい。しかしながら、本開示の技術は、いかなる特定のコーディング規格にも限定されない。ビデオコーディング規格の他の例は、MPEG-2及びITU-T H.263を含む。図1には示していないが、一部の態様において、ビデオエンコーダ20及びビデオデコーダ30は、オーディオエンコーダ及びデコーダとそれぞれ統合されてよく、共通のデータストリーム又は別個のデータストリームにおけるオーディオ及びビデオの両方の符号化を扱うために、適切なマルチプレクサ-デマルチプレクサ(MUX-DEMUX)ユニット、又は他のハードウェア及びソフトウェアを含んでよい。適用可能であれば、MUX-DEMUXユニットは、ITU H.223マルチプレクサプロトコル、又は、ユーザデータグラムプロトコル(UDP)等の他のプロトコルに準拠してよい。
ビデオエンコーダ20及びビデオデコーダ30は、1つ又は複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリートロジック、ソフトウェア、ハードウェア、ファームウェア、又はそれらの任意の組み合わせ等の、様々な好適なエンコーダ回路のいずれかとしてそれぞれ実装されてよい。この技術がソフトウェアにおいて一部実装される場合、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、本開示の技術を実行するために、1つ又は複数のプロセッサを用いてハードウェアにおいて命令を実行してよい。ビデオエンコーダ20及びビデオデコーダ30のそれぞれは、1つ又は複数のエンコーダ又はデコーダに含まれてよく、そのいずれも、それぞれのデバイスにおける複合エンコーダ/デコーダ(コーデック)の一部として組み込まれてよい。ビデオエンコーダ20及び/又はビデオデコーダ30を含むデバイスは、集積回路、マイクロプロセッサ、及び/又は携帯電話等の無線通信デバイスを含んでよい。
図2は、ビデオコーディング技術を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコーディング及びインターコーディングを実行してよい。イントラコーディングは、所与のビデオフレーム又はピクチャ内のビデオにおける空間冗長性を低減又は除去するのに、空間的予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレーム又はピクチャ内のビデオにおける時間冗長性を低減又は除去するのに、時間的予測に依拠する。イントラモード(Iモード)は、複数の空間ベースのコーディングモードのいずれかを指してよい。片方向(片予測とも呼ばれる)予測(Pモード)又は双予測(bi-prediction)(双予測(bi prediction)とも呼ばれる)(Bモード)等のインターモードは、複数の時間ベースのコーディングモードのいずれかを指してよい。
図2に示されるように、ビデオエンコーダ20は、符号化されることになる、ビデオフレーム内の現在のビデオブロックを受信する。図2の例において、ビデオエンコーダ20は、モード選択ユニット40、基準フレームメモリ64、加算器50、変換処理ユニット52、量子化ユニット54、及びエントロピーコーディングユニット56を含む。モード選択ユニット40は、さらに、動き補償ユニット44、動き推定ユニット42、イントラ予測(intra-prediction)(イントラ予測(intra prediction)とも呼ばれる)ユニット46、及び区画化ユニット48を含む。ビデオブロック再構成のために、ビデオエンコーダ20は、逆量子化ユニット58、逆変換ユニット60、及び加算器62も含む。再構成されたビデオからブロックアーチファクトを除去するためにブロック境界をフィルタするように、デブロックフィルタ(図2には示していない)が含まれてもよい。所望であれば、デブロックフィルタは、典型的には加算器62の出力をフィルタする。デブロックフィルタに加えて、追加のフィルタ(ループ内又はループ後)を用いてもよい。そのようなフィルタは、簡潔さのために示していないが、所望であれば、加算器50の出力を(ループ内フィルタとして)フィルタしてよい。
符号化処理中、ビデオエンコーダ20は、コーディングされるべきビデオフレーム又はスライスを受信する。フレーム又はスライスは、複数のビデオブロックに分割されてよい。動き推定ユニット42及び動き補償ユニット44は、時間的予測を提供するために、1つ又は複数の基準フレームにおける1つ又は複数のブロックに対する、受信したビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、代替的に、空間的予測を提供するために、コーディングされるべきブロックと同じフレーム又はスライスにおける1つ又は複数の隣接ブロックに対する、受信したビデオブロックのイントラ予測コーディングを実行してよい。ビデオエンコーダ20は、例えば、ビデオデータの各ブロックのための適切なコーディングモードを選択するために、複数のコーディングパスを実行してよい。
さらに、区画化ユニット48は、以前のコーディングパスにおける以前の区画化方式の評価に基づいて、ビデオデータのブロックをサブブロックに区画化してよい。例えば、区画化ユニット48は、最初に、フレーム又はスライスを最大コーディングユニット(LCU)に区画化し、レート歪み解析(例えば、レート歪み最適化)に基づいて、LCUのそれぞれをサブコーディングユニット(サブCU)に区画化してよい。モード選択ユニット40は、LCUのサブCUへの区画化を示す、四分木データ構造をさらに生成してよい。四分木のリーフノードCUは、1つ又は複数の予測ユニット(PU)及び1つ又は複数の変換ユニット(TU)を含んでよい。
本開示は、HEVCの文脈におけるCU、PU、又はTUのいずれか、又は他の規格(例えば、H.264/AVCにおけるそのマクロブロック及びサブブロック)の文脈における同様のデータ構造を指すのに、「ブロック」という用語を使用する。CUは、コーディングノード、コーディングノードに関連付けられるPU及びTUを含む。CUのサイズは、コーディングノードのサイズに対応し、形状は正方形である。CUのサイズは、8×8ピクセルから最大64×64ピクセル以上のツリーブロックのサイズまでの範囲にあってよい。各CUは、1つ又は複数のPU及び1つ又は複数のTUを含んでよい。CUと関連付けられるシンタックスデータは、例えば、CUの1つ又は複数のPUへの区画化を表してよい。区画化モードは、CUがスキップ若しくはダイレクトモードで符号化されるか、イントラ予測モードで符号化されるか、又はインター予測(インター予測とも呼ばれる)モードで符号化されるかで異なってよい。PUは、正方形でない形状であるように区画化されてよい。CUと関連付けられるシンタックスデータは、例えば、四分木に従ったCUの1つ又は複数のTUへの区画化を表してもよい。TUは、正方形の又は正方形でない(例えば、矩形)形状とすることができる。
モード選択ユニット40は、例えばエラー結果に基づいて、コーディングモード、すなわちイントラコーディングモード又はインターコーディングモードのうちの1つを選択してよく、結果として得られるイントラコーディングされた又はインターコーディングされたブロックを、残存ブロックデータを生成するために加算器50に提供し、基準フレームとして使用される符号化ブロックを再構成するために加算器62に提供する。また、モード選択ユニット40は、動きベクトル、イントラモードインジケータ、区画化情報、及び他のそのようなシンタックス情報等のシンタックス要素をエントロピーコーディングユニット56に提供する。
動き推定ユニット42及び動き補償ユニット44は、高度に統合されてよいが、概念上の目的で別個に示されている。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成する処理である。動きベクトルは、例えば、現在のフレーム(又は他のコーディングされたユニット)内のコーディングされている現在のブロックに対する基準フレーム(又は他のコーディングされたユニット)内の予測ブロックに対する、現在のビデオフレーム又はピクチャ内のビデオブロックのPUの変位を示してよい。予測ブロックは、画素差分の観点でコーディングされるべきブロックとよく一致すると判明されたブロックであり、これは差分絶対値和(SAD)、差分二乗和(SSD)、又は他の差分メトリックによって決定され得る。一部の例において、ビデオエンコーダ20は、基準フレームメモリ64に記憶されている基準ピクチャのサブ整数ピクセル位置の値を算出してよい。例えば、ビデオエンコーダ20は、基準ピクチャの1/4画素位置、1/8画素位置、又は他の端数画素位置の値を補間してよい。したがって、動き推定ユニット42は、全画素位置及び端数画素位置に対して動き探索を実行し、端数画素精度で動きベクトルを出力してよい。
動き推定ユニット42は、PUの位置と基準ピクチャの予測ブロックの位置とを比較することによって、インターコーディングされたスライスにおけるビデオブロックのPUの動きベクトルを算出する。基準ピクチャは、基準フレームメモリ64に記憶されている1つ又は複数の基準ピクチャをそれぞれ識別する第1の基準ピクチャリスト(リスト0)又は第2の基準ピクチャリスト(リスト1)から選択されてよい。動き推定ユニット42は、算出された動きベクトルをエントロピー符号化ユニット56及び動き補償ユニット44に送信する。
動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトルに基づいて予測ブロックをフェッチ又は生成することを伴ってよい。ここでも、動き推定ユニット42及び動き補償ユニット44は、一部の例において、機能的に統合されてよい。現在のビデオブロックのPUの動きベクトルを受信すると、動き補償ユニット44は、基準ピクチャリストの1つにおいて動きベクトルが指し示す予測ブロックの位置を特定してよい。加算器50は、コーディングされている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を減算することによって、残存ビデオブロックを形成し、以下で説明されるように画素差分値を形成する。一般的に、動き推定ユニット42は、ルマコンポーネントに対して動き推定を実行し、動き補償ユニット44は、クロマコンポーネント及びルマコンポーネントの両方に関してルマコンポーネントに基づいて算出される動きベクトルを使用する。モード選択ユニット40は、ビデオスライスのビデオブロックの復号の際にビデオデコーダ30によって用いられるビデオブロック及びビデオスライスと関連付けられるシンタックス要素を生成してもよい。
イントラ予測ユニット46は、上記で説明したように動き推定ユニット42及び動き補償ユニット44によって実行されるインター予測の代わりに、現在のブロックをイントラ予測してよい。特に、イントラ予測ユニット46は、現在のブロックを符号化するのに使用するようにイントラ予測モードを決定してよい。一部の例において、イントラ予測ユニット46は、例えば、別個の符号化パス中に、様々なイントラ予測モードを用いて現在のブロックを符号化してよく、イントラ予測ユニット46(又は一部の例においてモード選択ユニット40)は、テスト済モードから使用する適切なイントラ予測モードを選択してよい。
例えば、イントラ予測ユニット46は、様々なテスト済イントラ予測モードのためにレート歪み解析を用いてレート歪み値を算出し、テスト済モードのうちの最良のレート歪み特性を有するイントラ予測モードを選択してよい。レート歪み解析は一般に、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間の歪み(又は誤差)の量、及び、符号化ブロックを生成するのに用いられたビットレート(すなわちビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックの最良のレート歪み値を示すかを決定するために、様々な符号化ブロックの歪み及びレートから比率を算出してよい。
また、イントラ予測ユニット46は、深度モデリングモード(DMM)を用いて深度マップの深度ブロックをコーディングするように構成されてよい。モード選択ユニット40は、利用可能なDMMモードが、イントラ予測モード及び例えばレート歪み最適化(RDO)を用いる他のDMMモードより良好なコーディング結果を生成するか否かを決定してよい。深度マップに対応するテクスチャイメージのためのデータは、基準フレームメモリ64に記憶されてよい。動き推定ユニット42及び動き補償ユニット44は、深度マップの深度ブロックをインター予測するように構成されてもよい。
ブロックについてイントラ予測モード(例えば、従来のイントラ予測モード又はDMMモードの1つ)を選択した後、イントラ予測ユニット46は、ブロックについて選択されたイントラ予測モードを示す情報をエントロピーコーディングユニット56に提供してよい。エントロピーコーディングユニット56は、選択されたイントラ予測モードを示す情報を符号化してよい。ビデオエンコーダ20は、複数のイントラ予測モードインデックステーブル及び複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも称される)を含み得る、送信されるビットストリーム構成データに、様々なブロックのための符号化コンテキストの定義と、コンテキストのそれぞれに用いられる、最も妥当なイントラ予測モード、イントラ予測モードインデックステーブル、及び変更されたイントラ予測モードインデックステーブルのインジケーションとを含んでよい。
ビデオエンコーダ20は、コーディングされている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって、残存ビデオブロックを形成する。加算器50は、この減算操作を実行する1つ又は複数のコンポーネントを表す。
変換処理ユニット52は、離散コサイン変換(DCT)又は概念的に同様の変換等の変換を残存ブロックに適用し、残存変換係数値を含むビデオブロックを生成する。変換処理ユニット52は、DCTと概念的に同様の他の変換を実行してよい。ウェーブレット変換、整数変換、サブバンド変換、又は他のタイプの変換も用いることができる。
変換処理ユニット52は、残存ブロックに変換を適用し、残存変換係数のブロックを生成する。変換は、残存情報をピクセル値ドメインから周波数ドメイン等の変換ドメインに変換してよい。変換処理ユニット52は、結果として得られる変換係数を量子化ユニット54に送信してよい。量子化ユニット54は、ビットレートをさらに低減するために変換係数を量子化する。量子化処理は、係数の一部又は全てと関連付けられるビット深度を低減してよい。量子化の程度は、量子化パラメータを調整することで変更されてよい。一部の例において、量子化ユニット54は、次に、量子化変換係数を含むマトリクスのスキャンを実行してよい。代替的に、エントロピー符号化ユニット56は、スキャンを実行してよい。
量子化に続いて、エントロピーコーディングユニット56は、量子化変換係数をエントロピーコーディングする。例えば、エントロピーコーディングユニット56は、コンテキスト適応型可変長コーディング(CAVLC)、コンテキスト適応型2値算術コーディング(CABAC)、シンタックスベースコンテキスト適応型2値算術コーディング(SBAC)、確率間隔パーティショニングエントロピー(PIPE)コーディング、又は別のエントロピーコーディング技術を実行してよい。コンテキストベースのエントロピーコーディングの場合、コンテキストは、隣接ブロックに基づいてもよい。エントロピーコーディングユニット56によるエントロピーコーディングに続いて、符号化ビットストリームは、別のデバイス(例えば、ビデオデコーダ30)に送信されるか、又は後で送信若しくは取得されるようにアーカイブされてよい。
逆量子化ユニット58及び逆変換ユニット60は、例えば、後で基準ブロックとして用いるために、ピクセルドメインにおける残存ブロックを再構成するようにそれぞれ逆量子化及び逆変換を適用する。動き補償ユニット44は、基準フレームメモリ64のフレームのうちの1つの予測ブロックに残存ブロックを加算することによって基準ブロックを算出してよい。動き補償ユニット44は、動き推定において使用するサブ整数ピクセル値を算出するために、1つ又は複数の補間フィルタを再構成された残存ブロックに適用してもよい。加算器62は、基準フレームメモリ64に格納される再構成されたビデオブロックを生成するために、動き補償ユニット44によって生成された動き補償予測ブロックに再構成された残存ブロックを加算する。再構成されたビデオブロックは、動き推定ユニット42及び動き補償ユニット44によって、後続のビデオフレームにおけるブロックをインターコーディングするために基準ブロックとして用いられてよい。
図3は、ビデオコーディング技術を実装し得るビデオデコーダ30の一例を示すブロック図である。図3の例において、ビデオデコーダ30は、エントロピー復号ユニット70、動き補償ユニット72、イントラ予測ユニット74、逆量子化ユニット76、逆変換ユニット78、基準フレームメモリ82、及び加算器80を含む。ビデオデコーダ30は、一部の例において、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概ね逆の復号パスを実行してよい。動き補償ユニット72は、エントロピー復号ユニット70から受信した動きベクトルに基づいて予測データを生成してよく、一方で、イントラ予測ユニット74は、エントロピー復号ユニット70から受信したイントラ予測モードインジケータに基づいて予測データを生成してよい。
復号処理中、ビデオデコーダ30は、ビデオエンコーダ20から、符号化ビデオスライスのビデオブロックを表す符号化ビデオビットストリーム及び関連するシンタックス要素を受信する。ビデオデコーダ30のエントロピー復号ユニット70は、量子化された係数、動きベクトル又はイントラ予測モードインジケータ、及び他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット70は、動きベクトル及び他のシンタックス要素を動き補償ユニット72に送る。ビデオデコーダ30は、ビデオスライスレベル及び/又はビデオブロックレベルでシンタックス要素を受信してよい。
ビデオスライスがイントラコーディングされた(I)スライスとしてコーディングされる場合、イントラ予測ユニット74は、シグナリングされたイントラ予測モード及び現在のフレーム又はピクチャのこれまでに復号されたブロックからのデータに基づいて、現在のビデオスライスのビデオブロックの予測データを生成してよい。ビデオフレームがインターコーディングされた(例えば、B、P、又はGPB)スライスとしてコーディングされる場合、動き補償ユニット72は、エントロピー復号ユニット70から受信した動きベクトル及び他のシンタックス要素に基づいて、現在のビデオスライスのビデオブロックの予測ブロックを生成する。予測ブロックは、基準ピクチャリストの1つのうちの基準ピクチャの1つから生成されてよい。ビデオデコーダ30は、基準フレームメモリ82に記憶されている基準ピクチャに基づいて、デフォルト構成技術を用いて、基準フレームリスト、すなわちリスト0及びリスト1を構成してよい。
動き補償ユニット72は、動きベクトル及び他のシンタックス要素をパースすることによって、現在のビデオスライスのビデオブロックの予測情報を決定し、復号されている現在のビデオブロックの予測ブロックを生成するためにその予測情報を使用する。例えば、動き補償ユニット72は、受信したシンタックス要素の一部を用いて、ビデオスライスのビデオブロックをコーディングするのに用いられる予測モード(例えば、イントラ又はインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、又はGPBスライス)、スライスのための基準ピクチャリストの1つ又は複数の構成情報、スライスの各インター符号化ビデオブロックの動きベクトル、スライスの各インターコーディングされたビデオブロックのインター予測ステータス、及び現在のビデオスライスにおけるビデオブロックを復号するための他の情報を決定する。
動き補償ユニット72は、補間フィルタに基づいて補間を実行してもよい。動き補償ユニット72は、基準ブロックのサブ整数ピクセルの補間値を算出するために、ビデオブロックの符号化時にビデオエンコーダ20によって使用されるものとして補間フィルタを使用してよい。この場合、動き補償ユニット72は、受信したシンタックス要素からビデオエンコーダ20によって使用される補間フィルタを決定し、予測ブロックを生成するためにその補間フィルタを使用してよい。
深度マップに対応するテクスチャイメージのためのデータは、基準フレームメモリ82に記憶されてよい。動き補償ユニット72は、深度マップの深度ブロックをインター予測するように構成されてもよい。
上記に留意しながら、本開示の基本的構想の一部が説明される。
PCC Cat2に関して、上記で説明した第1の問題を解決するために、1つの時間インスタンス(例えば、1つのアクセスユニット)に関するデータユニットは、ビットストリームにおいて復号順序で連続的に配置されるべきである。データユニットが一旦ビットストリームにおいて復号順序で連続的に配置されると、各データユニットのタイプの識別によって、正しいデコーダコンポーネントに各データユニットを識別ルーティングすることが可能になる。また、この設計は、動的な点群のジオメトリ及びテクスチャ情報を圧縮するのに既存のビデオコーデックを活用するために、PCC Cat2コーデックの背後にある主要な設計の侵害を回避すべきである。
既存のビデオコーデックを活用することを可能にするために、例えばHEVCを例にとると、ジオメトリ及びテクスチャ情報を別個に圧縮すると同時に1つの単独の自己完結型PCC Cat2ビットストリームを得るために、下記の側面が明確に指定されているべきである:(1)PCC Cat2ビットストリームからのジオメトリコンポーネントに適合するHEVCビットストリームの抽出/構成、(2)PCC Cat2ビットストリームからのテクスチャコンポーネントに適合するHEVCビットストリームの抽出/構成、及び(3)ジオメトリ及びテクスチャコンポーネントに適合する抽出されたHEVCビットストリームのそれぞれの適合点、すなわち、プロファイル、ティア及びレベルのシグナリング/インジケーション。
上記で説明した問題を解決するために、また上記で言及した制約の全てを満すために、本開示は、PCC高レベルシンタックスに関する方法の2つの代替セットを提供する。
第1のセットの方法には、PCC Cat2のジオメトリ及びテクスチャコンポーネントのコーディングに使用できる全てのビデオコーデックに共通の高レベルシンタックスが存在する。このセットの方法は、下記のように要約される。
図4は、PCCと適合するデータ構造400を示している。データ構造400は、エンコーダによって生成され、デコーダによって受信されたビットストリームの一部を表してよい。示されるように、データユニットヘッダ404(PCC NALユニットヘッダと称される場合がある)が各データユニット402(PCC NALユニットと称される場合もある)に付加される。1つのデータユニット402及び1つのデータユニットヘッダ404が図4のデータ構造400に示されているが、任意の数のデータユニット402及びデータユニットヘッダ404が実際の用途におけるデータ構造400に含まれてよい。実際、データ構造400を含むビットストリームは、それぞれデータユニットヘッダ404を含む一連のデータユニット402を含んでよい。
データユニットヘッダ404は、例えば、1又は2バイトを含んでよい。一実施形態において、各データユニット402は、1つのPCC NALユニットとして形成される。データユニット402は、ペイロード406を含む。一実施形態において、データユニット406は、補足強化情報(SEI)メッセージ、シーケンスパラメータセット、ピクチャパラメータセット、スライス情報等を含んでもよい。
一実施形態において、データユニット402のペイロード406は、HEVCユニット又はAVC NALユニットとしてよい。一実施形態において、ペイロード406は、ジオメトリコンポーネント又はテクスチャコンポーネントのデータを含んでよい。一実施形態において、ジオメトリコンポーネントは、点群フレームと関連付けられる1組のデカルト座標である。一実施形態において、テクスチャコンポーネントは、点群フレームの1組のルマサンプル値である。HEVCが使用されている場合、データユニット402は、ペイロード406としてHEVC NALユニットを含むPCC NALユニットと称される場合がある。AVCが使用されている場合、データユニット402は、ペイロード406としてAVC NALユニットを含むPCC NALユニットと称される場合がある。
一実施形態において、データユニットヘッダ404(例えば、PCC NALユニットヘッダ)は、以下に要約されるような設計である。
まず、データユニットヘッダ404は、タイプインジケータを含む。タイプインジケータは、例えば、5ビットとしてよい。タイプインジケータは、ペイロード406に保持されているコンテンツのタイプを指定する。例えば、タイプインジケータは、ペイロード406がジオメトリ又はテクスチャ情報を含むと指定してよい。
一実施形態において、確保されたデータユニット(データユニット402と同様であるが後で使用するために確保されている)の一部は、PCC Cat13データユニットに用いられてよい。したがって、本開示の設計は、PCC Cat13にも適用される。そのため、PCC Cat2及びPCC Cat13を1つのコーデック規格仕様に一体化することが可能である。
上記で述べたように、現在のビットストリームフォーマットは、例えば新たなNALユニット又はPCC NALユニットの開始をシグナリングする開始コードパターンのエミュレーションを許容する。開始コードパターンは、例えば、0x0003としてよい。現在のビットストリームフォーマットが開始コードパターンのエミュレーションを許容するので、開始コードは意図せずシグナリングされ得る。本開示は、この課題を解決するためにPCC NALユニットシンタックス及びセマンティック(以下を参照されたい)を提供する。本明細書に示されるPCC NALユニットシンタックス及びセマンティックは、そのコンテンツにかかわらず各PCC NALユニットの開始コードエミュレーションの防止を確実にする。したがって、1バイト又は2バイトデータユニットヘッダ404の最後のバイト(例えば、それが1バイトであればデータユニットヘッダそのもの)は、0x00に等しくなることが禁止される。
また、フレーム群ヘッダ408(フレーム群ヘッダNALユニットとも呼ばれる)は、フレームヘッダパラメータ群を保持するように設計される。また、フレーム群ヘッダNALユニットは、例えば、各ジオメトリ又はテクスチャビットストリームのプロファイル及びレベル等の他のグローバル情報のシグナリングを含む。一実施形態において、プロファイルは、指定されたシンタックスのサブセット又はコーディングツールのサブセットである。一実施形態において、レベルは、シンタックス要素及び変数がとり得る値に対する規定された制約のセットである。一実施形態において、ビットストリームのためのプロファイル及びレベルの組み合わせは、ビットストリームの復号のために要求される特定の復号能力を表す。さらに、プロファイル及びレベルが補助情報、占有マップ、及び点群再構成処理(ジオメトリ、テクスチャ、補助情報、及び占有マップの復号結果を使用する)の復号に関しても規定される場合、そのプロファイル及びレベルは、フレーム群ヘッダ408においてもシグナリングされる。一実施形態において、PCC補助情報は、PCCコーディングされたビットストリームからの点群信号の再構成に使用される、パッチ情報及び点局所再構成情報のような情報を参照する。一実施形態において、PCC占有マップは、3D空間のどの部分が、テクスチャ値及び他の属性がそこからサンプリングされるオブジェクトによって占有されるかに関する情報を参照する。
以下のシンタックスによって示されるように、異なるタイプのデータユニット402(PCC NALユニットとも呼ばれる)の順序に対する制約が明確に指定される。また、アクセスユニット410(データユニット402、データユニットヘッダ404等のいくつかを含んでよい)の開始が明確に指定される。
また、各ジオメトリ又はテクスチャビットストリームの抽出/構成のプロセスは、以下に述べられるシンタックス及び/又はセマンティックにおいて明確に指定される。
第2のセットの方法において、異なる全体シンタックスが異なるビデオコーデックに使用される。ジオメトリ及びテクスチャのコーディングのためにHEVCを使用するPCC Cat2は、HEVCに対する修正として指定され、一方で、ジオメトリ及びテクスチャのコーディングのためにAVCを使用するPCC Cat2は、AVCに対する修正として指定される。このセットの方法は、下記のように要約される。
ジオメトリ及びテクスチャのコーディングのためにHEVCを使用するPCC Cat2に関して、ジオメトリ及びテクスチャは、3つの別個の層(例えば、ジオメトリのための2層d0及びd1及びテクスチャのための1層)と見なされる。SEIメッセージ又は新たなタイプのNALユニットのいずれかが、占有マップ及び補助情報のために使用される。一方が占有マップのため、一方が補助情報のための、2つの新たなSEIメッセージが指定される。シーケンスレベルである別のSEIメッセージがフレーム群ヘッダパラメータ及び他のグローバル情報を保持するために指定される。このSEIメッセージは、第1のセットの方法におけるフレーム群ヘッダ408と同様である。
ジオメトリ及びテクスチャのコーディングのためにAVCを使用するPCC Cat2に関して、ジオメトリ及びテクスチャは、3つの別個の層(例えば、ジオメトリのための2層d0及びd1及びテクスチャのための1層)と見なされる。SEIメッセージ又は新たなタイプのNALユニットのいずれかが、占有マップ及び補助パッチ情報のために使用される。独立してコーディングされた非ベース層の抽出及び適合点(例えば、プロファイル及びレベル)の単層ビットストリームとしてのシグナリングが指定される。一方が占有マップのため、一方が補助情報のための、2つの新たなタイプのSEIメッセージが指定される。シーケンスレベルである別のSEIメッセージがフレーム群ヘッダパラメータ及び他のグローバル情報を保持するために指定される。このSEIメッセージは、第1のセットの方法におけるフレーム群ヘッダ408と同様である。
上記で述べた第1のセットの方法は、以下に開示される定義、略語、シンタックス、及びセマンティックに基づいて実装できる。具体的には言及されない側面は、最新のPCC Cat2 WDの場合と同じである。
下記の定義が適用される。
ビットストリーム:1つ又は複数のCPSを形成するコーディングされた点群フレーム及び関連するデータの表示を形成する一連のビット。
バイト:一連のビット値として書き込まれる又は読み取られる場合、左端及び右端のビットがそれぞれ最上位ビット及び最下位ビットを表す一連の8ビット。
コーディングされたPCCシーケンス(CPS):復号順序において、PCCイントラランダムアクセスピクチャ(IRAP)AUと、それに続く、PCC IRAP AUである任意の後続のPCC AUを含まないがそれまでの全ての後続のPCC AUを含む、PCC IRAP AUでないゼロ又はゼロより多いPCC AUとを含む、一連のPCC AU。
復号順序:シンタックス要素が復号処理によって処理される順序。
復号処理:ビットストリームを読み取り、そこから復号された点群フレームを導出する、本明細書で指定される処理(PCC Cat2 WDとも呼ばれる)。
フレーム群ヘッダNALユニット:GOF_HEADERに等しいPccNalUnitTypeを有するPCC NALユニット。
PCC AU:指定の分類ルールに従って互いと関連付けられ、復号順序において連続し、1つの特定のプレゼンテーション時間に関する全てのPCC NALユニットを含む、PCC NALユニットのセット。
PCC IRAP AU:フレーム群ヘッダNALユニットを含むPCC AU。
PCC NALユニット:従うべきデータのタイプのインジケーションと、必要に応じてエミュレーション防止バイトが入り混ざったRBSPの形態のそのデータを含むバイトとを含む、シンタックス構造。
ローバイトシーケンスペイロード(RBSP):PCC NALユニットにカプセル化され、空であるか、又はRBSPストップビット及びに0に等しいゼロ若しくはゼロより多い後続ビットが続くシンタックス要素を含むデータビットのストリング(SODB)の形態を有するかのいずれかの、整数の数のバイトを含むシンタックス構造。
ローバイトシーケンスペイロード(RBSP)ストップビット:RBSPの端部から、RBSPにおける最後の非ゼロビットであるRBSPストップビットを検索することによってRBSP内の端部の位置を識別できる、SODBの後でRBSP内に存在する1に等しいビット。
SODB:RBSPストップビットの前でRBSP内に存在するシンタックス要素を表す一連の複数のビット。ここで、左端ビットが最初で最上位のビットと見なされ、右端ビットが最後で最下位のビットと見なされる。
シンタックス要素:ビットストリームにおいて表されるデータの要素。
シンタックス構造:指定順序でビットストリーム内に一緒に存在するゼロ又はゼロより多いシンタックス要素。
ビデオAU:特定のビデオコーデックごとのアクセスユニット。
ビデオNALユニット:GEOMETRY_D0、GEOMETRY_D1、又はTEXTURE_NALUに等しいPccNalUnitTypeを有するPCC NALユニット。
下記の略語が適用される。
AU アクセスユニット
CPS コーディングされたPCCシーケンス
IRAP イントラランダムアクセスポイント
NAL ネットワーク抽象化層
PCC 点群コーディング
RBSP ローバイトシーケンスペイロード
SODB データビットのストリング
下記には、シンタックス、セマンティック、及びサブビットストリーム抽出処理を提供する。これに関して、最新のPCC Cat2 WDの項7.3におけるシンタックスは、下記のものによって置換される。
PCC NALユニットシンタックスが提供される。特に、一般的なPCC NALユニットシンタックスは下記のとおりである。
Figure 2022165994000002
PCC NALユニットヘッダシンタックスは下記のとおりである。
Figure 2022165994000003
ローバイトシーケンスペイロード、トレーリングビット、及びバイトアライメントシンタックスが提供される。特に、フレーム群RBSPシンタックスは下記のとおりである。
Figure 2022165994000004
補助情報フレームRBSPシンタックスは下記のとおりである。
Figure 2022165994000005
占有マップフレームRBSPシンタックスは下記のとおりである。
Figure 2022165994000006
HEVC仕様の項7.3.2.11におけるRBSPトレーリングビットシンタックスが適用される。同様に、HEVC仕様の項7.3.2.12におけるバイトアライメントシンタックスが適用される。PCCプロファイル及びレベルシンタックスは下記のとおりである。
Figure 2022165994000007
最新のPCC Cat2 WDの項7.4におけるセマンティックは、下記のもの及びその下位項によって置換される。
一般的に、シンタックス構造及びこれらの構造内のシンタックス要素と関連付けられるセマンティックは、この下位項に指定される。シンタックス要素のセマンティックが表又は表のセットを用いて指定される場合、表において指定されていないいかなる値も、別途指定されていない限りビットストリームに存在しないものとする。
PCC NALユニットセマンティックが説明される。一般的なPCC NALユニットセマンティックに関して、HEVC仕様の項7.4.2.1における一般的なNALユニットセマンティックが適用される。PCC NALユニットヘッダセマンティックは、下記のとおりである。
forbidden_zero_bitは、0に等しいものとする。
pcc_nuh_reserved_zero_2bitsは、本明細書のこのバージョンに適合するビットストリームにおいて0に等しいものとする。pcc_nuh_reserved_zero_2bitsの他の値は、ISO/IECによる将来の使用のために確保される。デコーダは、pcc_nuh_reserved_zero_2bitsの値を無視するものとする。
pcc_nal_unit_type_plus1 minus 1は、表1(下記参照)において指定されるPCC NALユニットに含まれるRBSPデータ構造のタイプを指定する変数PccNalUnitTypeの値を指定する。変数NalUnitTypeは下記のように指定される。PccNalUnitType=pcc_category2_nal_unit_type_plus1‐1(7-1)
セマンティックが指定されていない、UNSPEC25..UNSPEC30の範囲(端値含む)にnal_unit_typeを有するPCC NALユニットは、本明細書に指定される復号処理に影響を与えないものとする。
注記1-UNSPEC25..UNSPEC30の範囲にあるPCC NALユニットタイプは、用途によって決定されるように使用されてよい。PccNalUnitTypeのこれらの値のための復号処理は、本明細書では指定されない。異なる用途では異なる目的でこれらのPCC NALユニットタイプが使用され得るので、これらのPccNalUnitType値を伴うPCC NALユニットを生成するエンコーダの設計に、また、これらのPccNalUnitType値を伴うPCC NALユニットのコンテンツを解釈するデコーダの設計に、特別な配慮を払わなければならない。本明細書は、これらの値のいかなる管理も定義しない。これらのPccNalUnitType値は、使用の「衝突」(例えば、同じPccNalUnitType値に関するPCC NALユニットコンテンツの意味の異なる定義)が重要でない、又は可能でない、又は管理されている(例えば、制御アプリケーション若しくはトランスポート仕様内で又はビットストリームが分散される環境を制御することによって規定又は管理されている)コンテキストに使用することにのみ好適であり得る。
ビットストリームの復号ユニットにおけるデータの量を決定するのとは異なる目的で、デコーダは、PccNalUnitTypeの確保された値を使用する全てのPCC NALユニットのコンテンツを無視(ビットストリームから除去及び破棄)するものとする。
注記2-この要件は、本明細書に適合する拡張の将来の定義を許容する。表1-PCC NALユニットタイプコード
Figure 2022165994000008
注記3-識別されたビデオコーデック(例えば、HEVC又はAVC)は、各CPSの1つ目のPCC AUに存在するフレーム群ヘッダNALユニットに示される。
RBSP(インフォマティブ)内のSODBのカプセル化が提供される。これに関して、HEVC仕様の項7.4.2.3が適用される。
PCC NALユニットの順序並びにAU及びCPSへの関連付けが提供される。一般的に、この項は、ビットストリームにおけるPCC NALユニットの順序に対する制約を指定する。
これらの制約に準拠するビットストリームにおけるPCC NALユニットの任意の順序は、本文書でPCC NALユニットの復号順序と称される。ビデオNALユニットではないPCC NALユニット内で、項7.3におけるシンタックスは、シンタックス要素の復号順序を指定する。ビデオNALユニット内で、識別されたビデオコーデックの仕様で指定されたシンタックスは、シンタックス要素の復号順序を指定する。デコーダは、PCC NALユニット及びそれらのシンタックス要素を復号順序で受信可能である。
PCC NALユニットの順序及びそれらのPCC AUへの関連付けが提供される。
この項は、PCC NALユニットの順序及びそれらのPCC AUへの関連付けを指定する。
PCC AUは、ゼロ又は1つのフレーム群ヘッダNALユニット、1つのジオメトリd0ビデオAU、1つのジオメトリd1ビデオAU、1つの補助情報フレームNALユニット、1つの占有マップフレームNALユニット、及び1つのテクスチャビデオAUから列挙された順序で構成される。
NALユニットのビデオAUへの関連付け及びビデオAU内でのNALユニットの順序は、識別されたビデオコーデック、例えばHEVC又はAVCの仕様において指定される。識別されたビデオコーデックは、各CPSの1つ目のPCC AUに存在するフレームヘッダNALユニットに示される。
各CPSの1つ目のPCC AUは、フレームヘッダ群NALユニットで開始し、各フレーム群ヘッダNALユニットは、新たなPCC AUの開始を指定する。
他のPCC AUは、ジオメトリd0ビデオAUの第1のNALユニットを含むPCC NALユニットで開始する。換言すれば、ジオメトリd0ビデオAUの第1のNALユニットを含むPCC NALユニットは、フレーム群ヘッダNALユニットが先行しない場合、新たなPCC AUを開始する。
PCC AUの順序及びそれらのCPSへの関連付けが提供される。
この仕様に適合するビットストリームは、1つ又は複数のCPSから構成される。
CPSは、1つ又は複数のPCC AUから構成される。PCC NALユニットの順序及びそれらのPCC AUへの関連付けは、項7.4.2.4.2にて説明される。
CPSの1つ目のPCC AUは、PCC IRAP AUである。
ローバイトシーケンスペイロード、トレーリングビット、及びバイトアライメントセマンティックが提供される。フレーム群ヘッダRBSPセマンティックは下記のとおりである。
identified_codecは、表2に示されるようにジオメトリ及びテクスチャコンポーネントのコーディングに使用される識別されたビデオコーデックを指定する。
Figure 2022165994000009
frame_widthは、ジオメトリ及びテクスチャビデオのピクセルにおけるフレーム幅を示す。これは、occupancyResolutionの倍数であるものとする。
frame_heightは、ジオメトリ及びテクスチャビデオのピクセルにおけるフレーム高さを示す。これは、occupancyResolutionの倍数であるものとする。
occupancy_resolutionは、パッチがジオメトリ及びテクスチャビデオにパックされるピクセルにおける水平垂直解像度を示す。これは、occupancyPrecisionの倍数である偶数値であるものとする。
radius_to_smoothingは、平滑化のためにネイバを検出する半径を示す。radius_to_smoothingの値は、0~255の範囲(端値含む)にあるものとする。
neighbor_count_smoothingは、平滑化に用いられる最大数のネイバを示す。neighbor_count_smoothingの値は、0~255の範囲(端値含む)にあるものとする。
radius2_boundary_detectionは、境界点検出のための半径を示す。radius2_boundary_detectionの値は、0~255の範囲(端値含む)にあるものとする。
threshold_smoothingは、平滑化閾値を示す。threshold_smoothingの値は、0~255の範囲(端値含む)にあるものとする。
lossless_geometryは、ロスレスジオメトリコーディングを示す。1に等しいlossless_geometryの値は、点群ジオメトリ情報がロスレスにコーディングされたことを示す。0に等しいlossless_geometryの値は、点群ジオメトリ情報がロッシーにコーディングされたことを示す。
lossless_textureは、ロスレステクスチャ符号化を示す。1に等しいlossless_textureの値は、点群テクスチャ情報がロスレスにコーディングされたことを示す。0に等しいlossless_textureの値は、点群テクスチャ情報がロッシーにコーディングされたことを示す。
no_attributesは、ジオメトリデータと共に属性がコーディングされたか否かを示す。1に等しいno_attributesの値は、コーディングされた点群ビットストリームがいずれの属性情報も含まないことを示す。0に等しいno_attributesの値は、コーディングされた点群ビットストリームが属性情報を含むことを示す。
lossless_geometry_444は、ジオメトリフレームに4:2:0又は4:4:4ビデオフォーマットを使用するか否かを示す。1に等しいlossless_geometry_444の値は、ジオメトリビデオが4:4:4フォーマットでコーディングされたことを示す。0に等しいlossless_geometry_444の値は、ジオメトリビデオが4:2:0フォーマットでコーディングされたことを示す。
absolute_d1_codingは、投影面に最も近い層とは異なるジオメトリ層がどのようにコーディングされたかを示す。1に等しいabsolute_d1_codingは、投影面に最も近い層とは異なるジオメトリ層に関して実際のジオメトリ値がコーディングされたことを示す。0に等しいabsolute_d1_codingは、投影面に最も近い層とは異なるジオメトリ層が差動的にコーディングされたことを示す。
bin_arithmetic_codingは、バイナリ算術コーディングが使用されたか否かを示す。1に等しいbin_arithmetic_codingの値は、バイナリ算術コーディングが全てのシンタックス要素に使用されたことを示す。0に等しいbin_arithmetic_codingの値は、ノンバイナリ算術コーディングが一部のシンタックス要素に使用されたことを示す。
0に等しいgof_header_extension_flagは、gof_header_extension_data_flagシンタックス要素がフレーム群ヘッダRBSPシンタックス構造に存在しないと指定する。1に等しいgof_header_extension_flagは、gof_header_extension_data_flagシンタックス要素がフレーム群ヘッダRBSPシンタックス構造に存在すると指定する。デコーダは、フレーム群ヘッダNALユニットにおけるgof_header_extension_flagの値1に続く全てのデータを無視するものとする。
gof_header_extension_data_flagは、任意の値を有してよい。その存在及び値はデコーダ適合性に影響を与えない。デコーダは、全てのgof_header_extension_data_flagシンタックス要素を無視するものとする。
補助情報フレームRBSPセマンティックが提供される。
patch_countは、ジオメトリ及びテクスチャビデオにおけるパッチ数である。これは0より大きいものとする。
occupancy_precisionは、占有マップ精度のピクセルにおける水平垂直解像度である。これは、占有がシグナリングされるサブブロックサイズに対応する。これは、占有マップのロスレスコーディングを実現するために、サイズ1に設定されるべきである。
max_candidate_countは、パッチ候補リストにおける候補の最大数を指定する。
bit_count_u0は、patch_u0の固定長コーディングのためのビット数を指定する。
bit_count_v0は、patch_v0の固定長コーディングのためのビット数を指定する。
bit_count_u1は、patch_u1の固定長コーディングのためのビット数を指定する。
bit_count_v1は、patch_v1の固定長コーディングのためのビット数を指定する。
bit_count_d1は、patch_d1の固定長コーディングのためのビット数を指定する。
occupancy_aux_stream_sizeは、パッチ情報及び占有マップのコーディングに使用されるバイト数である。
以下のシンタックス要素は、パッチごとに一度指定される。
patch_u0は、パッチ境界ボックスのoccupancy_resolution×occupancy_resolutionのサイズの左上隅サブブロックのx座標を指定する。patch_u0の値は、0~frame_width/occupancy_resolution-1の範囲(端値含む)にあるものとする。
patch_v0は、パッチ境界ボックスのsize occupancy_resolution×occupancy_resolutionのサイズの左上隅サブブロックのy座標を指定する。patch_v0の値は、0~frame_height/occupancy_resolution-1の範囲(端値含む)にあるものとする。
patch_u1は、パッチポイントの3D境界ボックスの最小x座標を指定する。patch_u1の値は、0~frame_width‐1の範囲(端値含む)にあるものとする。
patch_v1は、パッチポイントの3D境界ボックスの最小y座標である。patch_v1の値は、0~frameHeight‐1の範囲(端値含む)にあるものとする。
patch_d1は、パッチの最小深度を指定する。patch_d1の値は、0~<255?>の範囲(端値含む)にあるものとする。
delta_size_u0は、現在のパッチと以前のパッチとの間のパッチ幅の差である。delta_size_u0の値は、<.-65536.?>~<65535?>の範囲(端値含む)にあるものとする。
delta_size_v0は、現在のパッチと以前のパッチとの間のパッチ高さの差である。delta_size_v0の値は、<-65536?.>~<.65535?.>の範囲(端値含む)にあるものとする。
normal_axisは、平面投影インデックスを指定する。normal_axisの値は、0~2の範囲(端値含む)にあるものとする。0、1、及び2のnormalAxis値は、それぞれX、Y、及びZ投影軸に対応する。
以下のシンタックス要素は、ブロックごとに一度指定される。
candidate_indexは、パッチ候補リストへのインデックスである。candidate_indexの値は、0~max_candidate_countの範囲(端値含む)にあるものとする。
patch_indexは、フレームと関連付けられるサイズの降順でソートされたパッチリストに対するインデックスである。
フレーム群占有マップセマンティックが提供される。
以下のシンタックス要素は、空でないブロックのために提供される。
is_fullは、occupancy_resolution×occupancy_resolutionブロックのサイズの現在の占有ブロックが満杯であるか否かを指定する。1に等しいis_fullは、現在のブロックが満杯であると指定する。0に等しいis_fullは、現在の占有ブロックが満杯でないことを指定する。
best_traversal_order_indexは、現在のoccupancy_resolution×occupancy_resolutionブロックにおけるoccupancy_precision×occupancy_precisionのサイズのサブブロックのスキャン順序を指定する。best_traversal_order_indexの値は、0~4の範囲(端値含む)にあるものとする。
run_count_prefixは、変数runCountMinusTwoの導出に使用される。
run_count_suffixは、変数runCountMinusTwoの導出に使用される。存在しない場合、run_count_suffixの値が0に等しいと推定される。
特定のブロックのためのblockToPatchの値が0に等しくなく、ブロックが満杯でない場合、runCountMinusTwo plus 2はブロックのためにシグナリングされたランの数を表す。runCountMinusTwoの値は、0~(occupancy_resolution*occupancy_resolution)‐1の範囲(端値含む)にあるものとする。
runCountMinusTwoは、下記のように導出される。
runCountMinusTwo=(1<<run_count_prefix)‐1+run_count_suffix(7-85)
occupancyは、(occupancyPrecision×occupancyPrecisionピクセルの)第1のサブブロックの占有値を指定する。0に等しいoccupancyは、第1のサブブロックが空であると指定する。1に等しいoccupancyは、第1のサブブロックが占有されていると指定する。
run_length_idxは、ラン長のインジケーションである。runLengthIdxの値は、0~14の範囲(端値含む)にあるものとする。
変数runLengthは、表3を用いてrun_length_idxから導出される。
Figure 2022165994000010
注記-占有マップは、ジオメトリ及びテクスチャビデオの両方で共有される。
HEVC仕様の項7.4.3.11におけるRBSPトレーリングビットセマンティックが適用される。HEVC仕様の項7.4.3.12におけるバイトアライメントセマンティックもまた適用される。PCCプロファイル及びレベルセマンティックは下記のとおりである。
pcc_profile_idcは、CPSが付録Aに指定されるように準拠するプロファイルを示す。ビットストリームは、付録Aに指定されるものとは異なるpcc_profile_idcの値を含まないものとする。pcc_profile_idcの他の値がISO/IECによる将来の使用のために確保される。
pcc_pl_reserved_zero_19bitsは、本明細書のこのバージョンに適合するビットストリームにおいて0に等しいものとする。pcc_pl_reserved_zero_19bitsの他の値がISO/IECによる将来の使用のために確保される。デコーダは、pcc_pl_reserved_zero_19bitsの値を無視するものとする。
pcc_level_idcは、CPSが付録Aに指定されるように準拠するレベルを示す。ビットストリームは、付録Aに指定されるものとは異なるpcc_level_idcの値を含まないものとする。pcc_level_idcの他の値がISO/IECによる将来の使用のために確保される。
hevc_ptl_12bytes_geometryは、項10に指定されるように抽出されたジオメトリHEVCビットストリームが適合するHEVCデコーダによって復号される場合、アクティブSPSにおいてgeneral_profile_idcからgeneral_level_idcまでの(端値含む)12バイトの値に等しいものとする。
hevc_ptl_12bytes_textureは、項10に指定されるように抽出されたテクスチャHEVCビットストリームが適合するHEVCデコーダによって復号される場合、アクティブSPSにおいてgeneral_profile_idcからgeneral_level_idcまでの(端値含む)12バイトの値に等しいものとする。
avc_pl_3bytes_geometryは、項10に指定されるように抽出されたジオメトリAVCビットストリームが適合するAVCデコーダによって復号される場合、アクティブSPSにおいてprofile_idcからlevel_idcまでの(端値含む)3バイトの値に等しいものとする。
avc_pl_3bytes_textureは、項10に指定されるように抽出されたテクスチャAVCビットストリームが適合するAVCデコーダによって復号される場合、アクティブSPSにおいてprofile_idcからlevel_idcまでの(端値含む)3バイトの値に等しいものとする。
最新のPCC Cat2 WDの項104におけるサブビットストリーム抽出処理は、下記によって置換される。サブビットストリーム抽出処理に関して、入力はビットストリーム、すなわち、ジオメトリd0、ジオメトリd1、又はテクスチャコンポーネントのターゲットビデオコンポーネントインジケーションである。この処理の出力はサブビットストリームである。
一実施形態において、適合するPCCビットストリーム及びターゲットビデオコンポーネントインジケーションの任意の値を伴うこの項で指定された処理の出力である任意の出力サブビットストリームが、識別されたビデオコーデックごとに適合するビデオビットストリームであるものとすることは、入力ビットストリームに関するビットストリーム適合性の要件である。
出力サブビットストリームは、下記の順序付けられたステップによって導出される。
ターゲットビデオコンポーネントインジケーションの値に応じて下記が適用される。
ジオメトリd0コンポーネントが指示される場合、GEOMETRY_D0に等しくないPccNalUnitTypeを伴う全てのPCC NALユニットを除去する。
そうでなければ、ジオメトリd1コンポーネントが指示される場合、GEOMETRY_D1に等しくないPccNalUnitTypeを伴う全てのPCC NALユニットを除去する。
そうでなければ(テクスチャコンポーネントが示される場合)、TEXTURE_NALUに等しくないPccNalUnitTypeを伴う全てのPCC NALユニットを除去する。
各PCC NALユニットに関して、1つ目のバイトを除去する。
別の実施形態が以下に提供される。
上記で要約した第1のセットの方法の別の実施形態において、PCC NALユニットヘッダ(例えば、図4のデータユニットヘッダ404)は、ジオメトリ及びテクスチャコンポーネントのコーディングに用いられたコーデックをPCC NALユニットタイプから推定できるように設計される。例えば、PCC NALユニットヘッダは、以下に要約されるように設計される。
PCC NALユニットヘッダには、PCC NALユニットペイロードに保持されているコンテンツのタイプを指定するタイプインジケータ、例えば7ビットが存在する。タイプは、例えば、下記に従って決定される。
0:ペイロードはHEVC NALユニットを含む
1:ペイロードはAVC NALユニットを含む
2..63:確保済
64:フレーム群ヘッダNALユニット
65:補助情報NALユニット
66:占有マップNALユニット
67..126:確保済
0~63の範囲(端値含む)のPCC NALユニットタイプを伴うPCC NALユニットは、ビデオNALユニットと称される。
PCC Cat13データユニットのために確保済PCC NALユニットタイプの一部を使用し、そうして、PCC Cat2及びPCC Cat13を1つの規格仕様に一体化することが可能である。
図5は、ビデオデコーダ(例えば、ビデオデコーダ30)によって実装される点群コーディングの方法500の一実施形態である。方法500は、点群コーディングに関連する前述の問題の1つ又は複数を解決するために実行され得る。
ブロック502にて、データユニットヘッダ(例えば、データユニットヘッダ404)及びデータユニット(例えば、データユニット402)を含む符号化ビットストリーム(例えば、データ構造400)が受信される。データユニットヘッダは、データユニットのペイロード(例えば、ペイロード406)に保持されているコンテンツのタイプを指定するタイプインジケータを含む。
ブロック504にて、符号化ビットストリームが復号される。復号されたビットストリームは、ディスプレイデバイス上でユーザに表示されるイメージ又はビデオを生成するために使用されてよい。
一実施形態において、データユニットヘッダは、PCCネットワーク抽象化層(NAL)ユニットヘッダである。一実施形態において、データユニットは、PCC NALユニットである。一実施形態において、インジケータは、上記コンテンツのタイプがジオメトリコンポーネントであると指定する。一実施形態において、インジケータは、上記コンテンツのタイプがテクスチャコンポーネントであると指定する。一実施形態において、インジケータは、上記コンテンツのタイプがジオメトリコンポーネント又はテクスチャコンポーネントであると指定する。
一実施形態において、インジケータは、上記コンテンツのタイプが補助情報であると指定する。一実施形態において、インジケータは、上記コンテンツのタイプが占有マップであると指定する。
一実施形態において、ペイロードは、高効率ビデオコーディング(HEVC)NALユニットを含む。一実施形態において、ペイロードは、高度ビデオコーディング(AVC)NALユニットを含む。一実施形態において、タイプインジケータは、5ビット又は7ビットを含む。
図6は、ビデオエンコーダ(例えば、ビデオエンコーダ20)によって実装される点群コーディングの方法600の一実施形態である。方法600は、点群コーディングに関連する前述の問題の1つ又は複数を解決するために実行され得る。
ブロック602にて、データユニットヘッダ(例えば、データユニットヘッダ404)及びデータユニット(例えば、データユニット402)を含む符号化ビットストリーム(例えば、データ構造400)が生成される。データユニットヘッダは、データユニットのペイロード(例えば、ペイロード406)に保持されているコンテンツのタイプを指定するタイプインジケータを含む。
ブロック604にて、符号化ビットストリームは、デコーダ(例えば、ビデオデコーダ30)に向けて送信される。一旦デコーダによって受信されると、符号化ビットストリームは、ディスプレイデバイス上でユーザに表示されるイメージ又はビデオを生成するために復号されてよい。
一実施形態において、データユニットヘッダは、PCCネットワーク抽象化層(NAL)ユニットヘッダである。一実施形態において、データユニットは、PCC NALユニットである。一実施形態において、インジケータは、上記コンテンツのタイプがジオメトリコンポーネントであると指定する。一実施形態において、インジケータは、上記コンテンツのタイプがテクスチャコンポーネントであると指定する。一実施形態において、インジケータは、上記コンテンツのタイプがジオメトリコンポーネント又はテクスチャコンポーネントであると指定する。
一実施形態において、インジケータは、上記コンテンツのタイプが補助情報であると指定する。一実施形態において、インジケータは、上記コンテンツのタイプが占有マップであると指定する。
一実施形態において、ペイロードは、高効率ビデオコーディング(HEVC)NALユニットを含む。一実施形態において、ペイロードは、高度ビデオコーディング(AVC)NALユニットを含む。一実施形態において、タイプインジケータは、5ビット又は7ビットを含む。
図7は、本開示の一実施形態に係るビデオコーディングデバイス700(例えば、ビデオコーダ20、ビデオデコーダ30等)の概略図である。ビデオコーディングデバイス700は、本明細書に開示される方法及び処理を実装するのに好適である。ビデオコーディングデバイス700は、データを受信するための入口ポート710及び受信器ユニット(RX)720、プロセッサ、ロジックユニット、又はデータを処理する中央処理ユニット(CPU)730、データを送信するための送信器ユニット(Tx)740及び出口ポート750、並びにデータを記憶するためのメモリ760を備える。ビデオコーディングデバイス700は、光又は電気信号の出力又は入力のために、入口ポート710、受信器ユニット720、送信器ユニット740、及び出口ポート750に連結されている光/電気(OE)コンポーネント及び電気/光(EO)コンポーネントを備えてもよい。
プロセッサ730は、ハードウェア及びソフトウェアによって実装される。プロセッサ730は、1つ又は複数のCPUチップ、コア(例えば、マルチコアプロセッサとして)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、及びデジタル信号プロセッサ(DSP)として実装され得る。プロセッサ730は、入口ポート710、受信器ユニット720、送信器ユニット740、出口ポート750、及びメモリ760と通信する。プロセッサ730は、コーディングモジュール770を含む。コーディングモジュール770は、上記で説明され開示された実施形態を実装する。したがって、コーディングモジュール770を含むことは、コーディングデバイス700の機能性にかなりの改善を提供し、ビデオコーディングデバイス700を異なる状態に変化させる。代替的に、コーディングモジュール770は、メモリ760に記憶されている命令として実装され、プロセッサ730によって実行される。
ビデオコーディングデバイス700は、データをユーザに対して通信する入力及び/又は出力(I/O)デバイス780を備えてもよい。I/Oデバイス780は、ビデオデータを表示するディスプレイ、オーディオデータを出力するスピーカ等のような出力デバイスを含んでよい。I/Oデバイス780は、キーボード、マウス、トラックボール等のような入力デバイス、及び/又は、そのような出力デバイスとインタラクトするための対応するインタフェースを含んでもよい。
メモリ760は、1つ又は複数のディスク、テープドライブ、及びソリッドステートドライブを含み、プログラムが実行のために選択されるときにそのようなプログラムを記憶するために、並びに、プログラム実行中に読み出される命令及びデータを記憶するために、オーバフローデータストレージデバイスとして使用され得る。メモリ760は、揮発性及び不揮発性としてよく、リードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、三値連想メモリ(TCAM)、及びスタティックランダムアクセスメモリ(SRAM)としてよい。
図8は、コーディング手段800の一実施形態の概略図である。実施形態において、コーディング手段800は、ビデオコーディングデバイス802(例えば、ビデオエンコーダ20又はビデオデコーダ30)に実装される。ビデオコーディングデバイス802は、受信手段801を含む。受信手段801は、符号化するピクチャを受信するように又は復号するビットストリームを受信するように構成されている。ビデオコーディングデバイス802は、受信手段801に連結されている送信手段807を含む。送信手段807は、ビットストリームをデコーダに送信するように又は復号されたイメージを表示手段(例えば、I/Oデバイス780の1つ)に送信するように構成されている。
ビデオコーディングデバイス802は、記憶手段803を含む。記憶手段803は、受信手段801又は送信手段807の少なくとも1つに連結されている。記憶手段803は、命令を記憶するように構成されている。ビデオコーディングデバイス802は、処理手段805も含む。処理手段805は、記憶手段803に連結されている。処理手段805は、本明細書に開示された方法を実行するために、記憶手段803に記憶されている命令を実行するように構成されている。
本開示においていくつかの実施形態が提供されたが、開示されたシステム及び方法は、本開示の趣旨又は範囲から逸脱することなく、他の多数の具体的な形態で具現され得ることが理解され得る。本例は、限定的なものではなく、例示的なものと見なされるべきであり、本明細書に提供される詳細に限定することは意図していない。例えば、様々な要素又はコンポーネントが別のシステム内において組み合わされ得るか、若しくは、統合され得る。又は、特定の特徴は省略され得るか、若しくは、実装されないことがあり得る。
加えて、様々な実施形態において、個別又は別個のものとして説明及び示される技術、システム、サブシステム、及び方法は、本開示の範囲を逸脱することなく、他のシステム、コンポーネント、技術、又は方法と組み合わされ得るか、又は統合され得る。変更、置換、及び修正の他の例は、当業者によって確認可能であり、それらは、本明細書において開示される趣旨及び範囲から逸脱することなく行われ得る。
(項目1)
ビデオデコーダによって実装される点群コーディング(PCC)の方法であって、
データユニットヘッダ及びデータユニットを含む符号化ビットストリームを受信する段階であって、上記データユニットヘッダは、上記データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む、段階と、
上記符号化ビットストリームを復号する段階と、
を含む、方法。
(項目2)
ビデオエンコーダによって実装される点群コーディング(PCC)の方法であって、
データユニットヘッダ及びデータユニットを含む符号化ビットストリームを生成する段階であって、上記データユニットヘッダは、上記データユニットのペイロードに保持されているコンテンツのタイプを指定するタイプインジケータを含む、段階と、
デコーダに向けて上記符号化ビットストリームを送信する段階と、
を含む、方法。
(項目3)
上記データユニットヘッダは、PCCネットワーク抽象化層(NAL)ユニットヘッダである、項目1~2のいずれかの方法。
(項目4)
上記データユニットは、PCC NALユニットである、項目1~2のいずれかの方法。
(項目5)
上記タイプインジケータは、上記コンテンツのタイプがジオメトリコンポーネントであると指定する、項目1~4いずれかの方法。
(項目6)
上記タイプインジケータは、上記コンテンツのタイプがテクスチャコンポーネントであると指定する、項目1~4のいずれかの方法。
(項目7)
上記タイプインジケータは、上記コンテンツのタイプがジオメトリコンポーネント又はテクスチャコンポーネントであると指定する、項目1~4のいずれかの方法。
(項目8)
上記タイプインジケータは、上記コンテンツのタイプが補助情報であると指定する、項目1~7のいずれかの方法。
(項目9)
上記タイプインジケータは、上記コンテンツのタイプが占有マップであると指定する、項目1~8のいずれかの方法。
(項目10)
上記ペイロードは、高効率ビデオコーディング(HEVC)NALユニットを含む、項目1~9のいずれかの方法。
(項目11)
上記ペイロードは、高度ビデオコーディング(AVC)NALユニットを含む、項目1~9のいずれかの方法。
(項目12)
上記タイプインジケータは5ビットを含む、項目1~11のいずれかの方法。
(項目13)
上記タイプインジケータは7ビットを含む、項目1~11のいずれかの方法。
(項目14)
上記ジオメトリコンポーネントは、点群フレームと関連付けられる1組の座標を含む、項目1~5及び7のいずれかの方法。
(項目15)
上記1組の座標はデカルト座標である、項目14の方法。
(項目16)
上記テクスチャコンポーネントは、点群フレームの1組のルマサンプル値を含む、項目1~4及び6~7のいずれかの方法。
(項目17)
符号化するピクチャを受信するように又は復号するビットストリームを受信するように構成されている受信機と、
上記受信機に連結されている送信器であって、上記ビットストリームをデコーダに送信するように又は復号されたイメージをディスプレイに送信するように構成されている送信器と、
上記受信機又は上記送信器の少なくとも1つに連結されているメモリであって、命令を格納するように構成されているメモリと、
上記メモリに連結されているプロセッサであって、項目1~16のいずれかに記載の方法を実行するために上記メモリに記憶されている上記命令を実行するように構成されているプロセッサと、
を備える、コーディング装置。
(項目18)
イメージを表示するように構成されているディスプレイをさらに備える、項目17のコーディング装置。
(項目19)
エンコーダと、
上記エンコーダと通信するデコーダと、
を備え、上記エンコーダ又は上記デコーダは、項目17~18のいずれかのコーディング装置を含む、システム。
(項目20)
符号化するピクチャを受信するように又は復号するビットストリームを受信するように構成されている受信手段と、
上記受信手段に連結されている送信手段であって、上記ビットストリームをデコーダに送信するように又は復号されたイメージを表示手段に送信するように構成されている送信手段と、
上記受信手段又は上記送信手段の少なくとも1つに連結されている記憶手段であって、命令を記憶するように構成されている記憶手段と、
上記記憶手段に連結されている処理手段であって、項目1~16のいずれかの方法を実行するために上記記憶手段に記憶されている上記命令を実行するように構成されている処理手段と、
を備える、コーディング手段。

Claims (11)

  1. 構造化データを記憶したコンピュータ可読記憶媒体であって、前記構造化データは符号化ビットストリームであり、前記符号化ビットストリームは、データユニットヘッダを有するデータユニットを含み、前記データユニットヘッダは、前記データユニットのペイロードに保持されるコンテンツのタイプを指定するタイプインジケータを含む、コンピュータ可読記憶媒体。
  2. 前記データユニットヘッダは、ビデオベースコーディングユニットヘッダである、請求項1に記載のコンピュータ可読記憶媒体。
  3. 前記データユニットヘッダは、PCCネットワーク抽象化層(NAL)ユニットヘッダである、請求項1に記載のコンピュータ可読記憶媒体。
  4. 前記データユニットは、PCC NALユニットである、請求項1に記載のコンピュータ可読記憶媒体。
  5. 前記データユニットは、ビデオベースコーディングユニットである、請求項1に記載のコンピュータ可読記憶媒体。
  6. 前記タイプインジケータは、前記コンテンツのタイプがジオメトリコンポーネントまたはテクスチャコンポーネントであると指定する、請求項1から5のいずれか一項に記載のコンピュータ可読記憶媒体。
  7. 前記タイプインジケータは、5ビットである、請求項1から6のいずれか一項に記載のコンピュータ可読記憶媒体。
  8. 前記タイプインジケータは、7ビットである、請求項1から6のいずれか一項に記載のコンピュータ可読記憶媒体。
  9. 前記ジオメトリコンポーネントは、点群フレームと関連付けられた1組の座標を含む、請求項6に記載のコンピュータ可読記憶媒体。
  10. 前記1組の座標はデカルト座標である、請求項9に記載のコンピュータ可読記憶媒体。
  11. 前記テクスチャコンポーネントは、点群フレームの1組のルマサンプル値を含む、請求項6に記載のコンピュータ可読記憶媒体。
JP2022116553A 2018-06-26 2022-07-21 点群コーディングのための高レベルシンタックス設計 Pending JP2022165994A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862690132P 2018-06-26 2018-06-26
US62/690,132 2018-06-26
JP2020571621A JP7111846B2 (ja) 2018-06-26 2019-04-11 点群符号化のための高レベルシンタックス設計
PCT/US2019/027064 WO2020005363A1 (en) 2018-06-26 2019-04-11 High-level syntax designs for point cloud coding

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020571621A Division JP7111846B2 (ja) 2018-06-26 2019-04-11 点群符号化のための高レベルシンタックス設計

Publications (1)

Publication Number Publication Date
JP2022165994A true JP2022165994A (ja) 2022-11-01

Family

ID=68985126

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2020572509A Active JP7287745B2 (ja) 2018-06-26 2019-04-11 点群符号化用の高レベルな構文設計
JP2020571621A Active JP7111846B2 (ja) 2018-06-26 2019-04-11 点群符号化のための高レベルシンタックス設計
JP2020571849A Active JP7116199B2 (ja) 2018-06-26 2019-04-11 点群符号化用の高レベルな構文設計
JP2022116553A Pending JP2022165994A (ja) 2018-06-26 2022-07-21 点群コーディングのための高レベルシンタックス設計
JP2022120241A Pending JP2022160530A (ja) 2018-06-26 2022-07-28 点群コーディング用の高レベルな構文設計
JP2023084578A Pending JP2023120197A (ja) 2018-06-26 2023-05-23 点群コーディング用の高レベルな構文設計

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2020572509A Active JP7287745B2 (ja) 2018-06-26 2019-04-11 点群符号化用の高レベルな構文設計
JP2020571621A Active JP7111846B2 (ja) 2018-06-26 2019-04-11 点群符号化のための高レベルシンタックス設計
JP2020571849A Active JP7116199B2 (ja) 2018-06-26 2019-04-11 点群符号化用の高レベルな構文設計

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022120241A Pending JP2022160530A (ja) 2018-06-26 2022-07-28 点群コーディング用の高レベルな構文設計
JP2023084578A Pending JP2023120197A (ja) 2018-06-26 2023-05-23 点群コーディング用の高レベルな構文設計

Country Status (8)

Country Link
US (5) US20210112278A1 (ja)
EP (3) EP3804319A4 (ja)
JP (6) JP7287745B2 (ja)
KR (4) KR102486256B1 (ja)
CN (4) CN115665104A (ja)
BR (3) BR112020026646A2 (ja)
SG (3) SG11202012940XA (ja)
WO (3) WO2020005363A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
KR20210040962A (ko) * 2018-08-08 2021-04-14 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 3차원 데이터 부호화 방법, 3차원 데이터 복호 방법, 3차원 데이터 부호화 장치, 및 3차원 데이터 복호 장치
KR102589477B1 (ko) * 2018-09-14 2023-10-13 후아웨이 테크놀러지 컴퍼니 리미티드 포인트 클라우드 코딩에서 개선된 속성 계층 및 시그널링
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) * 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US11348284B2 (en) 2019-01-08 2022-05-31 Apple Inc. Auxiliary information signaling and reference management for projection-based point cloud compression
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
WO2021068923A1 (en) 2019-10-10 2021-04-15 Beijing Bytedance Network Technology Co., Ltd. Deblocking filtering improvements
JP7425207B2 (ja) * 2020-01-07 2024-01-30 エルジー エレクトロニクス インコーポレイティド ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置及びポイントクラウドデータ受信方法
US11593967B2 (en) 2020-01-08 2023-02-28 Samsung Electronics Co., Ltd. Attribute transfer in V-PCC
US11356706B2 (en) 2020-01-08 2022-06-07 Qualcomm Incorporated Storage and delivery of video data for video coding
EP4075797A4 (en) * 2020-01-08 2023-05-31 LG Electronics Inc. POINT CLOUD DATA TRANSMITTING DEVICE, POINT CLOUD DATA TRANSMITTING METHOD, POINT CLOUD DATA RECEIVING DEVICE AND POINT CLOUD DATA RECEIVING METHOD
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11625866B2 (en) 2020-01-09 2023-04-11 Apple Inc. Geometry encoding using octrees and predictive trees
KR102373833B1 (ko) * 2020-01-09 2022-03-14 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11317117B2 (en) * 2020-03-30 2022-04-26 Tencent America LLC Method of coding attributes for point cloud coding
EP4135320A4 (en) 2020-04-11 2024-06-12 Lg Electronics Inc DEVICE AND METHOD FOR TRANSMITTING POINT CLOUD DATA, DEVICE AND METHOD FOR RECEIVING POINT CLOUD DATA
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11816868B2 (en) * 2020-08-14 2023-11-14 Tencent America LLC Coding of multiple-component attributes for point cloud coding
US20230345008A1 (en) * 2020-10-30 2023-10-26 Lg Electronics Inc. Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
US20220180567A1 (en) 2020-12-04 2022-06-09 Tencent America LLC Method and apparatus for point cloud coding
US20220179082A1 (en) * 2020-12-08 2022-06-09 Argo AI, LLC Methods and system for analyzing dynamic lidar point cloud data
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
WO2023054156A1 (ja) * 2021-09-29 2023-04-06 ソニーグループ株式会社 情報処理装置および方法
CN118119974A (zh) * 2021-09-30 2024-05-31 浙江大学 编解码方法、编码器、解码器以及存储介质
WO2023090614A1 (ko) * 2021-11-19 2023-05-25 현대자동차주식회사 라이다 포인트 클라우드 코딩을 위한 방법 및 장치
WO2023131131A1 (en) * 2022-01-04 2023-07-13 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for point cloud coding
WO2024064043A1 (en) * 2022-09-19 2024-03-28 Innopeak Technology, Inc. Point cloud decoding method, point cloud encoding method, decoder and encoder
JP2024058010A (ja) * 2022-10-13 2024-04-25 Kddi株式会社 メッシュ復号装置、メッシュ符号化装置、メッシュ復号方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019055963A1 (en) * 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142164A1 (en) * 2018-01-19 2019-07-25 Interdigital Vc Holdings, Inc. Processing a point cloud

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735359B1 (ko) * 2005-07-04 2007-07-04 삼성전자주식회사 디지털 멀티미디어 방송시스템에서의 데이터 송수신 장치및 방법
US8798148B2 (en) * 2007-06-15 2014-08-05 Physical Optics Corporation Apparatus and method employing pre-ATR-based real-time compression and video frame segmentation
US8204313B2 (en) * 2007-08-30 2012-06-19 Leica Geosystems Ag Rapid, spatial-data viewing and manipulating including data partition and indexing
US20110090921A1 (en) 2008-07-01 2011-04-21 Shemimon Manalikudy Anthru Network abstraction layer (nal)-aware multiplexer
EP2606649A4 (en) * 2010-08-19 2016-05-04 Samsung Electronics Co Ltd METHOD AND DEVICE FOR CODING AND DECODING MULTILAYER VIDEOS
US9060174B2 (en) 2010-12-28 2015-06-16 Fish Dive, Inc. Method and system for selectively breaking prediction in video coding
JP6094973B2 (ja) * 2011-05-20 2017-03-15 サン パテント トラスト 色平面内予測を用いて映像を符号化および復号する方法および装置
US20130188013A1 (en) 2011-07-22 2013-07-25 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
KR20140057373A (ko) * 2011-08-30 2014-05-12 노키아 코포레이션 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
US9432665B2 (en) * 2011-12-02 2016-08-30 Qualcomm Incorporated Coding least significant bits of picture order count values identifying long-term reference pictures
US10447990B2 (en) * 2012-02-28 2019-10-15 Qualcomm Incorporated Network abstraction layer (NAL) unit header design for three-dimensional video coding
US9762903B2 (en) * 2012-06-01 2017-09-12 Qualcomm Incorporated External pictures in video coding
SG10201510803WA (en) 2012-06-11 2016-01-28 Samsung Electronics Co Ltd Method and Apparatus for Encoding Videos Sharing SAO Parameter According to Color Component
US9602827B2 (en) * 2012-07-02 2017-03-21 Qualcomm Incorporated Video parameter set including an offset syntax element
US20140037005A1 (en) 2012-08-02 2014-02-06 Penne Y. LEE Transcoding video data
KR102046757B1 (ko) 2012-09-28 2019-11-19 소니 주식회사 화상 처리 장치 및 방법
US9615090B2 (en) * 2012-12-28 2017-04-04 Qualcomm Incorporated Parsing syntax elements in three-dimensional video coding
US9900609B2 (en) 2013-01-04 2018-02-20 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
KR102153539B1 (ko) * 2013-09-05 2020-09-08 한국전자통신연구원 영상 처리 장치 및 방법
EP3050294A4 (en) 2013-09-27 2017-08-09 Qualcomm Incorporated Residual coding for depth intra prediction modes
US10104362B2 (en) 2013-10-08 2018-10-16 Sharp Kabushiki Kaisha Image decoding device, image coding device, and coded data
GB2531271A (en) 2014-10-14 2016-04-20 Nokia Technologies Oy An apparatus, a method and a computer program for image sequence coding and decoding
US9955159B2 (en) 2014-10-31 2018-04-24 Google Llc Multi-video decoding with input switching
CN104484852A (zh) * 2014-11-19 2015-04-01 温州大学 一种点云曲面的复合几何图像表示方法
GB2539461B (en) 2015-06-16 2020-01-08 Canon Kk Image data encapsulation
US9646410B2 (en) * 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
US10798422B2 (en) * 2015-10-20 2020-10-06 Intel Corporation Method and system of video coding with post-processing indication
WO2017082079A1 (ja) * 2015-11-11 2017-05-18 ソニー株式会社 画像処理装置および画像処理方法
US10482196B2 (en) * 2016-02-26 2019-11-19 Nvidia Corporation Modeling point cloud data using hierarchies of Gaussian mixture models
CN105992008B (zh) * 2016-03-30 2019-08-30 南京邮电大学 一种在多核处理器平台上的多层次多任务并行解码方法
US11025882B2 (en) * 2016-04-25 2021-06-01 HypeVR Live action volumetric video compression/decompression and playback
EP3249921A1 (en) * 2016-05-24 2017-11-29 Thomson Licensing Method, apparatus and stream for immersive video format
GB2550604A (en) 2016-05-24 2017-11-29 Canon Kk Method, device, and computer program for encapsulating and parsing timed media data
US11297346B2 (en) * 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
US10223810B2 (en) * 2016-05-28 2019-03-05 Microsoft Technology Licensing, Llc Region-adaptive hierarchical transform and entropy coding for point cloud compression, and corresponding decompression
US10694210B2 (en) * 2016-05-28 2020-06-23 Microsoft Technology Licensing, Llc Scalable point cloud compression with transform, and corresponding decompression
TWI775760B (zh) 2016-07-08 2022-09-01 美商Vid衡器股份有限公司 使用幾何投影360度視訊編碼
US20180053324A1 (en) * 2016-08-19 2018-02-22 Mitsubishi Electric Research Laboratories, Inc. Method for Predictive Coding of Point Cloud Geometries
US10271069B2 (en) * 2016-08-31 2019-04-23 Microsoft Technology Licensing, Llc Selective use of start code emulation prevention
WO2018083378A1 (en) * 2016-11-01 2018-05-11 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US11514613B2 (en) * 2017-03-16 2022-11-29 Samsung Electronics Co., Ltd. Point cloud and mesh compression using image/video codecs
EP3759925A4 (en) 2018-03-01 2021-11-10 Nokia Technologies Oy DEVICE, METHOD AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
US10939129B2 (en) * 2018-04-10 2021-03-02 Apple Inc. Point cloud compression

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019055963A1 (en) * 2017-09-18 2019-03-21 Apple Inc. COMPRESSION OF CLOUD OF POINTS
WO2019142164A1 (en) * 2018-01-19 2019-07-25 Interdigital Vc Holdings, Inc. Processing a point cloud

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DONG LIU, TONG SHAO, HOUQIANG LI, AND FENG WU: "Three-Dimensional Point-Cloud Plus Patches: Towards Model-Based Image Coding in the Cloud", 2015 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA BIG DATA, JPN6022009128, 2015, pages 395 - 400, XP033173545, ISSN: 0005078003, DOI: 10.1109/BigMM.2015.15 *
RUFAEL MEKURIA, AND LAZAR BIVOLARSKY: "Overview of the MPEG Activity on Point Cloud Compression", 2016 DATA COMPRESSION CONFERENCE, JPN6022009127, 2016, pages 620, XP033027780, ISSN: 0005078004, DOI: 10.1109/DCC.2016.91 *
RUFAEL MEKURIA, KEES BLOM, AND PABLO CESAR: "Design, Implementation, and Evaluation of a Point Cloud Codec for Tele-Immersive Video", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 27, no. 4, JPN6022009126, April 2017 (2017-04-01), pages 828 - 842, XP055548820, ISSN: 0005078005, DOI: 10.1109/TCSVT.2016.2543039 *

Also Published As

Publication number Publication date
CN112438047A (zh) 2021-03-02
CN115665104A (zh) 2023-01-31
EP3804275A4 (en) 2021-05-05
SG11202012942TA (en) 2021-01-28
US20210112281A1 (en) 2021-04-15
KR20230031992A (ko) 2023-03-07
US20210112280A1 (en) 2021-04-15
KR102486256B1 (ko) 2023-01-06
JP2023120197A (ja) 2023-08-29
US20210112278A1 (en) 2021-04-15
WO2020005365A8 (en) 2020-10-08
CN112368990B (zh) 2022-09-23
KR20210021072A (ko) 2021-02-24
KR20210022090A (ko) 2021-03-02
EP3804319A4 (en) 2021-06-30
WO2020005363A1 (en) 2020-01-02
JP2021528917A (ja) 2021-10-21
US20230328291A1 (en) 2023-10-12
BR112020026591A2 (pt) 2021-03-23
EP3804319A1 (en) 2021-04-14
WO2020005364A1 (en) 2020-01-02
KR102486371B1 (ko) 2023-01-06
SG11202012937WA (en) 2021-01-28
JP7116199B2 (ja) 2022-08-09
CN112385221A (zh) 2021-02-19
WO2020005365A1 (en) 2020-01-02
JP2022160530A (ja) 2022-10-19
JP7287745B2 (ja) 2023-06-06
CN112368990A (zh) 2021-02-12
US11856230B2 (en) 2023-12-26
EP3804275B1 (en) 2023-03-01
EP3804320A4 (en) 2021-06-30
BR112020026646A2 (pt) 2021-03-23
KR20210022100A (ko) 2021-03-02
EP3804275A1 (en) 2021-04-14
JP2021529460A (ja) 2021-10-28
SG11202012940XA (en) 2021-01-28
CN112385221B (zh) 2022-08-26
US20240196017A1 (en) 2024-06-13
BR112020026618A2 (pt) 2021-03-30
EP3804320A1 (en) 2021-04-14
CN112438047B (zh) 2022-08-09
JP2021530889A (ja) 2021-11-11
US11706458B2 (en) 2023-07-18
JP7111846B2 (ja) 2022-08-02

Similar Documents

Publication Publication Date Title
JP7111846B2 (ja) 点群符号化のための高レベルシンタックス設計
WO2019199415A1 (en) Differential coding method for patch side information
WO2020146341A1 (en) Point cloud bitstream structure and auxiliary information differential coding
KR102562209B1 (ko) 포인트 클라우드 코딩에서의 효율적인 패치 회전
US12002243B2 (en) Patch data unit coding and decoding for point-cloud coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240328

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240408

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240426