JP7112600B2 - 点群解凍用方法、点群圧縮用方法及び装置 - Google Patents

点群解凍用方法、点群圧縮用方法及び装置 Download PDF

Info

Publication number
JP7112600B2
JP7112600B2 JP2021534389A JP2021534389A JP7112600B2 JP 7112600 B2 JP7112600 B2 JP 7112600B2 JP 2021534389 A JP2021534389 A JP 2021534389A JP 2021534389 A JP2021534389 A JP 2021534389A JP 7112600 B2 JP7112600 B2 JP 7112600B2
Authority
JP
Japan
Prior art keywords
point cloud
geometry
block
cloud
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021534389A
Other languages
English (en)
Other versions
JP2022514548A (ja
Inventor
ヴォソウギィ,アラシュ
イエア,セフーン
リィウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022514548A publication Critical patent/JP2022514548A/ja
Application granted granted Critical
Publication of JP7112600B2 publication Critical patent/JP7112600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本願は、2020年2月27日に提出された米国特許出願第16/803,619号「METHOD AND APPARATUS FOR POINT CLOUD COMPRESSION」の優先権を主張し、当該米国特許出願第16/803,619号は、2019年3月1日に提出された米国仮出願第62/812,964号「TECHNIQUES AND APPARATUS FOR SELECTIVE GEOMETRY SMOOTHING INSIDE PATCHES FOR POINT CLOUD COMPRESSION」の優先権を主張し、上記の各出願の全内容は本明細書に援用により組み込まれる。
本開示は、総体的に点群圧縮に関連する実施形態を記載している。
本明細書に記載された背景技術は、本開示の背景を総体的に体現することを目的とする。該背景技術部分に記載の作業程度から見れば、現在署名の発明者の作業、及び提出の際に別に従来技術の記載として限定されていない態様について、明確且つ暗黙的に本開示の内容に対する従来技術として認められない。
様々な技術を開発して捉えて3次元(3-dimensional、3D)空間で、例えば世界のオブジェクトや世界の環境などの世界を表現する。世界の3D表現は、より没入型の相互作用とコミュニケーションを実現することができる。点群は、世界の3D表現として使用できる。点群は、3D空間内の1組の点であり、各点は関連付けられた属性、例えば、色、マテリアルプロパティ、テクスチャ情報、強度属性、反射率属性、動き関連属性、モダリティ属性、及びその他のさまざまな属性を有する。このような点群は大量のデータを含む可能性があり、保存と伝送にコストと時間がかかる可能性がある。
本開示の各態様は、点群の圧縮及び解凍用方法及び装置を提供する。幾つかの例において、点群の圧縮/解凍用装置は処理回路を含む。
本開示の幾つかの態様によれば、点群解凍用装置は、処理回路を含む。処理回路は、符号化ビットストリームから点群の予測情報を復号化し、符号化ビットストリームから復号化された点群のジオメトリ画像に基づいてジオメトリ再構築クラウドを再構築する。また、平滑化されたジオメトリ再構築クラウドを生成するように、処理回路が、ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくともブロック内のジオメトリサンプルに対してフィルタを適用し、平滑化されたジオメトリ再構築クラウドに基づいて点群の点を再構築する。
幾つかの実施形態において、処理回路は、ブロック内の閾値レベルよりも高いレベルを有する高周波成分の領域を選択する。幾つかの例において、処理回路は、ジオメトリ再構築クラウドの深度値に基づいてブロック内のエッジを検出する。
幾つかの実施形態において、処理回路は、ブロック内の閾値レベルよりも高いレベルを有する動きコンテンツの領域を選択する。幾つかの例において、処理回路は、ジオメトリ画像内の対応する画素の動き情報に基づいてブロック内の点を選択する。
幾つかの実施形態において、予測情報は、点群のブロック内で選択的平滑化を適用することを指示するフラグを含む。幾つかの例において、予測情報は、ブロック内の点を選択するための特定のアルゴリズムを指示する。また、予測情報は、特定のアルゴリズムに用いるパラメータを含む。
本開示の幾つかの態様によれば、点群圧縮用装置は処理回路を含む。処理回路は、点群に関連付けられたジオメトリ画像を圧縮し、圧縮された点群のジオメトリ画像に基づいてジオメトリ再構築クラウドを再構築する。そして、平滑化されたジオメトリ再構築クラウドを生成するように、処理回路が、ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくともブロック内のジオメトリサンプルに対してフィルタを適用し、平滑化されたジオメトリ再構築クラウドに基づいて点群のテクスチャ画像を生成する。
幾つかの実施形態において、処理回路は、ブロック内の閾値レベルよりも高いレベルを有する高周波成分の領域を選択する。例えば、処理回路はジオメトリ再構築クラウドの深度値に基づいてブロック内のエッジを検出する
幾つかの実施形態において、処理回路は、ブロック内の閾値レベルよりも高いレベルを有する動きコンテンツの領域を選択する。例えば、処理回路はジオメトリ画像内の対応する画素の動き情報に基づいてブロック内の点を選択する。
幾つかの実施形態において、処理回路は、圧縮された点群の符号化ビットストリームには、点群のブロック内で選択的平滑化を適用することを指示するフラグを含む。幾つかの例において、処理回路は、圧縮された点群の符号化ビットストリームには、ブロック内の、選択的平滑化を適用する点を選択するための特定のアルゴリズムを指示するインジケーターを含む。
本開示の各態様は、命令が記憶されている非一時的なコンピュータ可読媒体をさらに提供し、当該命令は、点群圧縮/解凍動用コンピュータによって実行されると、点群圧縮/解凍用方法をコンピュータに実行させる。
開示された主題のさらなる特徴、性質及び様々な利点は、以下の詳細な説明及び図面からより明確になる。図面において、
実施形態による通信システム(100)の簡略化ブロック図の模式図である。 実施形態によるストリーミングシステム (200)の簡略化ブロック図の模式図である。 幾つかの実施形態による点群フレームを符号化するエンコーダ(300)のブロック図を示す。 幾つかの実施形態による点群フレームに対応する圧縮ビットストリームを復号化するデコーダのブロック図を示す。 実施形態による動画デコーダの簡略化ブロック図の模式図である。 実施形態による動画エンコーダの簡略化ブロック図の模式図である。 本開示の幾つかの実施形態による点群のジオメトリ画像及びテクスチャ画像を示す。 本開示の幾つかの実施形態による構文の例を示す。 本開示の幾つかの実施形態による処理例を概説するフローチャートを示す。 本開示の幾つかの実施形態による処理例を概説するフローチャートを示す。 実施形態によるコンピュータシステムの模式図である。
本開示の各態様は、特に点群圧縮用動画符号化(video-coding for point cloud compression、V-PCC)を使用した点群符号化技術を提供する。V-PCCは、多用途動画コーデックを利用して点群圧縮を行うことができる。本開示における点群符号化技術は、V-PCCによる可逆圧縮と非可逆圧縮の両方を改善することができる。
点群は、3D空間内の1組の点であり、各点は関連付けられた属性、例えば、色、マテリアルプロパティ、テクスチャ情報、強度属性、反射率属性、動き関連属性、モダリティ属性、及びその他のさまざまな属性を有する。点群は、オブジェクト又はシーンをそのような点の組み合わせとして再構築するために用いられる。これらの点は、さまざまな設置された複数のカメラと深度センサーを使用してキャプチャすることができ、再構築されたシーンをリアルに表現するように、数千から数十億の点から構成される。
点群を表すために必要なデータの量を減らすには、圧縮技術が必要である。 そのため、リアルタイム通信と6自由度(six Degrees of Freedom、6 DoF)の仮想現実で使用するための点群の非可逆圧縮には技術が必要である。また、自動運転や文化遺産の適用などのダイナミックマッピングの背景に、可逆点群圧縮用技術が求められてる。移動画像専門家グループ(moving picture experts group、MPEG)は、ジオメトリ形状(geometry)及び属性の圧縮に力を入れることを開始し、属性は、例えば、色と反射率、スケーラブル/プログレッシブ符号化、時間の経過とともにキャプチャされた点群のシーケンスの符号化、点群のサブセットへのランダムアクセスである。
本開示の一態様によれば、V-PCCの背後にある主な原理は、既存の動画コーデックを活用して、動的点群のジオメトリ形状、占有、及びテクスチャを3つの別個の動画シーケンスとして圧縮することである。 3つの動画シーケンスを解釈するために必要な追加のメタデータは、別々に圧縮される。ビットストリーム全体のごく一部はメタデータであり、ソフトウェア実現を使用して効率的に符号化/復号化できる。情報の大部分は動画コーデックによって処理される。
図1は、本開示の実施形態による通信システム(100)の簡略化ブロック図である。通信システム(100)は、例えばネットワーク(150)を介して互いに通信できる複数の端末デバイスを含む。例えば、通信システム(100)はネットワーク(150)を介して互いに接続された1対の端末デバイス(110)、(120)とを有する。図1の例において、第1対の端末デバイス(110)、(120)は点群データの単方向伝送を実行する。例えば、端末デバイス(110)は端末デバイス(110)に接続されたセンサー105によりキャプチャされた点群(例えば、構造を示す点)を圧縮することができる。圧縮された点群は、例えばビットストリームの形式で、ネットワーク(150)を介して他の端末デバイス(120)に伝送される。 端末デバイス(120)は、ネットワーク(150)から圧縮された点群を受信し、ビットストリームを解凍して点群を再構築し、再構築された点群に応じて適切に表示することができる。単方向データ伝送は、メディアサービングアプリケーションなどでよく見られているものである。
図1の例において、端末装置(110)及び(120)は、サーバ、及びパーソナルコンピュータとして示され得るが、本開示の原理は、それに限定されない。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、ゲーム端末、メディアプレーヤー及び/又は専用の3次元(3D)機器に適用する。ネットワーク(150)は、端末デバイス(110)と(120)との間で圧縮された点群を伝送する任意の数のネットワークを表す。ネットワーク(150)は、例えば、有線(ケーブル)及び/又は無線通信ネットワークを含んでもよい。ネットワーク(150)は、回線交換及び/又はパケット交換チャネルでデータを交換することができる。代表的なネットワークは、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又はインターネットを含む。本議論の目的のために、ネットワーク(150)のアーキテクチャ及びトポロジーは、本明細書で以下に説明されない限り、本開示の操作にとって重要ではない可能性がある。
例として、図2は、点群について開示された主題の適用例を示す。 開示された主題は、3Dテレプレゼンスアプリケーション、仮想現実を含む他の点群をサポートするアプリケーションにも同様に適用できる。
ストリーミングシステム200は、キャプチャサブシステム(213)を含んでもよい。 キャプチャサブシステム(213)は、点群ソース(201)、例えば、光検出及び測距(LIDAR)システム、3Dカメラ、3Dスキャナ、ソフトウェアで非圧縮点群を生成するグラフィックス生成コンポーネント、例えば圧縮されていない点群(202)を生成する類似グラフィックス生成コンポーネントを含んでもよい。一例において、点群(202)は、3Dカメラによってキャプチャされた点を含む。圧縮された点群(204)(圧縮された点群のビットストリーム)と比較して、点群(202)は、大量のデータを強調するために太線で描画される。圧縮された点群(204)は、点群ソース(201)に結合されたエンコーダ(203)を含む電子機器(220)によって生成されてもよい。 エンコーダ(203)は、以下でより詳細に説明されるように、開示された主題の各態様を実現又は実施するために、ハードウェア、ソフトウェア、又はそれらの組み合わせを含むことができる。点群のストリーム(202)と比較してデータ量が少ないことを強調するために細い線で描画される圧縮点群(204)(又は圧縮された点群(204)のビットストリーム(204))、将来の使用のために、ストリーミングサーバー(205)に記憶されてもよい。1つ又は複数のストリーミングクライアントサブシステム、例えば、図2のクライアントサブシステム(206)及び(208)は、ストリーミングサーバ(205)にアクセスして、圧縮された点群(204)のコピー(207)及び(209)を検索することができる。 クライアントサブシステム(206)は、例えば、電子機器(230)内のデコーダ(210)を含んでもよい。デコーダ(210)は、圧縮された点群の着信コピー(207)を復号化し、レンダリングデバイス(212)上でレンダリングできる再構築された点群(211)の発信ストリームを作成する。一部のストリーミングシステムでは、特定の規格に従って、圧縮された点群(204)、(207)、及び(209)(例えば、圧縮された点群のビットストリーム)を圧縮することができる。 いくつかの例において、動画符号化規格は点群の圧縮に使用される。それらの規格の例は、高効率動画符号化(HEVC)、多用途動画符号化(VVC)などを含む。
電子機器(220)及び(230)は、他の構成要素(図示せず)を含んでもよいことに留意されたい。例えば、電子機器(220)は、デコーダ(図示せず)を含んでもよく、電子機器(230)は、エンコーダ(図示せず)を含んでもよい。
図3は、いくつかの実施形態による点群フレームを符号化するためのV-PCCエンコーダ(300)のブロック図を示す。いくつかの実施形態において、V-PCCエンコーダ(300)は、通信システム(100)及びストリーミングシステム(200)で使用されてもよい。例えば、エンコーダ(203)は、V-PCCエンコーダ(300)と同様の方法で構成及び動作できる。
V-PCCエンコーダ(300)は、非圧縮入力である点群フレームを受信し、圧縮された点群フレームに対応するビットストリームを生成する。いくつかの実施形態では、V-PCCエンコーダ(300)は、例えば、点群ソース(201)などの点群ソースから点群フレームを受信することができる。
図3の例において、V-PCCエンコーダ(300)は、図3に示すように、一体に結合されているブロック生成モジュール306、ブロックパッキングモジュール308、ジオメトリ画像生成モジュール310、テクスチャ画像生成モジュール312、ブロック情報モジュール304、占有マップモジュール314、平滑化モジュール336、画像パディングモジュール316及び318、グループ拡張モジュール320、動画圧縮モジュール322、323及び332、補助ブロック情報圧縮モジュール338、エントロピー圧縮モジュール334、及びマルチプレクサ324を含む。
本開示の一態様によれば、V-PCCエンコーダ(300)は、3D点群フレームを画像に基づく表現、及び圧縮された点群を解凍された点群に戻すために必要ないくつかのメタデータ(例えば、占有マップ及びブロック情報)に変換する。いくつかの例では、V-PCCエンコーダ(300)は、3D点群フレームをジオメトリ画像、テクスチャ画像、及び占有マップに変換し、次に、動画符号化技術を使用して、ジオメトリ画像、テクスチャ画像、及び占有マップをビットストリームに符号化することができる。一般的に、ジオメトリ画像は、画素に投影された点に関連付けられたジオメトリ値でパディングされた画素を持つ2D画像であり、ジオメトリ値でパディングされた画素は、ジオメトリサンプルと呼ばれる。テクスチャ画像は、画素に投影された点に関連付けられたテクスチャ値でパディングされた画素を持つ2D画像であり、テクスチャ値でパディングされた画素はテクスチャサンプルと呼ばれる。占有マップは、ブロックによって占有されているかどうかを示す値でパディングされた画素を持つ2D画像である。
ブロック生成モジュール(306)は、点群を1組のブロックに区分し(例えば、ブロックは、点群によって記述される表面の連続したサブセットとして定義される)、積層してもよく、積層しなくてもよいが、各ブロックは、 2D空間の平面に対する深度フィールドによって記述できるようにしている。いくつかの実施形態において、ブロック生成モジュール(306)は、点群を、滑らかな境界を有する最小数のブロックに分解しながら、再構築誤差を最小限にすることを目的とする。
ブロック情報モジュール(304)はブロックのサイズ及び形状を示すブロック情報を収集することができる。いくつかの例において、ブロック情報を画像フレームにパッキングし、次に、補助ブロック情報圧縮モジュール338によって符号化して、圧縮された補助ブロック情報を生成することができる。
ブロックパッキングモジュール308は、抽出されたブロックを2次元(2D)グリッドにマッピングしながら、未使用のスペースを最小化し、グリッドの各M X M(例えば、16x16)ブロックが一意のブロックに関連付けられることを確保するように配置されている。効率的なブロックパッキングは、未使用のスペースを最小限にするか、時間的な一貫性を確保することにより、圧縮効率に直接影響を与えてもよい。
ジオメトリ画像生成モジュール(310)は、所定のブロック位置での点群のジオメトリ形状に関連する2Dジオメトリ画像を生成することができる。 テクスチャ画像生成モジュール(312)は、所定のブロック位置での点群のテクスチャに関連する2Dテクスチャ画像を生成することができる。ジオメトリ画像生成モジュール310及びテクスチャ画像生成モジュール(312)は、パッキングプロセス中に算出された3Dから2Dへのマッピングを利用して、点群のジオメトリ形状及びテクスチャを画像として格納する。複数の点を同じサンプルに投影する場合をより良く処理するために、各ブロックをレイヤーと呼ばれる2つの画像に投影する。例では、ジオメトリ画像はYUV42Q-8ビットフォーマットのWxHの単色フレームで表される。テクスチャ画像を生成するために、テクスチャ生成処理は、再構築された/平滑化されたジオメトリ形状を利用して、再サンプリングされた点に関連付けられる色を算出する(色移りとも呼ばれる)。
占有マップモジュール314は、各ユニットでのパディング情報を記述する占有マップを生成することができる。例えば、占有マップは、グリッドの各セルについて、このセルが空のスペースに属しているのか、点群に属しているのかを示すバイナリマップを含む。一例では、占有マップは、各画素についてこの画素がパディングされているかどうかを説明するバイナリ情報を使用する。 別の例では、占有マップは、画素のブロックごとに画素のブロックがパディングされているかどうかを説明するバイナリ情報を使用する。
占有マップモジュール314によって生成された占有マップは、可逆符号化又は非可逆符号化を使用して圧縮することができる。可逆符号化を使用する場合、エントロピー圧縮モジュール334を使用して占有マップを圧縮する。非可逆符号化を使用する場合、動画圧縮モジュール332を使用して占有マップを圧縮する。
ブロックパッキングモジュール 308は、画像フレームにパックされた2Dブロックの間に多少の空のスペースを残すことができることに留意されたい。画像パディングモジュール316及び318は、2D動画及び画像コーデックに適し得る画像フレームを生成するように、空のスペース(パディングと呼ばれる)パディングすることができる。画像のパディングはバックグラウンドフィリングとも呼ばれ、冗長な情報によって未使用のスペースをパディングことができる。いくつかの例では、良いバックグラウンドフィリングはビットレートを最小限に増加させるが、ブロック境界の周りに明らかな符号化歪みを導入しない。
動画圧縮モジュール322、323及び332は、HEVC、VVCなどの適切な動画符号化規格に基づいて、パディングされたジオメトリ画像、パディングされたテクスチャ画像、及び占有マップなどの2D画像を符号化することができる。一例において、動画圧縮モジュール322、323、及び332は、別々に動作する個々のコンポーネントである 別の例において、動画圧縮モジュール322、323、及び332を単一のコンポーネントとして実現できることに留意されたい。
いくつかの例において、平滑モジュール336は、再構築されたジオメトリ画像の平滑画像を生成するように配置されている。平滑化された画像情報をテクスチャ画像生成器312に提供することができる。次に、テクスチャ画像生成器312は、再構築されたジオメトリ画像に基づいてテクスチャ画像の生成を調整することができる。例えば、ブロック形状(例えば、ジオメトリ形状)が符号化及び復号化中にわずかに歪んでいる場合、テクスチャ画像を生成する際にブロック形状の歪みを補正するために歪みを考慮に入れることができる。
いくつかの実施形態では、グループ拡張320は、符号化ゲイン及び再構築された点群の視覚的品質を改善するために、冗長な低周波数コンテンツで対象境界の周りの画素をパディングするように配置されている。
マルチプレクサ324は、圧縮されたジオメトリ画像、圧縮されたテクスチャ画像、圧縮された占有マップ、圧縮された補助ブロック情報を圧縮されたビットストリームに多重化することができる。
図4は、幾つかの実施形態による点群フレームに対応する圧縮ビットストリームを復号化するためのV-PCCデコーダ(400)のブロック図を示す。幾つかの実施形態において、V-PCCデコーダ(400)は通信システム(100)及びストリーミングシステム (200)に使用されてもよい。例えば、デコーダ(210)は、V-PCCデコーダ(400)と同様に配置及び動作することができる。V-PCCデコーダ(400)は圧縮されたビットストリームを受信し、圧縮されたビットストリームに基づいて再構築された点群を生成する。
図4の例において、V-PCCデコーダ(400)は、図4に示すように、一体に結合されたデマルチプレクサ(432)、動画解凍モジュール(434)及び(436)、占有マップ解凍モジュール(438)、補助ブロック情報解凍モジュール(442)、ジオメトリ再構築モジュール(444)、平滑化モジュール(446)、テクスチャ再構築モジュール(448)及び色平滑化モジュール(452)を含む。
デマルチプレクサ(432)は、圧縮されたビットストリームを受信し、圧縮されたテクスチャ画像、圧縮された形状画像、圧縮された占有マップ、及び圧縮された補助ブロック情報に区画することができる。
動画解凍モジュール(434)及び(436)は、適切な規格(例えば、HEVC、VVCなど)に応じて圧縮されたイメージを復号化し、解凍されたイメージを出力することができる。例えば、動画解凍モジュール(434)は圧縮されたテクスチャ画像を復号化し、解凍されたテクスチャ画像を出力し、動画解凍モジュール(436)は圧縮されたジオメトリ画像を復号化し、解凍されたジオメトリ画像を出力することができる。
占有マップ解凍モジュール(438)は、適切な規格(例えば、HEVC、VVCなど)に応じて圧縮された占有マップを復号化し、解凍された占有マップを出力することができる。
補助ブロック情報解凍モジュール(442)は、適切な規格(例えば、HEVC、VVCなど)に応じて圧縮された補助ブロック情報を復号化し、解凍された補助ブロック情報を出力することができる。
ジオメトリ再構築モジュール(444)は解凍されたジオメトリ画像を受信し、解凍された占有マップ及び解凍された補助ブロック情報に基づいて再構築された点群ジオメトリ形状を生成することができる。
平滑化モジュール(446)はブロックのエッジでの不一致を平滑化することができる。 平滑化処理は、圧縮アーティファクトによってブロック境界で発生する可能性のある潜在的な不連続性を軽減することを目的とする。いくつかの実施形態では、平滑フィルタをブロック境界に位置する画素に適用して、圧縮/解凍によって引き起こされる可能性のある歪みを軽減することができる。
テクスチャ再構築モジュール(448)は、解凍されたテクスチャ画像及び平滑化されたジオメトリ形状に基づいて点群の点のテクスチャ情報を特定することができる。
色平滑モジュール(452)は、着色の不一致を平滑化することができる。3D空間内の隣接しないブロックは、多くの場合、2D動画で隣り合ってパッキングされる。いくつかの例では、隣接していないブロックからの画素値が、ブロックに基づく動画コーデックによって混同される可能性がある。色平滑化の目的は、ブロックの境界に出現する目に見えるアーティファクトを減らすことである。
図5は、本開示の実施形態による動画デコーダ(510)のブロック図を示す。動画デコーダ(510)はV-PCCデコーダ(400)で使用することができる。例えば、動画解凍モジュール(434)及び(436)、占有マップ解凍モジュール(438)は同様に動画デコーダ(510)として配置されることができる。
動画デコーダ(510)は、圧縮画像、例えば、符号化された動画シーケンスからシンボル(521)を再構築するためのパーサ(520)を含んでもよい。これらのシンボルのカテゴリには、動画デコーダ(510)の操作を管理するための情報が含まれる。パーサ(520)は、受信された符号化された動画シーケンスに対して解析/エントロピー復号化を行うことができる。符号化された動画シーケンスの符号化は、動画符号化技術又は規格に従うことができ、可変長符号化、ハフマン符号化、文脈依存の有無にかかわらない算術符号化などを含む様々な原理に従うことができる。パーサ(520)は、グループに対応する少なくとも1つのパラメーターに基づいて、符号化された動画シーケンスから、動画デコーダにおける画素のサブグループのうちの少なくとも1つに対するサブグループパラメータセットを抽出することができる。サブグループは、ピクチャのグループ(GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含んでもよい。パーサ(520)は、また、符号化された動画シーケンスから、例えば、変換係数、量子化器パラメーター値、動きベクトルなどの情報を抽出してもよい。
パーサ(520)は、バッファメモリから受信された動画シーケンスに対してエントロピー復号化/解析操作を実行することで、シンボル(521)を構築することができる。
シンボル(521)の再構築は、符号化された動画ピクチャ又は一部の符号化された動画ピクチャ(例えば、インターピクチャとイントラピクチャ、インターブロックとイントラブロック)のタイプ及び他の要因に依存し、複数の異なるユニットに関してもよい。どのユニットが関与し、どのように制御するかについて、パーサ(520)により符号化された動画シーケンスから解析したサブグループ制御情報によって制御されてもよい。簡潔のために、パーサ(520)と以下の複数のユニットとの間のそのようなサブグループ制御情報の流れについて説明しない。
既に言及された機能ブロックに加えて、動画デコーダ(510)は概念的には、以下に説明する複数の機能ユニットに細分化することができる。商業的な制約の下で運行する実際の実現形態では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的に互いに統合することができる。しかしながら、開示された主題を説明する目的のために、概念的には、以下の機能ユニットに細分化されることは適切である。
第1のユニットは、スケーラ/逆変換ユニット(551)である。当該スケーラ/逆変換ユニット(541)はパーサ(520)からシンボル(521)である量子化変換係数及び制御情報を受信し、使用する変換方法、ブロックサイズ、量子化係数、量子化スケーリングマトリックスなどを含む。スケーラ/逆変換ユニット(551)は、サンプル値を含むブロックを出力することができ、これらのブロックはアグリゲータ(555)に入力され得る。
いくつかの場合に、スケーラ/逆変換ユニット(551)の出力サンプルは、イントラ符号化ブロック、即ち、先に再構築されたピクチャからの予測情報を使用しないが、現在のピクチャの先に再構築された部分からの予測情報を使用できるブロックに属してもよい。このような予測情報は、イントラピクチャ予測ユニット(552)によって提供され得る。いくつかの場合に、イントラピクチャ予測ユニット(552)は現在のピクチャバッファ(558)から抽出された、周囲が既に再構築された情報を使用して、再構築しているブロックと同じサイズ及び形状のブロックを生成する。現在のピクチャバッファ(558)は、例えば、部分的に再構築された現在のピクチャ及び/又は完全に再構築された現在のピクチャをバッファリングする。いくつかの場合に、アグリゲータ(555)は各サンプルに基づいて、イントラ予測ユニット(552)によって生成される予測情報を、スケーラ/逆変換ユニット(551)から提供される出力サンプル情報に追加する。
他の場合に、スケーラ/逆変換ユニット(551)の出力サンプルはインター符号化され且つ潜在動き補償であり得るブロックに属してもよい。このような場合に、動き補償予測ユニット(553)は、参照ピクチャメモリ(557)にアクセスして、予測用サンプルを取得してもよい。当該ブロックに属するシンボル(521)に応じて、取得されたサンプルに対して動き補償を行った後に、これらのサンプルは、アグリゲータ(555)によってスケーラ/逆変換ユニット(551)の出力(この場合に、残差サンプル又は残差信号と呼ばれる)に追加されることで、出力サンプル情報を生成することができる。動き補償ユニット(553)が予測サンプルを抽出する参照ピクチャメモリ(457)におけるアドレスは、動きベクトルによって制御されてもよく、前記動きベクトルは、シンボル(521)の形で動き補償ユニット(553)に使用されることができ、シンボル(521)は、例えば、X、Y、及び参照ピクチャ成分を有してもよい。動き補償には、サブサンプルの正確な動きベクトルが使用されている際に参照ピクチャメモリ(557)から取得されたサンプル値の補間、動きベクトル予測メカニズムなどを含んでもよい。
アグリゲータ(555)の出力サンプルは、ループフィルタユニット(556)において様々なループフィルタリング技術にって処理され得る。動画圧縮技術は、ループ内フィルタ技術を含んでもよく、当該ループ内フィルタ技術は、符号化された動画シーケンス(符号化された動画ビットストリームとも呼ばれる)に含まれ且つパーサ(520)からのシンボル(521)としてループフィルタユニット(556)に使用可能なパラメータによって制御される。しかしながら、符号化されたピクチャ又は符号化された動画シーケンスの(復号化順序で)前の部分を復号化する期間に得られたメタ情報に応答してもよいし、先に再構築されループフィルタリング処理されたサンプル値に応答してもよい。
ループフィルタユニット(556)の出力はサンプルストリームであってもよく、将来のインターピクチャ予測で使用されるために、レンダリングデバイスに出力され、参照ピクチャメモリ(557)に記憶されることができる。
完全に再構築されると、特定の符号化されたピクチャは、参照ピクチャとして将来の予測に使用することができる。例えば、現在のピクチャに対応する符号化されたピクチャは完全に再構築され、且つ符号化されたピクチャが参照ピクチャとして識別されると(例えば、パーサ(520)によって)、現在のピクチャバッファ(558)は参照ピクチャメモリ(557)の一部となることができ、そして、その後の符号化されたピクチャの再構築を開始する前に、新しい現在のピクチャバッファを再割り当てることができる。
動画デコーダ(510)は、例えばITU-T H.265提案書における所定のビデ圧縮技術のような規格に応じて復号化操作を実行してもよい。符号化された動画シーケンスが動画圧縮技術又は規格の構文及び動画圧縮技術又は規格に記録されているプロファイルの両方に準拠する意味で、符号化された動画シーケンスは、使用されている動画圧縮技術又は規格で指定される構文に準拠することができる。具体的に、プロファイルは、ビデ圧縮技術又は規格で利用可能な全てのツールから、あるツールをプロファイルのみで使用され得るツールとして選択してもよい。コンプライアンスについて、符号化された動画シーケンスの複雑さがビデ圧縮技術又は規格のレベルで限定される範囲内にあることも要求する。いくつかの場合に、レベルは、最大ピクチャのサイズ、最大フレームレート、最大再構築サンプルレート(例えば1秒あたりのメガサンプルを単位として測定する)、最大参照ピクチャサイズなどを制限する。いくつかの場合に、レベルによって設置される制限は、仮想参照デコーダ(HRD)の仕様及び符号化された動画シーケンスにおけるシグナリングされるHRDバッファの管理するメタデータによってさらに制限されてもよい。
図6は、本開示の実施形態による動画エンコーダ(603)のブロック図を示す。動画エンコーダ(603)は、点群を圧縮するV-PCCエンコーダ(300)に使用することができる。例において、動画圧縮モジュール(322)と(323)及び動画圧縮モジュール(332)はエンコーダ(603)と同様に配置される。
動画エンコーダ(603)は、パディングされたジオメトリ画像、パディングされたテクスチャ画像などの画像を受信し、圧縮された画像を生成することができる。
実施形態によれば、動画エンコーダ(603)は、リアルタイムで、又はアプリケーションによって要求される他の任意の時間制約の下で、ソース動画シーケンスのピクチャを、符号化された動画シーケンス(圧縮された画像)に符号化して圧縮してもよい。適切な符号化速度で実行することはコントローラ(650)の機能の1つである。いくつかの実施形態において、コントローラ(650)は、以下で説明する他の機能ユニットを制御し、これらのユニットに機能的に結合される。明確のために、結合は説明されていない。コントローラ(650)によって設置されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のλ値...)、ピクチャサイズ、ピクチャグループ(GOP)レイアウト、最大動きベクトル検索範囲などを含んでもよい。コントローラ(650)は、特定のシステム設計に対して最適化された動画エンコーダ(603)に属する他の適切な機能を有するように配置されてもよい。
幾つかの実施形態において、動画エンコーダ(603)は、符号化ループで動作するように配置されている。非常に簡略化した説明として、例において、符号化ループは、ソースエンコーダ(630)(例えば、符号化しようとする入力ピクチャ及び参照ピクチャに基づいてシンボルストリームのようなシンボルを作成することを担当する)、動画エンコーダ(603)に組み込まれた(ローカルの)デコーダ(533)を含んでもよい。デコーダ(633)は、(リモート)デコーダがサンプルデータを作成する方法と同様にサンプルを作成するために、シンボルを再構築する(シンボルと符号化された動画ビットストリームとの間の圧縮は開示された主題で考慮される動画圧縮技術では無損失であるため)。再構築されたサンプルストリーム(サンプルデータ)を参照ピクチャメモリ(634)に入力する。シンボルストリームの復号化によって、デコーダの位置(ローカル又はリモート)に関係がないビットが正確である結果が得られるため、参照ピクチャメモリ(634)のコンテンツもローカルエンコーダとリモートエンコーダとの間でビットが正確である。つまり、エンコーダの予測部分は、デコーダが復号化中に予測を使用するときに「見る」のとまったく同じサンプル値を参照ピクチャサンプルとして見なす。 このような参照ピクチャの同期性の基本原理(及び、例えばチャネル誤差のために同期性を維持できない場合は結果として生じるドリフト)は、一部の関連技術でも使用される。
「ローカル」デコーダ(633)の動作は、「リモート」デコーダ、例えば動画デコーダ(510)の動作と同じであってもよく、以上で図5を参照しながら詳細に説明した。しかし、さらに、簡単に図5を参照し、シンボルは、利用可能であり、且つ、エントロピーエンコーダ(645)及びパーサ(520)はシンボルを、符号化された動画シーケンスに無損失で符号化/復号化できる場合に、パーサ(520)を含める動画デコーダ(510)のエントロピー復号化部分は、ローカルデコーダ(633)で完全に実現されない場合がある。
この場合、デコーダに存在する解析/エントロピー復号化以外の任意のデコーダ技術も、必然的に基本的に同じ機能形式で対応するエンコーダに存在することが観察されることができる。そのため、開示された主題は、デコーダの動作に着目する。エンコーダ技術は包括的に説明されたデコーダ技術の逆であるため、エンコーダ技術の説明を簡略化することができる。より詳しい説明は、特定の領域のみで必要であり、以下で提供される。
動作中に、いくつかの実施形態において、ソースエンコーダ(630)は、動き補償の予測的符号化を実行してもよく、動画シーケンスからの「参照ピクチャ」として指定された1つ又は複数の以前に符号化されたピクチャを参照することで入力ピクチャに対して予測的符号化を行う。このようにして、符号化エンジン(632)は入力ピクチャの画素ブロックと参照ピクチャの画素ブロックとの間の差異を符号化してもよく、当該参照ピクチャは、入力ピクチャへの予測参照として選択され得る。
ローカル動画デコーダ(633)は、ソースエンコーダ(630)によって作成されるシンボルに基づいて、参照ピクチャとして指定され得るピクチャの符号化された動画データを復号化してもよい。符号化エンジン(632)の動作は、有利には、可逆処理であり得る。動画デコーダ(図5、図示せず)で符号化された動画データを復号化できる場合に、再構築された動画シーケンスは、通常、多少の誤差を伴うソース動画シーケンスのレプリカであり得る。ローカル動画デコーダ(633)は、参照ピクチャに対して動画デコーダによって実行され得る復号化処理をコピーし、再構築された参照ピクチャを参照ピクチャバッファ(634)に記憶してもよい。このようにして、エンコーダ(603)は、再構築された参照ピクチャの共通の内容を有するレプリカを、リモート動画デコーダによって得られる再構築された参照ピクチャとしてローカルに記憶することができる(伝送誤差がない)。
予測器(635)は、符号化エンジン(632)に対して予測検索を実行することができる。つまり、符号化されようとする新しいピクチャについて、予測器(635)は、参照ピクチャメモリ(634)において、新しいピクチャの適切な予測参照として使用され得るサンプルデータ(候補参照画素ブロックとする)又は、例えば、参照ピクチャの動きベクトル、ブロック形状などの特定のメタデータを検索してもよい。予測器(635)は、適切な予測参照が見つけられるように、サンプルブロックに基づいて、画素ブロックごとに動作することができる。いくつかの場合に、例えば、予測器(635)によって得られた検索結果によって特定されるように、入力ピクチャは、参照ピクチャメモリ(634)に記憶された複数の参照ピクチャから得られた予測参照を有してもよい。
コントローラ(650)は、例えば、動画データを符号化するためのパラメータとサブグループパラメータの設置を含むソースエンコーダ(630)の符号化動作を管理することができる。
上記の全ての機能ユニットの出力はエントロピーエンコーダ(645)においてエントロピー符号化されてもよい。エントロピーエンコーダ(645)は、例えばハフマン符号化、可変長符号化、算術符号化などの技術に基づいて、各機能ユニットによって生成されたシンボルに対して可逆圧縮を行うことによって、シンボルを、符号化された動画シーケンスに変換する。
コントローラ(650)は、動画エンコーダ(603)の動作を管理することができる。コントローラ(650)は、各符号化されたピクチャに、対応するピクチャに適用され得る符号化技術に影響する可能性がある特定の符号化されたピクチャタイプを指定することができる。例えば、通常、ピクチャを、以下のピクチャタイプのいずれかとして割り当てられ得る。
イントラピクチャ(Iピクチャ)は、シーケンス内の任意の他のピクチャを予測ソースとして使用せずに符号化及び復号化できるピクチャであってもよい。一部の動画動画コーデックは、例えば、独立デコーダリフレッシュ(「IDR」)ピクチャを含む異なるタイプのイントラピクチャを許容する。当業者は、Iピクチャのそれらの変形及び対応する適用と特徴を知っている。
予測ピクチャ(Pピクチャ)は、イントラ予測又はインター予測を使用して符号化及び復号化を行うピクチャであってもよく、当該イントラ予測又はインター予測は、多くとも1つの動きベクトル及び参照インデックスを使用して各ブロックのサンプル値を予測する。
双方向予測ピクチャ(Bピクチャ)は、イントラ予測又はインター予測を使用して符号化と復号化を行うピクチャであってもよく、当該イントラ予測又はインター予測は、多くとも2つの動きベクトルと参照インデックスを使用して各ブロックのサンプル値を予測する。同様に、複数の予測ピクチャは、2つを超える参照ピクチャと関連するメタデータを使用して単一のブロックを再構築することができる。
ソースピクチャは、一般的に、空間的に複数のサンプルブロックに細分化され(例えば、それぞれ4×4、8×8、4×8又は16×16のサンプルブロックである)、ブロックごとに符号化されてもよい。ブロックは、ブロックに適用される相応するピクチャの符号化割り当てによって特定される他の(すでに符号化された)ブロックを参照して予測的に符号化されることができる。例えば、Iピクチャのブロックについて、非予測的に符号化してもよく、又は、同じピクチャの符号化されたブロックを参照して予測的に符号化してもよい(空間的予測又はイントラ予測)。Pピクチャの画素ブロックは、1つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して予測的に符号化されてもよい。Bピクチャのブロックは、1つ又は2つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して予測的に符号化されてもよい。
動画エンコーダ(603)は、例えばITU-T H.265提案書の所定の動画符号化技術又は規格に従って、符号化操作を実行することができる。動画エンコーダ(603)は、その動作中に、入力動画シーケンスにおける時間的及び空間的冗長性を利用した予測符号化動作を含む様々な圧縮動作を実行することができる。従って、符号化された動画データは、使用されている動画符号化技術又は規格によって指定された構文に準拠し得る。
動画は、時系列での複数のソースピクチャ(動画)の形式であってもよい。イントラピクチャ予測(通常、イントラ予測と簡略化される)は、所定のピクチャにおける空間的関連性を利用し、インターピクチャ予測はピクチャ間の(時間的又は他の)関連性を利用する。例おいて、符号化/復号化中の現在のピクチャと呼ばれる特定のピクチャはブロックに区分される。現在のピクチャにおけるブロックは、動画における、以前に符号化されまだバッファリングされている参照ピクチャにおける参照ブロックと類似している場合に、動きベクトルと呼ばれるベクトルによって現在のピクチャにおけるブロックを符号化してもよい。動きベクトルは参照ピクチャにおける参照ブロックを指し、また、複数の参照ピクチャを使用する場合に、動きベクトルは、参照ピクチャを認識する第3の次元を有してもよい。
幾つかの実施形態において、双方向予測技術は、インターピクチャ予測に使用されてもよい。双方向予測技術によれば、例えば、復号化順序で動画における現在のピクチャよりも先行する(ただし、それぞれ表示順序で過去及び将来にあり得る)第1の参照ピクチャ及び第2の参照ピクチャである2つの参照ピクチャを使用する。第1の参照ピクチャにおける第1の参照ブロックを指す第1の動きベクトル、第2の参照ピクチャにおける第2の参照ブロックを指す第2の動きベクトルによって、現在のピクチャにおけるブロックを符号化してもよい。第1の参照ブロックと第2の参照ブロックとの組み合わせによって当該ブロックを予測してもよい。
また、マージモード技術は、符号化の効率を向上させるために、インターピクチャ予測に使用することができる。
本開示の幾つかの実施形態によれば、例えば、インターピクチャ予測及びイントラピクチャ予測のような予測はブロックごとに実行される。例えば、HEVC規格に応じて、動画ピクチャシーケンスにおけるピクチャは、圧縮用符号化ツリーユニット(CTU)に区分され、ピクチャにおけるCTUは、例えば、64×64画素、32×32画素又は16×16画素などの同じサイズを持っている。一般に、CTUは、3つの符号化ツリーブロック(CTB)、即ち、1つの輝度CTBと2つの色度CTBを含む。各CTUは、1つ又は複数の符号化ユニット(CU)に再帰的に四分木で区分されてもよい。例えば、64×64画素のCTUを1つの64×64画素のCU、又は、4つの32×32画素のCU、又は16個の16×16画素のCUに区分してもよい。例において、各CUを分析して、当該CUに使用される予測タイプ、例えば、インター予測タイプ又はイントラ予測タイプを特定する。時間的及び/又は空間的予測可能性に依存し、CUは1つ又は複数の予測ユニット(PU)に区分される。通常、各PUは輝度予測ブロック(PB)及び2つの色度PBを含む。実施形態において、符号化(符号化/復号化)中の予測動作は予測ブロックごとに実行される。輝度予測ブロックを予測ブロックとして使用する例において、予測ブロックは画素値(例えば、輝度値)の行列、例えば、8×8画素、16×16画素、8×16画素、16×8画素などを含む。
本開示のいくつかの態様によれば、ジオメトリ平滑化は、エンコーダ側(点群圧縮に用いられる)及びデコーダ側(点群再構築に用いる)の両方によって実行されてもよい。一例において、エンコーダ側で、ジオメトリ動画の圧縮後、圧縮されたジオメトリ動画及び対応する占有マップを使用して点群のジオメトリ部分が再構築され、再構築された点群(ジオメトリ部分)は、ジオメトリ再構築クラウドと呼ばれる。ジオメトリ再構築クラウドは、テクスチャ画像の生成に使用される。例えば、テクスチャ画像生成器312は、ジオメトリ再構築クラウド内の再サンプリングされた点に関連付けられる色を特定し(色移りとも呼ばれる)、それに応じてテクスチャ画像を生成することができる。
いくつかの例において、ジオメトリ平滑は、色移りの前にジオメトリ再構築クラウドに適用される。例えば、平滑モジュール336は、再構築されたジオメトリ画像に基づいて生成されたジオメトリ再構築クラウドに平滑(例えば、平滑フィルタ)を適用することができる。本開示のいくつかの実施形態において、平滑モジュール336は、ブロック境界での形状の歪みを回復するだけでなく、ブロック内の形状の歪みも回復するように配置されている。
デコーダ側では、図4のV-PCCデコーダ400を使用して、 例として、平滑モジュール446は、ジオメトリ再構築クラウドに平滑化を適用し、平滑化されたジオメトリ再構築クラウドを生成することができる。次に、テクスチャ再構築モジュール448は、解凍されたテクスチャ画像及び平滑化されたジオメトリ再構築クラウドに基づいて、点群内の点のテクスチャ情報を特定することができる。
本開示のいくつかの態様によれば、歪みは、ジオメトリ圧縮中及び/又は高解像度占有マップから低解像度マップへの変換中の量子化誤差によって発生する可能性がある。 量子化誤差はブロックの境界に影響を与える可能性があり、ブロック内の再構築された深度値(点のジオメトリ情報)に影響を与える可能性があり、再構築された平面が滑らかではないことを招く可能性がある。本開示は、ブロック内の再構築された深度値を平滑化するための技術を提供する。
提案された方法は、別々に使用するか、任意の順序で組み合わせることができる。さらに、方法(又は実施形態)、エンコーダ及びデコーダのそれぞれは、処理回路(例えば、1つ又は複数のプロセッサ又は1つ又は複数の集積回路)によって実現され得、一例において、1つ又は複数のプロセッサは、非一時的なコンピュータ可読媒体に保存される。
図7は点群に用いるジオメトリ画像710とテクスチャ画像750を示している。点群は、複数のブロックに分解されている。いくつかの関連する例では、平滑化は、図7の711によって示される境界のようなブロック境界にのみ適用される。本開示において、平滑化は、721によって示されるように、ブロック内の特定の場所に適用することができる。場所は、特定の基準に基づいて選択することができる。平滑化はブロック内で選択的に適用されるため、追加の算出の複雑さは最小化される。いくつかの実施形態では、再構築された深度値が非圧縮深度値と比較して最も異なる候補点を特定し、リストに追加することができる。当該リストには境界点を含めることもできる。次に、平滑モジュール336、平滑モジュール446などによって、平滑化をリスト内の点に適用することができる。
いくつかの実施形態では、平滑化フィルタによって平滑化されるブロック内の候補点のセットは、再構築された深度値に基づいて得られることができる。いくつかの実施形態では、エンコーダ側とデコーダ側の両方で適切なアルゴリズムを使用し、例えば推定に基づいて、再構築された深度値が元の非圧縮値と最も異なる候補点を選択し、元の未圧縮値はエンコーダ側で利用不可である。いくつかの例では、候補点は、再構築された深度値が比較的大きな量子化誤差を有すると考えられるものとして選択される。一例では、深度マップ(例えば、再構築されたジオメトリ画像)に高周波成分(高空間周波数成分)がある領域を選択してもよい。例えば、領域における高空間周波数成分の強度と低空間周波数成分の強度との比が閾値よりも高い場合、その領域は、比較的高レベルの高空間周波数成分を有する高周波数領域であり、平滑フィルターを適用するために選択されてもよい。別の例では、深度マップ(例えば、再構築されたジオメトリ画像)の高動きコンテンツを有する領域を選択することができる。例えば、動画コーデックで一般的に使用される動きベクトル情報に基づいて領域を選択できる。
いくつかの実施形態では、エッジ検出を深度マップ(例えば、再構築されたジオメトリ画像)に適用して、ブロック内のエッジに対応する点を特定することができ、ブロック内にあるエッジに対応する点に平滑化を適用することができる。一般に、エッジ領域は比較的高い空間周波数成分を有する。
いくつかの実施形態では、候補点は、深度マップを圧縮/解凍するためにV-PCCによって使用される動画圧縮ツール(例えば、HEVC)によって暗黙的に提供される情報に基づいて得られることができる 一例では、大動きベクトルを有する画素を選択することができ、大動きベクトルを有する画素に対応する点を候補点として選択し、平滑化を適用するためのリストに追加することができる。別の例では、サンプル適応オフセット(SAO)に対する応答が比較的大きい画素を選択することができ、SAOに対して応答の大きい画素に対応する点を候補点として選択し、平滑化を適用するリストに追加することができる。
本開示のいくつかの態様によれば、エンコーダ側及びデコーダ側は、同じアルゴリズムを使用して、ブロック内の平滑化を適用する点(又は領域)を特定する。いくつかの実施形態では、フラグ及びパラメータを符号化ビットストリームに含めることができ、したがって、デコーダ側は、にンコーダがブロック内の平滑化を適用する点を選択するためのアルゴリズム及びパラメータを特定することができ、次に、デコーダ側は同じアルゴリズムとパラメータを使用して、ブロック内の平滑化を適用する点を選択することができる。
図8は、本開示の幾つかの実施形態による構文の例を示す。図8の例において、selective_smoothing_inside_patches_present_flagは、ブロック内で選択的平滑化が使用されているかどうかを指示するために用いる。例において、selective_smoothing_inside_patches_present_flagが真である場合、例えばalgorithm_to_find_candidates_inside_patchesによって示されるパラメータによりアルゴリズムを指示する。
また、例において、アルゴリズムがエッジ検出アルゴリズムである場合に、エッジ検出アルゴリズムに使用されるパラメータ、例えば、kernel_sizeによって示されるエッジ検出アルゴリズムのカーネルのサイズ、ラスタースキャン順序に対してkernel[i],i=0...kernel_size×kernel_sizeによって示されるカーネル内の値などを指示することができる。
図8において、XYZは、ブロック内の平滑化を適用する候補点を選択するための他の適切なアルゴリズムを示し、XYZ_parametersは、アルゴリズムXYZに使用されるパラメータの値を示す。
図9は、本開示の実施形態によるプロセス(900)を概説するフローチャートを示す。符号化処理中にプロセス(900)を使用して点群を符号化することができる。様々な実施形態において、プロセス(900)は、処理回路、例えば、端末装置(110)における処理回路、エンコーダ(203)の機能を実行する処理回路、V-PCCエンコーダ(300)の機能を実行する処理回路などによって実行される。幾つかの実施形態において、プロセス(900)は、ソフトウェア命令によって実現されるため、処理回路がソフトウェア命令を実行する場合、処理回路はプロセス(900)を実行する。プロセスは(S901)から開始され、(S910)に進む。
(S910)において、点群に関連付けられたジオメトリ画像を圧縮する。例において、ブロック生成モジュール306は点群のブロックを生成することができる。また、ジオメトリ画像生成モジュール310は、ジオメトリ情報、例えば点の深度値をジオメトリ画像として記憶する。動画圧縮モジュール322は群に関連付けられたジオメトリ画像を圧縮することができる。
(S920)において、圧縮されたジオメトリ画像に応じてジオメトリ再構築クラウドを生成する。例において、動画圧縮モジュール322は圧縮されたジオメトリ画像に応じて再構築されたジオメトリ画像を生成することができる。再構築されたジオメトリ画像はジオメトリ再構築クラウドの生成に使用することができる。
(S930)において、ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくともブロック内のジオメトリサンプルに平滑フィルタを適用する。幾つかの例において、平滑モジュール336はブロックの境界点に平滑フィルタを適用することができる。また、平滑モジュール336はブロック内の幾つかの点に平滑フィルタを選択的に適用する。幾つかの実施形態において、推定に基づいて再構築された深度値が元の非圧縮値と最も異なる可能性がある点を選択することができる。例えば、領域内の高レベルの高空間周波数成分を有する点を選択することができる。別の例では、深度マップ内の高動きコンテンツを有する点(例えば、動画圧縮モジュール322によって提供される動きベクトル情報に基づいて特定される)を選択することができる。
(S940)において、平滑化されたジオメトリ再構築クラウドに基づいてテクスチャ画像を生成する。例において、テクスチャ画像生成モジュール312は平滑化されたジオメトリ再構築クラウドにおける再サンプリングされた点に関連付けする色(色移りとも呼ばれる)を特定し、テクスチャ画像を対応して生成することができる。
(S950)において、テクスチャ画像を圧縮する。例において、動画圧縮モジュール323は圧縮されたテクスチャ画像を生成することができる。次に、圧縮されたジオメトリ画像、圧縮されたテクスチャ画像及び他の適切な情報は多重化されて符号化されたビットストリームを生成する。幾つかの例において、ブロック内の選択的ジオメトリ平滑化に関連付けられたフラグ及びパラメータは、符号化ビットストリームに含まれることができる。次に、プロセスは(S999)に進み、終了する。
図10は、本開示の実施形態によるプロセス(1000)を概説するフローチャートを示す。復号化処理中にプロセス(1000)を使用して点群を再構築することができる。様々な実施形態において、プロセス(1000)は、処理回路、例えば、端末装置(120)における処理回路、デコーダ(210)の機能を実行する処理回路、V-PCCデコーダ(400)の機能を実行する処理回路などによって実行される。幾つかの実施形態において、プロセス(1000)は、ソフトウェア命令によって実現されるため、処理回路がソフトウェア命令を実行する場合、処理回路はプロセス(1000)を実行する。プロセスは(S1001)から開始され、(S1010)に進む。
(S1010)において、点群に対応する符号化ビットストリームから点群の予測情報を復号化する。幾つかの例において、予測情報はブロック内の選択的ジオメトリ平滑化に関連付けられたフラグ及びパラメータを含む。
(S1020)において、符号化ビットストリームから復号化されたジオメトリ画像に基づいて、ジオメトリ再構築クラウドを生成する。例において、動画解凍モジュール436は、ジオメトリ情報を復号化して、解凍されたジオメトリ画像を生成することができる。ジオメトリ再構築モジュール444は解凍されたジオメトリ画像に基づいてジオメトリ再構築クラウドを生成することができる。
(S1030)において、ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくともブロック内のジオメトリサンプルに対して平滑フィルタを適用する。幾つかの例において、平滑化モジュール446は、ブロックの境界点のジオメトリサンプルに対して平滑フィルタを適用することができる。また、平滑化モジュール446は、ブロック内の幾つかのジオメトリサンプルに対して平滑フィルタを選択的に適用する。幾つかの実施形態において、推定に基づいて再構築された深度値が元の非圧縮値と最も異なる可能性がある点を選択することができる。例えば、領域内の高レベルの高空間周波数成分を有する点を選択することができる。別の例では、深度マップ内の高動きコンテンツを有する点(例えば、動画解凍モジュール436によって提供される動きベクトル情報に基づいて特定される)を選択することができる。
(S1040)において、平滑化されたジオメトリ再構築クラウドに基づいて点群の点を再構築する。例えば、テクスチャ再構築モジュール(448)は解凍されたテクスチャ画像及び平滑化されたジオメトリ再構築クラウドに基づいて点群の点のテクスチャ情報を特定することができる。次に、色平滑化モジュール(452)着色の不一致を平滑化することができる。次に、プロセスは(S1099)に進み、終了する。
上記の技術は、コンピュータ可読命令によってコンピュータソフトウェアとして実現され、1つ又は複数のコンピュータ可読媒体に物理的に記憶される。例えば、図11は開示された主題のいくつかの実施形態を実現するのに適したコンピュータシステム(1100)を示す。
コンピュータソフトウェアは任意の適切なマシンコード又はコンピュータ言語を使用して符号化することができ、機械コード又はコンピュータ言語がアセンブル、コンパイル、リンクなどのメカニズムを介して命令を含むコードを作成することができ、当該命令は、1つ又は複数のコンピュータ中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)などによって直接的に実行されるか、又は解釈、マイクロコード実行などによって実行されることができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーム機器、モノのインターネット機器などを含む、様々なタイプのコンピュータ又はそのコンポーネントで実行されることができる。
図11に示すコンピュータシステム(1100)に関するコンポーネントは本質的に例示であり、本開示の実施形態を実現するためのコンピュータソフトウェアの使用範囲又は機能に制限を加えることを意図するものではない。コンポーネントの配置はコンピュータシステム(1100)の例示的な実施例に示されるコンポーネントのいずれか又はそれらの組み合わせに関する依存性又は要件を有するものとして解釈されるべきではない。
コンピュータシステム(1100)は、いくつかのヒューマンマシンインタフェース入力デバイスを含み得る。このようなヒューマンマシンインタフェース入力デバイスは、例えば、触覚入力(例えば、キーストローク、スワイプ、データグローブの移動)、オーディオ入力(例えば、音声、拍手)、視覚入力(例えば、姿勢)、嗅覚入力(図示せず)による1つ又は複数の人間のユーザの入力に応答してもよい。ヒューマンマシンインタフェースデバイスは、例えば、オーディオ(例えば、音声、音楽、環境音)、ピクチャ(例えば、スキャンした画像、静的画像撮影装置から取得された写真画像)、動画(例えば、2次元動画、ステレオ動画を含む3次元動画)などの、人間の意識的な入力に必ずしも直接関連しない特定のメディアをキャプチャするために使用されてもよい。
ヒューマンマシンインタフェース入力デバイスには、キーボード(1101)、マウス(1102)、トラックパッド(1103)、タッチスクリーン(1110)、データグローブ(図示せず)、ジョイスティック(1105)、マイク(1106)、スキャナー(1107)、カメラ(1108)のうちの1つ又は複数(それぞれが1つのみ図示される)を含んでもよい。
コンピュータシステム(1100)はさらに、いくつかのヒューマンマシンインタフェース出力デバイスを含んでもよい。このようなヒューマンマシンインタフェース出力デバイスは、例えば、触覚出力、音、光、及び嗅覚/味覚を通じて、1つ又は複数の人間のユーザの感覚を刺激することができる。このようなヒューマンマシンインタフェース出力デバイスには、触覚出力デバイス(例えば、タッチパネル(1110)、データグローブ(図示せず)、又はジョイスティック(1105)による触覚フィードバックデバイスであり、入力デバイスとして機能しない触覚フィードバックデバイスであってもよい)、オーディオ出力デバイス(例えば、スピーカー(1109)、ヘッドフォン(図示せず))、視覚出力デバイス(例えば、スクリーン(1110)であり、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含み、それぞれはタッチスクリーン入力機能がある場合とない場合、触覚フィードバック機能がある場合とない場合があり、そのうちのいくつかは、例えば、ステレオ画像出力、仮想現実眼鏡(図示せず)、ホログラフィックディスプレイとスモークタンク(図示せず)により2次元の視覚出力又は3次元以上の出力)、及びプリンター(図示せず)を出力できる場合がある。
コンピュータシステム1100は、さらに、人間がアクセス可能な記憶装置及びそれらの関連する媒体を含んでもよく、例えば、CD/DVDを有する又は媒体(1121)に類似するCD/DVD ROM/RW(1120)の光学媒体、サムドライブ(1122)、リムーバブルハードドライブ又はソリッドステートドライブ(1123)、レガシー磁気媒体(例えば、磁気テープやフロッピーディスク(図示せず))、専用ROM/ASIC/PLDに基づくデバイス(例えば、セキュリティドングル(図示せず))などを含んでもよい。
当業者はまた、ここで開示される主題に関連して使用される「コンピュータ可読媒体」という用語は、伝送媒体、搬送波、又は他の一時的な信号が含まれていないことを理解すべきである。
コンピュータシステム(1100)は1つ又は複数の通信ネットワークへのネットワークインターフェースをさらに含むことができる。ネットワークは、例えば、無線、有線、光であり得る。ネットワークは、さらに、ローカルエリアネットワーク、広域ネットワーク、メトロポリタンネットワーク、車両及び工業ネットワーク、リアルタイムネットワーク、遅延耐性ネットワークなどであり得る。ネットワークの例には、例えば、ローカルエリアネットワーク(例えば、イーサネット、無線LAN)、GSM、3G、4G、5G、LTEなどを含むセルラーネットワーク、ケーブルテレビ、衛星TV、及び地上放送TVを含む有線又は無線広域デジタルネットワーク、CANBusを含む車両及び工業ネットワークなどであってもよい。特定のネットワークは、通常、特定の汎用データポート又はペリフェラルバス(1149)(例えば、コンピュータシステムのUSBポート)の外部ネットワークインターフェイスアダプタに接続された必要がある。他のネットワークは、通常、以下に説明するように(例えば、PCコンピュータシステムへのイーサネットインターフェース又はスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)システムバスに接続することによってコンピュータシステム(1100)のコアに統合される。コンピュータシステム(1100)はこれらのネットワークのいずれかを使用して、他のエンティティと通信できる。このような通信は、単方向受信のみ(例えば、テレビ放送)、単方向の送信のみ(例えば、幾つかのCANバス装置へのCANバスへ)、又は双方向(例えば、ローカル又はワイドエリアデジタルネットワークを使用して他のコンピュータシステムまで)であってもよい。上記のようにこれらのネットワークとネットワークインターフェイスのそれぞれで特定のプロトコルとプロトコルスタックを使用できる。
以上で言及されたヒューマンマシンインタフェースデバイス、ヒューマンアクセス可能な記憶装置、及びネットワークインタフェースは、コンピュータシステム(1100)のコア(1140)に取り付けることができる。
コア(1140)には、1つ又は複数の中央処理装置(CPU)(1141)、グラフィックス処理ユニット(GPU)(1142)、フィールドプログラマブルゲートアレイ(FPGA)(1143)の形の専用なプログラマブル処理ユニット、特定のタスクに使用されるハードウェアアクセラレータ(1144)などを含んでもよい。これらのデバイス、読み取り専用メモリ(ROM)(1145)、ランダムアクセスメモリ(RAM)(1146)、例えばユーザがアクセスできない内部ハードドライブ、SSDなどの内部大容量ストレージ(1147)はシステムバス(1148)を介して接続されてもよい。一部のコンピュータシステムにおいて、システムバス(1148)に1つ又は複数の物理プラグの形でアクセスして、追加のCPU、GPUなどにより拡張を実現することができる。周辺機器は、コアのシステムバス(1148)に直接的、又は周辺バス(1149)を介して接続することができる。周辺バスのアーキテクチャは、PCI、USBなどを含む。
CPU(1141)、GPU(1142)、FPGA(1143)、及びアクセラレータ(1144)は、組み合わせて上記のコンピュータコードを構成することができる特定の命令を実行してもよい。当該コンピュータコードは、ROM(1145)又はRAM(1146)に記憶されてもよい。一時的なデータもRAM(1146)に記憶されてもよく、永続的なデータは、例えば内部大容量記憶装置(1147)に記憶されてもよい。バッファメモリにより、記憶装置のうちのいずれかへの高速ストレージと検索を実現することができ、当該バッファメモリは、1つ又は複数のCPU(1141)、GPU(1142)、大容量記憶装置(1147)、ROM(1145)、RAM(1146)などと密接に関連することができる。
コンピュータ可読媒体は、コンピュータが実現する様々な動作を実行するためのコンピュータコードを有してもよい。媒体とコンピュータコードとは、本開示の目的のために、特別に設計及び構築される媒体とコンピュータコードであってもよいし、又はそれらは、コンピュータソフトウェアの当業者によって知られ且つ利用可能なタイプのものであってもよい。
例として限定ではなく、アーキテクチャを有するコンピュータシステム(1100)、特にコア(1040)は、(1つ又は複数の)プロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)が1つ又は複数の有形コンピュータ可読媒体に実施されるソフトウェアを実行する結果として提供される機能を提供することができる。このようなコンピュータ可読媒体は、以上に前記したユーザがアクセス可能な大容量記憶装置、及びコア(1140)のいくつかの非一時的な性質を有するストレージ例えばコア内部大容量記憶装置(1147)又はROM(1145)に関連する媒体であってもよい。本開示の様々な実施形態を実現するソフトウェアはこのようなデバイスに記憶され、コア(1140)によって実行されてもよい。特定のニーズに応じて、コンピュータ可読媒体には1つ又は複数のメモリ又はチップが含まれてもよい。ソフトウェアは、コア(1140)、特にそのうちのプロセッサ(CPU、GPU、FPGAなどを含む)に、本明細書で説明される特定のプロセス又は特定のプロセスの特定の部分を実行させ、ソフトウェアによって定義されたプロセスによりRAM(1146)に記憶されるデータ構造を定義し、このようなデータ構造を修正することを含む。さらに又は代わりとして、コンピュータシステムは、ロジックハードワイヤードによって提供される、又は、他の方式で回路(例えば、アクセラレータ(1144)に具現化される機能を提供することができ、当該回路は、ソフトウェアの代わりとして、又はソフトウェアとともに運行することで、本明細書で説明される特定のプロセス又は特定のプロセスの特定部分を実行できる。適切な場合、ソフトウェアに対する言及にはロジックが含まれ、逆に、ロジックに対する言及にはソフトウェアが含まれてもよい。コンピュータ可読媒体への言及は、必要に応じて、実行用ソフトウェアを格納する回路(例えば、集積回路(IC)など)、実行用論理を実施する回路、又はその両方を包含することができる。本開示は、ハードウェアとソフトウェアとの任意の適切な組み合わせを包含する。
付録A:頭字語
JEM:共同探査モデル
VVC:多用途動画符号化
BMS:ベンチマークセット
MV:動きベクトル
HEVC:高効率動画符号化
SEI:補助拡張情報
VUI:動画ユーザビリティ情報
GOP:ピクチャグループ
TU:変換ユニット
PU:予測ユニット
CTU:符号化ツリーユニット
CTB:符号化ツリー領域
PB:予測ブロック
HRD:仮想参照デコーダ
SNR:信号対雑音比
CPU:中央処理ユニット
GPU:グラフィックス処理ユニット
CRT:陰極線管
LCD:液晶ディスプレイ
OLED:有機発光ダイオード
CD:コンパクトディスク
DVD:デジタル動画ディスク
ROM:読み取り専用メモリ
RAM:ランダムアクセスメモリ
ASIC:特定用途向け集積回路
PLD:プログラマブルロジックデバイス
LAN:ローカルネットワーク
GSM:モバイル通信のグローバルシステム
LTE:ロング・ターム・エヴォリューション
CANBus:コントローラエリアネットワークバス
USB:ユニバーサルシリアルバス
PCI:周辺コンポーネント相互接続
FPGA:フィールドプログラマブルゲートアレイ
SSD:ソリッドステートドライブ
IC:集積回路
CU:符号化ユニット
この開示は、いくつかの例示的な実施例を説明したが、本開示の範囲内に含まれる変更、置換、及び様々な代替均等物が存在する。従って、本明細書では明示的に示されていないか、又は記載されていないが、本開示の内容を具現化し、従って本開示の精神及び範囲内にある多数のシステム及び方法を当業者が考案できることが認識される。









Claims (17)

  1. 点群解凍用方法であって、
    プロセッサが符号化ビットストリームから点群の予測情報を復号化するステップと、
    前記プロセッサが前記符号化ビットストリームから復号化された前記点群のジオメトリ画像に基づいて、ジオメトリ再構築クラウドを再構築するステップと、
    前記プロセッサが、平滑化されたジオメトリ再構築クラウドを生成するように、前記ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくとも前記ブロック内のジオメトリサンプルに対してフィルタを適用するステップと、
    前記プロセッサが前記平滑化されたジオメトリ再構築クラウドに基づいて前記点群の点を再構築するステップとを含む方法。
  2. 前記プロセッサが前記ブロック内の閾値レベルよりも高いレベルを有する高周波成分の領域を選択するステップをさらに含む請求項1に記載の方法。
  3. 前記プロセッサが前記ブロック内の閾値レベルよりも高いレベルを有する動きコンテンツの領域を選択するステップをさらに含む請求項1に記載の方法。
  4. 前記プロセッサが前記ジオメトリ再構築クラウドの深度値に基づいて前記ブロック内のエッジを検出するステップをさらに含む請求項2に記載の方法。
  5. 前記プロセッサが前記ジオメトリ画像内の対応する画素の動き情報に基づいて、前記ブロック内の点を選択するステップをさらに含む請求項3に記載の方法。
  6. 前記予測情報は、前記点群のブロック内で選択的平滑化を適用することを指示するフラグを含む請求項1~5のいずれか1項に記載の方法。
  7. 前記予測情報は、前記ブロック内の点を選択するための特定のアルゴリズムを指示する請求項6に記載の方法。
  8. 前記予測情報は、前記特定のアルゴリズムに用いるパラメータを含む請求項7に記載の方法。
  9. 点群圧縮用方法であって、
    プロセッサが、点群に関連付けられたジオメトリ画像を圧縮するステップと、
    前記プロセッサが、圧縮された点群のジオメトリ画像に基づいてジオメトリ再構築クラウドを再構築するステップと、
    前記プロセッサが、平滑化されたジオメトリ再構築クラウドを生成するように、前記ジオメトリ再構築クラウドのブロックの境界サンプルに加えて、少なくとも前記ブロック内のジオメトリサンプルに対してフィルタを適用するステップと、
    前記プロセッサが、前記平滑化されたジオメトリ再構築クラウドに基づいて前記点群のテクスチャ画像を生成するステップとを含む方法。
  10. 前記プロセッサが前記ブロック内の閾値レベルよりも高いレベルを有する高周波成分の領域を選択するステップをさらに含む請求項9に記載の方法。
  11. 前記プロセッサが前記ブロック内の閾値レベルよりも高いレベルを有する動きコンテンツの領域を選択するステップをさらに含む請求項9に記載の方法。
  12. 前記プロセッサが前記ジオメトリ再構築クラウドの深度値に基づいて前記ブロック内のエッジを検出するステップをさらに含む請求項10に記載の方法。
  13. 前記プロセッサが前記ジオメトリ画像内の対応する画素の動き情報に基づいて前記ブロック内の点を選択するステップをさらに含む請求項11に記載の方法。
  14. 前記圧縮された点群の符号化ビットストリームには、前記点群のブロック内で選択的平滑化を適用することを指示するフラグを含む請求項9~13の何れか1項に記載の方法。
  15. 前記圧縮された点群の符号化ビットストリームには、前記ブロック内の、前記選択的平滑化が適用される点を選択するための特定のアルゴリズムを指示するインジケーターを含む請求項14に記載の方法。
  16. 請求項1~8のうちの何れか1項に記載の方法を実行する処理回路を有する装置。
  17. 請求項9~15のうちの何れか1項に記載の方法を実行する処理回路を有する装置。
JP2021534389A 2019-03-01 2020-02-28 点群解凍用方法、点群圧縮用方法及び装置 Active JP7112600B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962812964P 2019-03-01 2019-03-01
US62/812,964 2019-03-01
US16/803,619 US11272158B2 (en) 2019-03-01 2020-02-27 Method and apparatus for point cloud compression
US16/803,619 2020-02-27
PCT/US2020/020474 WO2020180721A1 (en) 2019-03-01 2020-02-28 Method and apparatus for point cloud compression

Publications (2)

Publication Number Publication Date
JP2022514548A JP2022514548A (ja) 2022-02-14
JP7112600B2 true JP7112600B2 (ja) 2022-08-03

Family

ID=72236233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021534389A Active JP7112600B2 (ja) 2019-03-01 2020-02-28 点群解凍用方法、点群圧縮用方法及び装置

Country Status (5)

Country Link
US (2) US11272158B2 (ja)
EP (1) EP3854097A4 (ja)
JP (1) JP7112600B2 (ja)
CN (1) CN113519163B (ja)
WO (1) WO2020180721A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
US11138694B2 (en) 2018-12-05 2021-10-05 Tencent America LLC Method and apparatus for geometric smoothing
US11127166B2 (en) * 2019-03-01 2021-09-21 Tencent America LLC Method and apparatus for enhanced patch boundary identification for point cloud compression
US11334969B2 (en) * 2019-03-19 2022-05-17 Sony Group Corporation Point cloud geometry padding
CN114868389A (zh) * 2020-01-06 2022-08-05 Oppo广东移动通信有限公司 一种帧内预测方法、编码器、解码器及存储介质
US20230164353A1 (en) * 2020-04-22 2023-05-25 Lg Electronics Inc. Point cloud data processing device and processing method
WO2022067775A1 (zh) * 2020-09-30 2022-04-07 Oppo广东移动通信有限公司 点云的编码、解码方法、编码器、解码器以及编解码系统
CN112435343B (zh) * 2020-11-24 2024-07-16 杭州荷尖科技合伙企业(有限合伙) 点云数据处理方法和装置、电子设备及存储介质
US11949909B2 (en) 2020-12-29 2024-04-02 Qualcomm Incorporated Global motion estimation using road and ground object labels for geometry-based point cloud compression
US11804007B2 (en) * 2021-03-31 2023-10-31 Disney Enterprises, Inc. 3D digital model surface rendering and conversion
WO2023182764A1 (ko) * 2022-03-21 2023-09-28 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법.

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034253A1 (en) 2016-08-19 2018-02-22 Mitsubishi Electric Corporation Method, encoder system and non-transitory computer readable recording medium storing thereon program for encoding point cloud of representing scene
US20180189982A1 (en) 2017-01-02 2018-07-05 Canon Kabushiki Kaisha Attribute mapping to encode and decode 3d models
JP2018534881A (ja) 2016-01-22 2018-11-22 三菱電機株式会社 点群を圧縮する方法
JP2022511871A (ja) 2019-03-01 2022-02-01 テンセント・アメリカ・エルエルシー 符号化された映像ストリームを映像点群符号化を使用して復号するための方法、装置、媒体、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9161039B2 (en) * 2012-09-24 2015-10-13 Qualcomm Incorporated Bitstream properties in video coding
ITUB20153724A1 (it) 2015-09-18 2017-03-18 Sisvel Tech S R L Metodi e apparati per codificare e decodificare immagini o flussi video digitali
US11297346B2 (en) 2016-05-28 2022-04-05 Microsoft Technology Licensing, Llc Motion-compensated compression of dynamic voxelized point clouds
WO2018105579A1 (ja) * 2016-12-09 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
CN110892453B (zh) 2017-07-10 2024-02-13 三星电子株式会社 使用图像/视频编解码器的点云和网格压缩
WO2019034607A1 (en) 2017-08-15 2019-02-21 Unilever N.V. APPARATUS AND METHOD FOR FILTRATION OF AQUEOUS LIQUID
US11405643B2 (en) 2017-08-15 2022-08-02 Nokia Technologies Oy Sequential encoding and decoding of volumetric video
BR112020002205A2 (pt) * 2017-08-22 2020-07-28 Panasonic Intellectual Property Corporation Of America codificador de imagem, decodificador de imagem, método de codificação de imagem e método de decodificação de imagem
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10762592B2 (en) * 2018-07-31 2020-09-01 Intel Corporation Point-based rendering and removal of projection noise

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534881A (ja) 2016-01-22 2018-11-22 三菱電機株式会社 点群を圧縮する方法
WO2018034253A1 (en) 2016-08-19 2018-02-22 Mitsubishi Electric Corporation Method, encoder system and non-transitory computer readable recording medium storing thereon program for encoding point cloud of representing scene
US20180189982A1 (en) 2017-01-02 2018-07-05 Canon Kabushiki Kaisha Attribute mapping to encode and decode 3d models
JP2022511871A (ja) 2019-03-01 2022-02-01 テンセント・アメリカ・エルエルシー 符号化された映像ストリームを映像点群符号化を使用して復号するための方法、装置、媒体、およびプログラム

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GUIGANG SHI, et al.,"Research and Implementation for Scattered Point Cloud Data Denoising Method",International Journal of Earth Sciences and Engineering,[online],2016年10月,Vol.9, No.5,Pages 2273-2277,[令和4年6月23日検索], インターネット, <URL: https://www.academia.edu/31008254/Research_and_Implementation_for_Scattered_Point_Cloud_Data_Denoising_Method>,ISSN: 0974-5904.
Nahid Sheikhi-Pour, et al.,"Efficient 2D Video Coding of Volumetric Video Data",Proceedings of 2018 7th European Workshop on Visual Information Processing (EUVIP),2018年11月28日,Pages 1-5,ISBN: 978-1-5386-6897-9, <DOI: 10.1109/EUVIP.2018.8611742>.
Qualcomm Incorporated (Rapporteur),"FS_XR5G: Permanent document, v0.2",S4-181472,[online], 3GPP TSG-SA4 Meeting 101,2018年11月23日,Pages 1-3, 10 and 16-19,[令和4年6月21日検索], インターネット, <URL: https://www.3gpp.org/ftp/TSG_SA/WG4_CODEC/TSGS4_101_Busan/Docs/S4-181472.zip>.
XU Yiling, et al.,"Introduction to Point Cloud Compression",ZTE COMMUNICATIONS,[online],2018年08月24日,Vol.16, No.3,Pages 3-8,[令和4年6月22日検索], インターネット, <URL: https://res-www.zte.com.cn/mediares/magazine/publication/com_en/article/201803/XUYiling.pdf>,<DOI: 10.19729/j.cnki.1673-5188.2018.03.002>.
西尾 孝治(外4名),「点群データを対象とする情報変換の一手法」,情報処理学会第69回(平成19年)全国大会講演論文集(4),日本,社団法人 情報処理学会,2007年03月06日,第4-41~4-42頁.

Also Published As

Publication number Publication date
EP3854097A1 (en) 2021-07-28
US20220070430A1 (en) 2022-03-03
JP2022514548A (ja) 2022-02-14
WO2020180721A1 (en) 2020-09-10
EP3854097A4 (en) 2021-11-17
US20200280710A1 (en) 2020-09-03
CN113519163A (zh) 2021-10-19
US11272158B2 (en) 2022-03-08
CN113519163B (zh) 2024-02-20
US11671577B2 (en) 2023-06-06

Similar Documents

Publication Publication Date Title
JP7112600B2 (ja) 点群解凍用方法、点群圧縮用方法及び装置
JP7478816B2 (ja) ポイントクラウドコーディングのための方法及び装置
CN111641836B (zh) 点云压缩的方法、装置、计算机设备和存储介质
JP7027617B2 (ja) ビデオエンコーディング及びデコーディングのための方法、装置、コンピュータプログラム、及び非一時的なコンピュータ可読媒体
US11210813B2 (en) Method and apparatus for point cloud compression
US11113866B2 (en) Method and apparatus for point cloud compression
CN111641834B (zh) 点云编码的方法和装置、计算机设备和存储介质
JP7325534B2 (ja) 点群符号化のための方法および装置
JP7141535B2 (ja) 点群圧縮の方法および装置
JP7061680B2 (ja) ビデオ符号化において縮減された前のラインバッファを使用するインター予測の方法及び装置
JP2023513140A (ja) 点群コーディングのための方法、装置、およびコンピュータプログラム
JP2021517394A5 (ja)
JP7544973B2 (ja) 動的メッシュ圧縮のための方法および装置
JP7504298B2 (ja) 3次元(3d)メッシュのuv座標を処理するための方法、装置及びコンピュータプログラム
RU2792020C1 (ru) Способ и устройство для кодирования облака точек
CN118202393A (zh) Uv坐标范围和纹理图大小

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150