JP2023550110A - 動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム - Google Patents

動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム Download PDF

Info

Publication number
JP2023550110A
JP2023550110A JP2023530054A JP2023530054A JP2023550110A JP 2023550110 A JP2023550110 A JP 2023550110A JP 2023530054 A JP2023530054 A JP 2023530054A JP 2023530054 A JP2023530054 A JP 2023530054A JP 2023550110 A JP2023550110 A JP 2023550110A
Authority
JP
Japan
Prior art keywords
sample
map
mesh
sample locations
occupancy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023530054A
Other languages
English (en)
Inventor
シャン・ジャン
チャオ・フアン
シャオジョン・シュ
ジュン・ティアン
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2023550110A publication Critical patent/JP2023550110A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Figure 2023550110000001
サンプリングベースの動的メッシュ圧縮のための方法、装置、およびシステムが提供される。プロセスは、1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定するステップを含むことができ、1つまたは複数のサンプル位置のそれぞれが入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示す、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況が決定される。プロセスは、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいてサンプルベースの占有マップを生成するステップを含むことができる。

Description

関連出願の相互参照
本出願は、2021年8月16日に出願された米国仮特許出願第63/233,475号および2022年8月15日に出願された米国特許出願第17/887,918号の優先権を主張し、これらの開示はその全体が参照により本明細書に組み込まれる。
本開示は、高度なビデオコーディング技術のセットに関する。より詳細には、本開示は、ビデオベースの動的メッシュ圧縮(dynamic mesh compression)に関する。
世界の高度な3次元(3D)表現により、さらに没入型の相互作用および通信が可能になっている。3D表現の臨場感を実現するために、3Dモデルは、これまで以上に洗練されてきており、かなりの量のデータがこれらの3Dモデルの作成および消費に結び付けられる。3Dメッシュが3Dモデル没入型コンテンツに広く使用される。
3Dメッシュは、ボリュームオブジェクト(volumetric object)の表面を記述するいくつかの多角形(polygons)から構成され得る。動的メッシュシーケンスは、これが経時的に変化するかなりの量の情報を有し得るので、大量のデータを必要とする場合がある。したがって、そのようなコンテンツを保存しかつ送信するために効率的な圧縮技術が必要となる。
メッシュ圧縮規格IC、MESHGRID、FAMCは、常時接続性および時変ジオメトリおよび頂点属性を有する動的メッシュに対処するために以前に開発された。しかしながら、これらの規格は、時変属性マップおよび接続性情報を考慮していない。
さらに、特にリアルタイム制約下で、ボリューム取得技術が常時接続性動的メッシュを生成することも困難である。この種の動的メッシュコンテンツは、既存の規格ではサポートされない。
諸実施形態によれば、サンプリングベースの動的メッシュ圧縮の方法が提供され得る。本方法は、少なくとも1つのプロセッサによって実行されてもよく、1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定するステップと、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定するステップであって、占有状況は、1つまたは複数のサンプル位置のそれぞれが入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示す、ステップと、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいてサンプルベースの占有マップを生成するステップと、ビデオコーデックを使用してサンプルベースの占有マップを複数の単一チャネルまたは多チャネル画像に圧縮するステップと、を含むことができる。
諸実施形態によれば、サンプリングベースの動的メッシュ圧縮のための装置が提供され得る。本装置は、プログラムコードを記憶するように構成された少なくとも1つのメモリと、プログラムコードを読み出し、プログラムコードによって命令されるように動作するように構成された少なくとも1つのプロセッサと、を含むことができる。本プログラムコードは、少なくとも1つのプロセッサに、1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定させるように構成された第1の決定コードと、少なくとも1つのプロセッサに、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定させるように構成された第2の決定コードであって、占有状況が、1つまたは複数のサンプル位置のそれぞれが入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示す、第2の決定コードと、少なくとも1つのプロセッサに、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいてサンプルベースの占有マップを生成させるように構成された第1の生成コードと、少なくとも1つのプロセッサに、ビデオコーデックを使用してサンプルベースの占有マップを複数の単一チャネル画像または多チャネル画像に圧縮させるように構成された圧縮コードと、を含むことができる。
諸実施形態によれば、コンピュータ命令を記憶する非一時的コンピュータ可読媒体が提供され得る。本命令は、サンプリングベースの動的メッシュ圧縮のための装置の1つまたは複数のプロセッサによって実行されるときに、1つまたは複数のプロセッサに、1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定させ、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定させ、占有状況は、1つまたは複数のサンプル位置のそれぞれが入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示し、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいてサンプルベースの占有マップを生成させ、ビデオコーデックを使用してサンプルベースの占有マップを複数の単一チャネルまたは多チャネル画像に圧縮させる1つまたは複数の命令を含むことができる。
開示された主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかなるであろう。
本開示の実施形態による、通信システムの簡略化されたブロック図の概略図である。 本開示の実施形態による、ストリーミングシステムの簡略化されたブロック図の概略図である。 本開示の実施形態による、ビデオエンコーダおよびデコーダの簡略化されたブロック図の概略図である。 本開示の実施形態による、メッシュの2Dアトラスサンプリングの例示的な図である。 本開示の実施形態による、メッシュにおける接続性の例示的な図である。 本開示の実施形態による、再構成されたメッシュの例示的な図である。 本開示の実施形態による、サンプリングを使用したメッシュ圧縮を示す流れ図である。 本開示の実施形態による、メッシュ再構成を示す流れ図である。 実施形態を実施するのに適したコンピュータシステムの図である。
メッシュは、ボリュームオブジェクトの表面を記述するいくつかの多角形から構成され得る。3D空間内のメッシュの頂点および頂点がどのように接続されているかの情報は、接続性情報と呼ばれる各多角形を画定することができる。随意に、色や法線などの頂点属性は、メッシュ頂点に関連することができる。属性は、メッシュを2D属性マップでパラメータ化するマッピング情報を利用することにより、メッシュの表面にも関連することができる。そのようなマッピングは、UV座標またはテクスチャ座標と呼ばれ、メッシュ頂点に関連するパラメトリック座標のセットを使用して定義され得る。テクスチャ、法線、変位などの高解像度属性情報を保存するために2D属性マップが使用され得る。高解像度属性情報は、テクスチャマッピングやシェーディングなどの様々な目的に使用され得る。
上記のように、3Dメッシュまたは動的メッシュは、これが経時的に変化するかなりの量の情報からなり得るので、大量のデータを必要とする場合がある。既存の規格は、時変属性マップおよび接続性情報を考慮していない。既存の規格はまた、特にリアルタイム条件下で、常時接続性動的メッシュを生成するボリューム取得技法をサポートしていない。
したがって、時変接続性情報および随意に時変属性マップを有する動的メッシュを直接処理するための新たなメッシュ圧縮規格が必要とされる。本開示の諸実施形態は、そのような動的メッシュを保存および送信するための効率的な圧縮技術を可能にする。本開示の実施形態は、リアルタイム通信、記憶、自由視点ビデオ、ARおよびVRなどの様々なアプリケーションのための不可逆圧縮および/または可逆圧縮を可能にする。
本開示の一態様によれば、動的メッシュ圧縮のための方法、システム、および非一時的記憶媒体が提供される。本開示の実施形態はまた、メッシュの1つのフレームまたはメッシュコンテンツのみが経時的に変化しない静的メッシュにも適用され得る。
図1および図2を参照すると、本開示の符号化構造および復号化構造を実施するための本開示の一実施形態が説明される。
図1は、本開示の一実施形態による通信システム100の簡略化されたブロック図を示す。システム100は、ネットワーク150を通じて相互接続された少なくとも2つの端末110、120を含むことができる。データの単方向送信の場合、第1の端末110は、ネットワーク150を通じて他の端末120に送信するために、ローカルロケーションでメッシュデータを含み得るビデオデータをコード化することができる。第2の端末120は、ネットワーク150から他の端末のコード化されたビデオデータを受信し、コード化されたデータを復号し、復元されたビデオデータを表示することができる。単方向データ送信は、メディア提供用途などで一般的であり得る。
図1は、例えばビデオ会議中に行われ得るコード化されたビデオの双方向伝送をサポートするために設けられた第2の端末対130、140を示す。データの双方向送信の場合、各端末130、140は、ネットワーク150を通じて他の端末に送信するために、ローカルロケーションで取り込まれたビデオデータをコード化することができる。各端末130、140はまた、他の端末によって送信されたコード化されたビデオデータを受信することができ、コード化されたデータを復号することができ、復元されたビデオデータをローカル表示装置に表示することができる。
図1では、端末110~140は、例えば、サーバ、パーソナルコンピュータ、およびスマートフォン、ならびに/あるいは他のタイプの端末とすることができる。例えば、端末(110~140)は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、および/または専用ビデオ会議機器とすることができる。ネットワーク150は、例えば、有線および/または無線通信ネットワークを含む、端末110~140の間でコード化されたビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク150は、回線交換チャネルおよび/またはパケット交換チャネルでデータを交換することができる。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはインターネットが含まれる。本解説の目的のために、ネットワーク150のアーキテクチャおよびトポロジは、本明細書で以下に説明されない限り、本開示の動作にとって重要ではない場合がある。
図2は、開示された主題の用途の一例として、ストリーミング環境におけるビデオエンコーダおよびデコーダの配置を示す。開示された主題は、例えば、ビデオ会議、デジタルTV、CD、DVD、メモリスティックなどを含むデジタル媒体への圧縮ビデオの保存などを含む、他のビデオ対応アプリケーションで使用され得る。
図2に示すように、ストリーミングシステム200は、ビデオソース201およびエンコーダ203を含むキャプチャサブシステム213を含むことができる。ストリーミングシステム200は、少なくとも1つのストリーミングサーバ205および/または少なくとも1つのストリーミングクライアント206をさらに含むことができる。
ビデオソース201は、例えば、3Dメッシュおよび3Dメッシュに関連するメタデータを含むストリーム202を作成することができる。ビデオソース201は、例えば、3Dセンサ(例えば、深度センサ)または3D撮像技術(例えば、デジタルカメラ(複数可))と、3Dセンサから受信されたデータまたは3D撮像技術を使用して3Dメッシュを生成するように構成された計算装置と、を含むことができる。サンプルストリーム202は、符号化されたビデオビットストリームに比べて大きいデータ量を有し得るものであり、ビデオソース201に結合されたエンコーダ203によって処理することができる。エンコーダ203は、以下でより詳細に説明するように、開示された主題の態様を可能にするかまたは実施するために、ハードウェア、ソフトウェア、またはこれらの組合せを含むことができる。エンコーダ203は、符号化されたビデオビットストリーム204を生成することもできる。符号化されたビデオビットストリーム204は、圧縮されていないストリーム202に比べて小さいデータ量を有し得るものであり、将来使用するためにストリーミングサーバ205に保存することができる。1つまたは複数のストリーミングクライアント206は、符号化されたビデオビットストリーム204のコピーであり得るビデオビットストリーム209を検索するために、ストリーミングサーバ205にアクセスすることができる。
ストリーミングクライアント206は、ビデオデコーダ210およびディスプレイ212を含むことができる。ビデオデコーダ210は、例えば、符号化されたビデオビットストリーム204の着信コピーであるビデオビットストリーム209を復号し、ディスプレイ212または別のレンダリング装置(図示せず)上にレンダリングされ得る発信ビデオサンプルストリーム211を作成することができる。いくつかのストリーミングシステムでは、ビデオビットストリーム204、209は、特定のビデオコーディング/圧縮規格に従って符号化され得る。
図3は、エンコーダおよびデコーダを使用して動的メッシュ圧縮およびメッシュ再構成するためのフレームワーク300の例示的な図である。
図3に見られるように、フレームワーク300は、エンコーダ301およびデコーダ351を含むことができる。エンコーダ301は、1つまたは複数の入力メッシュ305、UVアトラスを有する1つまたは複数のメッシュ310、占有マップ315、ジオメトリマップ320、属性マップ325、およびメタデータ330を含むことができる。デコーダ351は、復号された占有マップ335、復号されたジオメトリマップ340、復号された属性マップ345、復号されたメタデータ350、および再構成されたメッシュ360を含むことができる。
本開示の一態様によれば、入力メッシュ305は、1つまたは複数のフレームを含むことができ、1つまたは複数のフレームはそれぞれ、一連の動作によって前処理され、UVアトラスを有するメッシュ310を生成するために使用され得る。一例として、前処理動作は、トラッキング、パラメータ化、再メッシュ化、ボクセル化などを含み得るが、これらに限定されなくてもよい。いくつかの実施形態では、前処理動作は、エンコーダ側でのみ実行され、デコーダ側では実行されなくてもよい。
UVアトラスを有するメッシュ310は、2Dメッシュとすることができる。UVアトラスを有する2Dメッシュは、メッシュの各頂点が2Dアトラス上のUV座標に関連し得るメッシュとすることができる。UVアトラスを有するメッシュ310は、サンプリングに基づいて処理され、複数のマップに変換され得る。一例として、UVアトラス310は、UVアトラスを有する2Dメッシュをサンプリングすることに基づいて処理され、占有マップ、ジオメトリマップ、および属性マップに変換され得る。生成された占有マップ335、ジオメトリマップ340、および属性マップ345は、適切なコーデック(例えば、HVEC、VVC、AV1など)を使用して符号化され、デコーダに送信され得る。いくつかの実施形態では、メタデータ(例えば、接続性情報など)もデコーダに送信され得る。
一態様によれば、デコーダ351は、エンコーダから符号化された占有マップ、ジオメトリマップ、および属性マップを受信することができる。デコーダ315は、本明細書に記載の実施形態に加えて、占有マップ、ジオメトリマップ、および属性マップを復号するために適切な技法および方法を使用することができる。一実施形態では、デコーダ351は、復号された占有マップ335、復号されたジオメトリマップ340、復号された属性マップ345、および復号されたメタデータ350を含むことができる。入力メッシュ305は、復号された占有マップ335、復号されたジオメトリマップ340、復号された属性マップ345、および復号されたメタデータ350に基づいて、1つまたは複数の再構成フィルタおよび技法を使用して再構成されたメッシュ360に再構成され得る。いくつかの実施形態では、メタデータ330はデコーダ351に直接送信されてもよく、デコーダ351は、復号された占有マップ335、復号されたジオメトリマップ340、および復号された属性マップ345に基づいて再構成されたメッシュ360を生成するために、メタデータを使用することができる。再メッシュ化、パラメータ化、トラッキング、ボクセル化などを含むが、これらに限定されないポストフィルタリング技法が、再構成されたメッシュ360に適用されてもよい。
2D UVアトラスを有する入力メッシュは頂点を有することができ、メッシュの各頂点は、2Dアトラス上の関連するUV座標を有することができる。占有マップ、ジオメトリマップ、および属性マップは、UVアトラス上の1つまたは複数の点/位置をサンプリングすることによって生成され得る。各サンプル位置は、その位置がメッシュ頂点によって画定された多角形の内側にある場合、占有されていても占有されていなくてもよい。各占有サンプルについて、関連する多角形頂点から補間することにより、そのサンプルの対応する3Dジオメトリ座標および属性を計算することができる。
本開示の一態様によれば、サンプリングレートは、2Dアトラス全体にわたって一貫していてもよい。いくつかの実施形態では、u軸およびv軸のサンプリングレートは異なっていてもよく、異方性再メッシュ化を可能にする。いくつかの実施形態では、2Dアトラス全体は、スライスやタイルなどの複数の領域に分割されてもよく、そのような各領域は異なるサンプリングレートを有することができる。
本開示の一態様によれば、各領域(または2Dアトラス全体)のサンプリングレートは、以下に限定されるものではないが、シーケンスヘッダ、フレームヘッダ、スライスヘッダなどを含む高レベルシンタックスで信号伝達され得る。いくつかの実施形態では、各領域(または2Dアトラス全体)のサンプリングレートは、エンコーダとデコーダの両方によって仮定されている予め確立されたレートのセットから選択され得る。エンコーダとデコーダの両方によって知られている予め確立されたレートのセットのため、1つの特定のサンプリングレートのシグナリングは、予め確立されたレートセット内のインデックスを信号で送ることのみを必要とする。そのような予め確立されたセットの例が、2画素ごと、4画素ごと、8画素ごとなどであり得る。いくつかの実施形態では、メッシュフレームの各領域(または2Dアトラス全体)のサンプリングレートは、予め確立されたレートセットから、同じフレームの他の既にコード化された領域内での以前に使用されたサンプリングレートから、または他の既にコード化されたメッシュフレーム内での以前に使用されたサンプリングレートから予測され得る。
いくつかの実施形態では、各領域(または2Dアトラス全体)のサンプリングレートは、各領域(または2Dアトラス全体)の何らかの特性に基づくことができる。一例として、サンプルレートはアクティビティに基づくことができ、リッチテクスチャード領域(rich-textured region)(または2Dアトラス全体)、または高アクティビティの領域(または2Dアトラス全体)の場合、サンプルレートは高く設定することができる。別の例として、滑らかな領域(または2Dアトラス全体)、または低アクティビティの領域(または2Dアトラス全体)の場合、サンプルレートは低く設定することができる。
いくつかの実施形態では、メッシュフレームの各領域(または2Dアトラス全体)のサンプリングレートは、予測と直接シグナリングとを組み合わせることが可能にされ得るように信号伝達され得る。シンタックスは、サンプリングレートが予測されるか直接信号で送られるかを指示するように構成され得る。予測される場合、どの予測子サンプリングレートが使用されるべきかがさらに信号で送られ得る。直接信号で送られる場合、レートの値を表すべきシンタックスは信号で送られ得る。
図4は、本開示の実施形態による、三角形メッシュ400の2Dアトラスサンプリングの例示的な図である。
図4に見られるように、三角形メッシュ400は、複数の位置および頂点を有することができ、各整数画素は単に円として表される。他の表現形態が使用されてもよい。
、V、...、Vをメッシュ上の多角形の頂点とすると、Dは各多角形の形状を定義する。三角形メッシュの場合、Dは3に等しい、すなわち、各三角形は3つの頂点を有する。一般性を失うことなく、本開示の残りの部分では、メッシュは三角形メッシュから構成される、すなわちD=3と仮定する。
各頂点Vについて、その頂点のUV座標は(u,v)で表され、その頂点の3D位置は(x,y,z)で表され、その頂点の他の属性(色および法線など)はaで表わされ得る。頂点のUV座標、すなわち(u,v)は、整数位置または小数位置にあってもよい。入力メッシュの2D UVアトラスマップは、W×Hのサイズであってもよく、Aは、座標(u,v)を有する2D UVアトラスマップ上のサンプル点であってもよい。Aがその3つの頂点V、V、VのUV座標(u,v)によって定義されるメッシュの三角形の内側にある場合、Aは、占有されているとマークを付けることができ、そうでなければ、占有されていないとマークを付けることができる。
本開示の一態様によれば、占有マップが、2D UVアトラスマップ(時にはメッシュ)をサンプリングすることに基づいて生成され得る。占有マップ上の点および/または位置の接続性は、(例えば、メタデータを使用して、またはSPSやPPSなどで)信号伝達され得るか、またはデコーダによって推測され得る。接続性の向き(時計回りまたは反時計回り)は、シーケンスヘッダやスライスヘッダなどの高レベルシンタックスで信号伝達されるか、エンコーダおよびデコーダによって固定(想定)されるかのどちらかでよい。
一実施形態では、1チャネルバイナリ占有マップが、2Dマップ上のすべてのサンプリング点をスキャンすることによって生成され得る。1チャネルバイナリ占有マップ上の各点は、サンプル点が任意の三角形(メッシュ多角形の形状)の内側にあるか否かを示すことができる。一実施形態では、1チャネル非バイナリ占有マップが生成され得る。一例として、サンプル点が頂点位置または境界に属するかどうかを示すために他の値を使用する。異なるチャネルが異なる指示を有することができる多チャネル占有マップが生成され得る。いくつかの実施形態では、頂点位置のみを有する占有マップが生成され得る。これらの頂点の接続性は、デコーダに信号で送られるか、デコーダによって推測されるかのどちらかでよい。
占有マップは、任意の適切な画像コーデックおよびビデオコーデックによって圧縮され得る。占有マップは、単一チャネル画像または多チャネル画像、例えば、YUV420、YUV400、YUV444、RGB 444などとして圧縮され得る。占有マップはまた、バイナリ画像または任意のビット深度画像、例えば、1ビット、2ビット、8ビット、12ビット、16ビットなどとして圧縮され得る。占有マップは、不可逆コーデックまたは可逆コーデックによって圧縮され得る。
本開示の一態様によれば、ジオメトリマップが、2D UVアトラスマップ(時にはメッシュ)をサンプリングすることに基づいて生成され得る。RGB色を有する通常の画像とは異なり、ジオメトリ画像が、それらのチャネルに対応するサンプル点の3Dジオメトリ座標を保存することができる。各占有サンプル点Aについて、その3Dジオメトリ位置は、三角形の3つの頂点(V、V、V)によって補間され得る。ここで、任意の適切な補間方法が採用され得る。例えば、重心ベースの方法が、Aの3Dジオメトリ位置を推定するために使用され得る。
一例として、(λ,λ,λ)が三角形(V,V,V)に対するAの重心座標であると仮定すると、下記
(u,v)=λ・(u,v)+λ・(u,v)+λ・(u,v)...式(1)
λ+λ+λ=1.…式(2)
UV座標と3D座標との間の線形関係について、Au,vの3D位置、すなわち(x,y,z)は、以下のように計算することができる。
(x,y,z)=λ・(x,y,z)+λ・(x,y,z)+λ・(x,y,z)...式(3)
いくつかの実施形態では、推定された3Dジオメトリ位置(x,y,z)は、画像コーデックおよびビデオコーデックによってコード化されるために符号なし整数に変換され得る。
非占有点Aの場合、その3Dジオメトリ位置(x,y,z)は任意の数とすることができる。いくつかの実施形態では、ジオメトリマップのコーディング効率を容易にするために、非占有点の3Dジオメトリ位置は、それらの空間的および時間的近傍に類似するように割り当てられてもよい。いくつかの実施形態では、非占有点の3Dジオメトリ位置に、ジオメトリ位置に対して不可能な値、例えば(-1,-1,-1)を割り当てることができ、その場合、占有マップは信号伝達されない可能性がある。
サンプリングされた位置に関連するジオメトリマップを生成するために、本開示の一態様によれば、3チャネルジオメトリマップ上の各点がその3Dジオメトリ位置を示す2Dマップ上のすべてのサンプリング点をスキャンすることにより、3チャネルジオメトリマップが生成され得る。一例として、第1のチャネルはx位置を示すことができ、第2のチャネルはy位置を示すことができ、第3のチャネルはz位置を示すことができる。いくつかの実施形態では、各マップが1つの軸線の3Dジオメトリ位置を示す3つの単一チャネルジオメトリマップが生成され得る。一例として、第1のマップはx位置を示すことができ、第2のマップはy位置を示すことができ、第3のマップはz位置を示すことができる。いくつかの実施形態では、投影面までの深さ(距離)を示す単一チャネルジオメトリマップが生成され得る。投影面は異なる三角形ごとに異なっていてもよく、その場合、投影面情報はサイド情報として信号伝達され得る。
本開示の一態様によれば、属性マップが、2D UVアトラスマップ(時にはメッシュ)をサンプリングすることに基づいて生成され得る。
各占有サンプル点Aは属性を有することができ、その属性(例えば、法線、色)は三角形の3つの頂点(V、V、V)によって補間され得る。任意の適切な補間方法が採用され得る。
一例として、(λ,λ,λ)が三角形(V,V,V)に対するAの重心座標であると仮定すると、下記
(u,v)=λ・(u,v)+λ・(u,v)+λ・(u,v)...式(1)
λ+λ+λ=1.…式(2)
u,vの属性値、すなわちaは、下記のようにして算出することができる。
=λ・a+λ・a+λ・a…式(4)
いくつかの実施形態では、各非占有点Aについて、その属性aは任意の数とすることができる。いくつかの実施形態では、属性マップのコーディング効率を容易にするために、非占有点の属性値は、それらの空間的および時間的近傍に類似するように割り当てられてもよい。いくつかの実施形態では、非占有点の属性値に、属性に対して不可能な値、例えば(-1,-1,-1)を割り当てることができ、その場合、占有マップは信号伝達されない可能性がある。
サンプリングされた位置に関連する属性マップを生成するために、本開示の一態様によれば、マップ上の各点がその属性値を示すNチャネル属性マップが、2Dマップ上のすべてのサンプリング点をスキャンすることによって生成され得る。一例として、色である属性の場合、第1のチャネルはR色を示すことができ、第2のチャネルはG色を示すことができ、第3のチャネルはB色を示すことができる。属性が法線である実施形態では、3つのチャネルは、x軸、y軸、およびz軸上の法線値とすることができる。いくつかの実施形態では、各マップが属性値を示すN個の単一チャネル属性マップが生成され得る。一例として、色である属性の場合、第1のマップはR色を示すことができ、第2のマップはG色を示すことができ、第3のマップはB色を示すことができる。いくつかの実施形態では、メッシュに関連するテクスチャマップは、追加の属性マップと見なされ、任意の適切な画像コーデックまたはビデオコーデックによってコード化され得る。
図5は、本開示の実施形態による、エンコーダが接続性情報を生成し、デコーダがメッシュを再構成するために使用され得るメッシュにおける接続性の例を示す。
デコーダは、占有マップ、ジオメトリマップ、および属性マップを復号した後でメッシュを再構成することができる。占有マップ上の各占有点について、デコーダはメッシュ上の頂点を復元することができ、点の対応するジオメトリおよび属性値は、復号されたジオメトリおよび属性マップ内の対応する位置から取得され得る。頂点の間の接続性情報は、占有位置から暗黙的に推測するか明示的に信号伝達するかのどちらかにより、デコーダによって復元され得る。
本開示の一態様によれば、入力メッシュおよび/または2D UVアトラスに関連する接続性情報は、特定の規則により、復号された占有マップ上の隣接する点の占有状況から暗黙的に推測され得る。接続性の向き(時計回りまたは反時計回り)は、シーケンスヘッダやスライスヘッダなどの高レベルシンタックスからパースされ得る、あるいはエンコーダおよびデコーダによって固定(想定)され得る。いくつかの実施形態によれば、再構成されたメッシュは、入力メッシュとは異なる接続性を有することができる。一例として、入力メッシュは三角形メッシュであってもよく、再構成されたメッシュは四角形メッシュであってもよい。
本開示の一態様によれば、復号された占有マップ上の4つの隣接する点ごとに、占有点の数が3以上である場合、4つの点の間の三角形の接続性は、特定の規則によって推測することができる。一例として、図5を参照すると、4つの点のうち3つが占有される場合、これらの点は、図5の例(2)~(5)のように三角形を形成するように直接接続することができる。一例として、4つの点がすべて占有される場合、これらの点は、図5の例(1)のように2つの三角形を形成することができる。いくつかの実施形態では、異なる数の隣接する点に異なる規則が適用され得る。
いくつかの実施形態では、4つの隣接する点がすべて占有されると、四角形メッシュが再構成され得る。いくつかの実施形態では、再構成されたメッシュはハイブリッド型メッシュであってもよく、例えば、メッシュフレーム内のいくつかの領域が三角形メッシュを生成し、他の領域は四角形メッシュを生成する。接続性タイプは、シーケンスヘッダやスライスヘッダなどの高レベルシンタックスで信号伝達され得る。
いくつかの実施形態では、明示的に信号伝達することにより、接続性情報も再構成され得る。暗黙的規則によって多角形が復元されることができない場合、エンコーダはビットストリーム内の接続性情報を(例えば、メタデータとして)信号で送ることができる。多角形の境界に応じてなど、明示的シグナリングのオーバーヘッドを低減するための任意の適切な手段が使用され得る。
図6は、図5に記載の暗黙的規則と明示的シグナリングとの組合せを使用して生成された再構成されたメッシュ600の例示的な図である。
図7は、本開示の実施形態による、サンプリングを使用してメッシュ2D UVアトラスを符号化するためのプロセス700を示す流れ図である。
動作705において、入力メッシュに関連する1つまたは複数のサンプル位置が、1つまたは複数のサンプリングレートに基づいて決定され得る。一例として、エンコーダ301が、1つまたは複数のサンプリングレートに基づいて入力メッシュ305に関連する1つまたは複数のサンプル位置を決定することができる。いくつかの実施形態では、エンコーダ301は、1つまたは複数のサンプリングレートに基づいて、UVアトラスを有する処理済みメッシュ310に関連する1つまたは複数のサンプル位置を決定することができる。
いくつかの実施形態では、1つまたは複数のサンプリングレートは、第1の軸線の第1のサンプリングレートおよび第2の軸線の第2のサンプリングレートに基づくことができる。いくつかの実施形態では、1つまたは複数のサンプリングレートは、高レベルシンタックスで信号伝達され得る。いくつかの実施形態では、1つまたは複数の領域のそれぞれに対する1つまたは複数の当該サンプリングレートは、1つまたは複数の領域の当該特性に基づくことができる。当該特性は、領域のテクスチャ、領域のアクティビティ、および領域の平滑性を含むことができる。いくつかの実施形態では、入力メッシュおよび/または処理済みメッシュは、1つまたは複数の領域に分割されてもよく、1つまたは複数のサンプリングレートは、1つまたは複数の領域のそれぞれに対する1つまたは複数の当該サンプリングレートに基づくことができる。いくつかの実施形態では、1つまたは複数のサンプリングレートは、隣接領域のサンプリングレートに基づくことができる。いくつかの実施形態では、1つまたは複数のサンプリングレートは、1つまたは複数の既にコード化されたメッシュフレームの以前の1つまたは複数のサンプリングレートに基づくことができる。
動作710において、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況が決定され得る。占有状況は、1つまたは複数のサンプル位置のそれぞれが入力メッシュおよび/または処理済みメッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示すことができる。動作715において、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいて、サンプルベースの占有マップが生成され得る。一例として、エンコーダ301は、動作305からの1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況に基づいてサンプルベースの占有マップ(例えば、占有マップ315)を生成することができる。
動作720において、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標が、入力メッシュによって画定された1つまたは複数の多角形の頂点に基づいて決定される。いくつかの実施形態では、処理済みメッシュが使用され得る。動作725において、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標に基づいて、サンプルベースのジオメトリマップが生成され得る。一例として、エンコーダ301が、入力メッシュ305および/または処理済みメッシュ(例えば、UVアトラスを有するメッシュ310)によって画定された1つまたは複数の多角形の頂点に基づいて、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標を決定することができる。次いで、エンコーダ301は、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標に基づいて、サンプルベースのジオメトリマップ(例えば、ジオメトリマップ320)を生成することができる。いくつかの実施形態では、サンプルベースのジオメトリマップは3つの単一チャネルジオメトリマップを含むことができ、3つの単一チャネルジオメトリマップの第1のマップが、1つまたは複数のサンプル位置のそれぞれに関連するx軸位置を示し、3つの単一チャネルジオメトリマップの第2のマップが、1つまたは複数のサンプル位置のそれぞれに関連するy軸位置を示し、3つの単一チャネルジオメトリマップの第3のマップが、1つまたは複数のサンプル位置のそれぞれに関連するz軸位置を示す。
動作730において、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値が、入力メッシュによって画定された1つまたは複数の多角形の頂点に基づいて決定され得る。次いで、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値は、動作335においてサンプルベースの属性マップを生成するために使用され得る。一例として、エンコーダ301は、入力メッシュ305および/または処理済みメッシュ(例えば、UVアトラスを有するメッシュ315)によって画定された1つまたは複数の多角形の頂点に基づいて、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値を決定することができる。次いで、エンコーダ301は、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値に基づいて、サンプルベースの属性マップ(例えば、属性マップ325)を生成することができる。いくつかの実施形態では、サンプルベースの属性マップは、nチャネル属性マップまたはn個の単一チャネル属性マップの一方とすることができる。
いくつかの実施形態では、エンコーダ301はまた、1つまたは複数の隣接するサンプル位置に関連する占有状況に基づいて、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する生成済み接続性情報を(例えば、メタデータ330の形態で)生成しかつ/または送信することができる。
図8は、本開示の実施形態による、メッシュ再構成を示す流れ図である。
動作805において、受信された占有マップ、属性マップ、およびジオメトリマップが復号され得る。一例として、デコーダ351は、符号化された占有マップ315、ジオメトリマップ320、および属性マップ325を復号して、復号された占有マップ335、復号されたジオメトリマップ340、および復号された属性マップ345を生成することができる。
動作810において、復号された占有マップ内の各占有位置に関連する当該頂点が復元され得る。一例として、デコーダ351が、復号された占有マップ335に基づいて、各占有位置および/または画素に関連する当該頂点を復元することができる。
動作815において、各占有位置に関連する3Dジオメトリ座標が、復号された占有マップおよび復号されたジオメトリマップに基づいて取得され得る。一例として、デコーダ351が、復号された占有マップ335および復号されたジオメトリマップ340に基づいて、各占有位置に関連する3Dジオメトリ座標を取得することができる。
動作820において、各占有位置に関連する属性値が、復号された占有マップおよび復号された属性マップに基づいて取得され得る。一例として、デコーダ351が、復号された占有マップ335および復号された属性マップ345に基づいて、各占有位置に関連する属性値を取得することができる。
動作825において、接続性情報が、復号されたマップに基づいて推測され得る、または明示的シグナリングから推測され得る。一例として、デコーダ351が、復号された占有マップ335、復号されたジオメトリマップ340、復号された属性マップ345、およびメタデータ350に基づいて接続性情報を推測することができる。
いくつかの実施形態では、入力メッシュおよび/または2D UVアトラスに関連する接続性情報は、特定の規則(例えば、図5(1)~(5))により、復号された占有マップ上の隣接する点の占有状況から暗黙的に推測され得る。接続性の向き(時計回りまたは反時計回り)は、シーケンスヘッダやスライスヘッダなどの高レベルシンタックスからパースされ得る、あるいはエンコーダおよびデコーダによって固定(想定)され得る。いくつかの実施形態では、再構成されたメッシュはハイブリッド型メッシュであってもよく、例えば、メッシュフレーム内のいくつかの領域が三角形メッシュを生成し、他の領域は四角形メッシュを生成する。接続性タイプは、シーケンスヘッダやスライスヘッダなどの高レベルシンタックスで信号伝達され得る。
いくつかの実施形態では、明示的シグナリングにより、接続性情報も再構成され得る。暗黙的規則によって多角形が復元されることができない場合、エンコーダはビットストリーム内の接続性情報を(例えば、メタデータとして)信号で送ることができる。多角形の境界に応じてなど、明示的シグナリングのオーバーヘッドを低減するための任意の適切な手段が使用され得る。
動作830において、復号されたマップおよび接続性情報に基づいてメッシュが再構成され得る。一例として、デコーダ351は、復号された占有マップ335、復号されたジオメトリマップ340、復号された属性マップ345、およびメタデータ350に基づいて再構成されたメッシュ360を生成することができる。デコーダ351は、適切な再構成フィルタおよび/または後処理技法を使用して、再構成されたメッシュ360を生成することができる。いくつかの実施形態によれば、再構成されたメッシュは、入力メッシュとは異なる接続性を有することができる。一例として、入力メッシュは三角形メッシュであってもよく、再構成されたメッシュは四角形メッシュであってもよい。
上述した技法は、コンピュータ可読命令を使用するコンピュータソフトウェアとして実施され、1つまたは複数のコンピュータ可読媒体に物理的に保存され得る。例えば、図9は、本開示の特定の実施形態を実施するのに適したコンピュータシステム900を示す。
コンピュータソフトウェアは、コンピュータ中央処理装置(CPU)やグラフィックス処理装置(GPU)などにより、直接、または解釈やマイクロコード実行などを通して実行され得る命令を含むコードを作成するために、アセンブリ、コンパイル、リンキング、または同様のメカニズムを受けることができる任意の適切なマシンコードまたはコンピュータ言語を使用してコード化することができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーミングデバイス、インターネット・オブ・シングス・デバイスなどを含む、様々なタイプのコンピュータまたはその構成要素で実行され得る。
コンピュータシステム900の図9に示される構成要素は、例であり、本開示の実施形態を実施するコンピュータソフトウェアの使用または機能の範囲に関して制限を示唆することを意図するものではない。構成要素の構成は、コンピュータシステム900の非限定的な実施形態に示されている構成要素のいずれか1つまたは組合せに関して、依存関係を有するものとも要件を有するものとも解釈されるべきではない。
コンピュータシステム900は、特定のヒューマンインタフェース入力装置を含むことができる。そのようなヒューマンインタフェース入力装置は、例えば、触覚入力(キーストローク、スワイプ、データグローブの動きなど)、オーディオ入力(音声、拍手など)、視覚入力(ジェスチャなど)、嗅覚入力(図示せず)を通じて、1人または複数の人間ユーザによる入力に応答することができる。ヒューマンインタフェース装置は、オーディオ(発話、音楽、周囲音など)、画像(スキャン画像、静止画像カメラから得られた写真画像など)、ビデオ(2次元ビデオ、立体ビデオを含む3次元ビデオなど)など、人間による意識的な入力に必ずしも直接関連しない特定の媒体を取り込むために使用することもできる。
入力ヒューマンインタフェース装置は、キーボード901、マウス902、トラックパッド903、タッチスクリーン910、データグローブ、ジョイスティック905、マイクロフォン906、スキャナ907、カメラ908のうちの1つまたは複数(それぞれの1つのみを図示)を含むことができる。
コンピュータシステム900は、特定のヒューマンインタフェース出力装置も含むことができる。そのようなヒューマンインタフェース出力装置は、例えば、触覚出力、音、光、および嗅覚/味覚を通して、1人または複数の人間ユーザの感覚を刺激していることがある。そのようなヒューマンインタフェース出力装置は、触覚出力装置(例えば、タッチスクリーン910、データグローブ、またはジョイスティック905による触覚フィードバックであるが、入力装置として機能しない触覚フィードバック装置も存在し得る)を含むことができる。例えば、そのような装置は、オーディオ出力装置(スピーカ909、ヘッドホン(図示せず)など)、視覚的出力装置(CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン910など、それぞれタッチスクリーン入力機能の有無にかかわらず、それぞれ触覚フィードバック機能の有無にかかわらず、それらのうちのいくつかは、ステレオグラフィック出力、仮想現実眼鏡(図示せず)、ホログラフィックディスプレイ、およびスモークタンク(図示せず)などの手段を通じて、2次元視覚的出力または3次元を超える出力を出力することが可能であり得る)、およびプリンタ(図示せず)とすることができる。
コンピュータシステム900は、人間がアクセス可能な記憶装置およびそれらに関連する媒体、例えば、CD/DVDなどの媒体921を有するCD/DVD ROM/RW920を含む光学媒体、サムドライブ922、リムーバブルハードドライブまたはソリッドステートドライブ923、テープやフロッピーディスク(図示せず)などの旧来の磁気媒体、セキュリティドングル(図示せず)などの特殊なROM/ASIC/PLDベースの装置、なども含むことができる。
当業者はまた、本開示の主題に関連して使用される「コンピュータ可読媒体」という用語が、伝送媒体、搬送波、または他の一時的な信号を包含しないことを理解するべきである。
コンピュータシステム900は、1つまたは複数の通信ネットワークへのインタフェースも含むことができる。ネットワークは、例えば、無線、有線、光とすることができる。ネットワークはさらに、ローカル、広域、メトロポリタン、車両および産業用、リアルタイム、遅延耐性、などとすることができる。ネットワークの例には、イーサネットなどのローカルエリアネットワーク、無線LAN、GSM、3G、4G、5G、LTEなどを含むセルラーネットワーク、ケーブルTV、衛星TV、および地上波放送TVを含むTV有線または無線ワイドエリアデジタルネットワーク、CANBusを含む車両および産業用、などが含まれる。特定のネットワークは一般に、特定の汎用データポートまたは周辺バス949に取り付けられる外部ネットワークインタフェースアダプタ(例えば、コンピュータシステム900のUSBポートなど)を必要とし、他のものは一般に、下記のようにシステムバスに取り付けることによりコンピュータシステム900のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインタフェースまたはスマートフォンコンピュータシステムへのセルラーネットワークインタフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム900は他のエンティティと通信することができる。このような通信は、単方向、受信のみ(例えば、放送TV)、単方向の送信のみ(例えば、CANbusから特定のCANbus装置へ)、または双方向、例えば、ローカルエリアまたはワイドエリアデジタルネットワークを使用する他のコンピュータシステム向けであり得る。そのような通信は、クラウドコンピューティング環境955への通信を含むことができる。特定のプロトコルおよびプロトコルスタックは、上述したように、それらのネットワークおよびネットワークインタフェースのそれぞれで使用され得る。
前述のヒューマンインタフェース装置、人間がアクセス可能な記憶装置、およびネットワークインタフェース954は、コンピュータシステム900のコア940に取り付けることができる。
コア940は、1つまたは複数の中央処理装置(CPU)941、グラフィックス処理装置(GPU)942、フィールドプログラマブルゲートエリア(FPGA)943の形式の特殊なプログラマブル処理装置、特定のタスクのためのハードウェアアクセラレータ944などを含むことができる。これらの装置は、読取り専用メモリ(ROM)945、ランダムアクセスメモリ946、ユーザがアクセスできない内部ハードドライブやSSDなどの内部大容量記憶装置947と共に、システムバス948を介して接続され得る。いくつかのコンピュータシステムでは、システムバス948は、追加のCPU、GPUなどによる拡張を可能にするために、1つまたは複数の物理プラグの形でアクセス可能とすることができる。周辺装置は、コアのシステムバス948に直接取り付けられることも、周辺バス949を介して取り付けられることもできる。周辺バスのアーキテクチャは、PCI、USBなどを含む。グラフィックスアダプタ950は、コア940に含まれてもよい。
CPU941、GPU942、FPGA943、およびアクセラレータ944は、組み合わせて、前述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードは、ROM945またはRAM946に保存され得る。移行データもまたRAM946に保存され得るが、永続データは、例えば、内部大容量記憶装置947に保存され得る。1つまたは複数のCPU941、GPU942、大容量記憶装置947、ROM945、RAM946などと密接に関連付けられ得るキャッシュメモリを使用することにより、メモリ装置のいずれかへの高速記憶および検索が有効にされ得る。
コンピュータ可読媒体には、様々なコンピュータ実施動作を実行するためのコンピュータコードを搭載することができる。媒体およびコンピュータコードは、本開示の目的ために特別に設計および構成されたものとすることができる、あるいは、コンピュータソフトウェア技術の当業者によく知られ、当業者が入手可能な種類のものとすることができる。
一例として、限定としてではなく、アーキテクチャ、具体的にはコア940を有するコンピュータシステム900は、1つまたは複数の有形のコンピュータ可読媒体で具体化されたソフトウェアを実行するプロセッサ(複数可)(CPU、GPU、FPGA、アクセラレータなどを含む)の結果として機能を提供することができる。そのようなコンピュータ可読媒体は、上記で紹介したユーザがアクセス可能な大容量記憶装置、ならびにコア内部大容量記憶装置947やROM945などの、非一時的性質のコア940の特定の記憶装置に関連する媒体とすることができる。本開示の様々な実施形態を実施するソフトウェアは、そのような装置に記憶され、コア940によって実行され得る。コンピュータ可読媒体は、特定の必要性に応じて、1つまたは複数のメモリ装置またはチップを含むことができる。ソフトウェアは、コア940、具体的にはその中のプロセッサ(CPU、GPU、FPGAなどを含む)に、RAM946に記憶されたデータ構造を定義すること、およびソフトウェアによって定義されたプロセスに従ってかかるデータ構造を修正することを含む、本明細書に記載の特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。加えて、または代替として、コンピュータシステムは、回路(例えば、アクセラレータ944)に配線で接続された、またはそうでなければ具現化されたロジックの結果として機能を提供することができ、回路は、本明細書に記載の特定のプロセスまたは特定のプロセスの特定の部分を実行するために、ソフトウェアの代わりに、またはソフトウェアと共に動作することができる。ソフトウェアへの言及は、必要に応じて、ロジックを包含することができ、その逆も同様である。コンピュータ可読媒体への言及は、必要に応じて、実行のためのソフトウェアを記憶する回路(集積回路(IC)など)、実行のためのロジックを具現化する回路、またはこれらの両方を包含することができる。本開示は、ハードウェアとソフトウェアの任意の適切な組合せを包含する。
本開示は、いくつかの非限定的な実施形態を説明しているが、本開示の範囲内にある変更、順列、および様々な代替の同等物が存在する。したがって、当業者は、本明細書に明示的に示されていないかまたは記載されていないが、本開示の原理を具現化し、したがって本開示の趣旨および範囲内にある多数のシステムおよび方法を考案することができることが理解されよう。
100 通信システム
110 端末
120 端末
130 端末
140 端末
150 ネットワーク
200 ストリーミングシステム
201 ビデオソース
202 ストリーム
203 エンコーダ
204 符号化されたビデオビットストリーム
205 ストリーミングサーバ
206 ストリーミングクライアント
209 ビデオビットストリーム
210 ビデオデコーダ
211 発信ビデオサンプルストリーム
212 ディスプレイ
213 キャプチャサブシステム
300 フレームワーク
301 エンコーダ
305 入力メッシュ
310 UVアトラスを有するメッシュ
315 占有マップ
320 ジオメトリマップ
325 属性マップ
330 メタデータ
335 復号された占有マップ
340 復号されたジオメトリマップ
345 復号された属性マップ
350 復号されたメタデータ
351 デコーダ
360 再構成されたメッシュ
400 三角形メッシュ
600 再構成されたメッシュ
700 プロセス
705 動作
710 動作
715 動作
720 動作
725 動作
730 動作
805 動作
810 動作
815 動作
820 動作
825 動作
830 動作
900 コンピュータシステム
901 キーボード
902 マウス
903 トラックパッド
905 ジョイスティック
906 マイクロフォン
907 スキャナ
908 カメラ
909 スピーカ
910 スクリーン
920 光学媒体
921 媒体
922 サムドライブ
923 リムーバブルハードドライブ、ソリッドステートドライブ
940 コア
941 中央処理装置(CPU)
942 グラフィックス処理装置(GPU)
943 フィールドプログラマブルゲートエリア(FPGA)
944 ハードウェアアクセラレータ
945 読取り専用メモリ(ROM)
946 ランダムアクセスメモリ
947 大容量記憶装置
948 システムバス
949 特定の汎用データポート、周辺バス
950 グラフィックスアダプタ
954 ネットワークインタフェース
955 クラウドコンピューティング環境

Claims (20)

  1. サンプリングベースの動的メッシュ圧縮の方法であって、前記方法は少なくとも1つのプロセッサによって実行され、
    1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定するステップと、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定するステップであって、前記占有状況は、前記1つまたは複数のサンプル位置のそれぞれが前記入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示す、ステップと、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記占有状況に基づいてサンプルベースの占有マップを生成するステップと、
    ビデオコーデックを使用して前記サンプルベースの占有マップを複数の単一チャネル画像または多チャネル画像に圧縮するステップと
    を含む、方法。
  2. 前記1つまたは複数のサンプリングレートが、第1の軸線の第1のサンプリングレートおよび第2の軸線の第2のサンプリングレートに基づく、請求項1に記載の方法。
  3. 前記入力メッシュが1つまたは複数の領域に分割され、前記1つまたは複数のサンプリングレートが、前記1つまたは複数の領域のそれぞれに対する1つまたは複数のそれぞれのサンプリングレートに基づく、請求項1に記載の方法。
  4. 前記1つまたは複数のサンプリングレートが、高レベルシンタックスで信号伝達される、請求項1に記載の方法。
  5. 前記1つまたは複数の領域のそれぞれに対する前記1つまたは複数の当該サンプリングレートが、前記1つまたは複数の領域の当該特性に基づく、請求項3に記載の方法。
  6. 前記当該特性が、
    領域のテクスチャ、
    前記領域のアクティビティ、および
    前記領域の平滑性
    のうちの少なくとも1つである、請求項5に記載の方法。
  7. 前記1つまたは複数のサンプリングレートが、隣接領域のサンプリングレートに基づく、請求項1に記載の方法。
  8. 前記1つまたは複数のサンプリングレートが、1つまたは複数の既にコード化されたメッシュフレームの以前の1つまたは複数のサンプリングレートに基づく、請求項1に記載の方法。
  9. 前記方法は、
    前記入力メッシュによって画定された前記1つまたは複数の多角形の頂点に基づいて、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標を決定するステップと、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記3Dジオメトリ座標に基づいてサンプルベースのジオメトリマップを生成するステップと
    をさらに含む、請求項1に記載の方法。
  10. 前記サンプルベースのジオメトリマップが3つの単一チャネルジオメトリマップを含み、前記3つの単一チャネルジオメトリマップの第1のマップが、前記1つまたは複数のサンプル位置のそれぞれに関連するx軸位置を示し、前記3つの単一チャネルジオメトリマップの第2のマップが、前記1つまたは複数のサンプル位置のそれぞれに関連するy軸位置を示し、前記3つの単一チャネルジオメトリマップの第3のマップが、前記1つまたは複数のサンプル位置のそれぞれに関連するz軸位置を示す、請求項9に記載の方法。
  11. 前記方法は、
    前記入力メッシュによって画定された前記1つまたは複数の多角形の頂点に基づいて、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値を決定するステップと、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記属性値に基づいてサンプルベースの属性マップを生成するステップと
    をさらに含む、請求項1に記載の方法。
  12. 前記サンプルベースの属性マップが、nチャネル属性マップまたはn個の単一チャネル属性マップの一方である、請求項11に記載の方法。
  13. 前記方法は、
    1つまたは複数の隣接するサンプル位置に関連する前記占有状況に基づいて、1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する接続性情報を生成するステップ
    をさらに含む、請求項1に記載の方法。
  14. サンプリングベースの動的メッシュ圧縮のための装置であって、前記装置は、
    プログラムコードを記憶するように構成された少なくとも1つのメモリと、
    前記プログラムコードを読み取り、前記プログラムコードによって命令されたとおり動作するように構成された少なくとも1つのプロセッサと
    を含み、前記プログラムコードは、
    前記少なくとも1つのプロセッサに、1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定させるように構成された第1の決定コードと、
    前記少なくとも1つのプロセッサに、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定させるように構成された第2の決定コードであって、前記占有状況が、前記1つまたは複数のサンプル位置のそれぞれが前記入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示す、第2の決定コードと、
    前記少なくとも1つのプロセッサに、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記占有状況に基づいてサンプルベースの占有マップを生成させるように構成された第1の生成コードと、
    前記少なくとも1つのプロセッサに、ビデオコーデックを使用して前記サンプルベースの占有マップを複数の単一チャネル画像または多チャネル画像に圧縮させるように構成された圧縮コードと
    を含む、装置。
  15. 前記プログラムコードが、
    前記少なくとも1つのプロセッサに、前記入力メッシュによって画定された前記1つまたは複数の多角形の頂点に基づいて前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する3Dジオメトリ座標を決定させるように構成された第3の決定コードと、
    前記少なくとも1つのプロセッサに、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記3Dジオメトリ座標に基づいてサンプルベースのジオメトリマップを生成させるように構成された第2の生成コードと
    をさらに含む、請求項14に記載の装置。
  16. 前記プログラムコードが、
    前記少なくとも1つのプロセッサに、前記入力メッシュによって画定された前記1つまたは複数の多角形の頂点に基づいて前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する属性値を決定させるように構成された第4の決定コードと、
    前記少なくとも1つのプロセッサに、前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記属性値に基づいてサンプルベースの属性マップを生成させるように構成された第3の生成コードと
    をさらに含む、請求項14に記載の装置。
  17. 前記プログラムコードが、
    前記少なくとも1つのプロセッサに、1つまたは複数の隣接するサンプル位置に関連する前記占有状況に基づいて前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する接続性情報を生成させるように構成された第4の生成コード
    をさらに含む、請求項14に記載の装置。
  18. 前記入力メッシュが1つまたは複数の領域に分割され、前記1つまたは複数のサンプリングレートが、前記1つまたは複数の領域のそれぞれに対する1つまたは複数のそれぞれのサンプリングレートに基づく、請求項14に記載の装置。
  19. 前記1つまたは複数の領域のそれぞれに対する前記1つまたは複数の当該サンプリングレートが、前記1つまたは複数の領域の当該特性に基づく、請求項18に記載の装置。
  20. 命令を記憶する非一時的コンピュータ可読媒体であって、前記命令が、サンプリングベースの動的メッシュ圧縮のための装置の1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
    1つまたは複数のサンプリングレートに基づいて入力メッシュに関連する1つまたは複数のサンプル位置を決定させ、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する占有状況を決定させ、前記占有状況は、前記1つまたは複数のサンプル位置のそれぞれが前記入力メッシュによって画定された1つまたは複数の多角形の境界内にあるかどうかを示し、
    前記1つまたは複数のサンプル位置のそれぞれにそれぞれ関連する前記占有状況に基づいてサンプルベースの占有マップを生成させ、
    ビデオコーデックを使用して前記サンプルベースの占有マップを複数の単一チャネル画像または多チャネル画像に圧縮させる
    1つまたは複数の命令を含む、非一時的コンピュータ可読媒体。
JP2023530054A 2021-08-16 2022-08-16 動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム Pending JP2023550110A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163233475P 2021-08-16 2021-08-16
US63/233,475 2021-08-16
US17/887,918 2022-08-15
US17/887,918 US20230048897A1 (en) 2021-08-16 2022-08-15 2d uv atlas sampling based methods for dynamic mesh compression
PCT/US2022/040401 WO2023023011A1 (en) 2021-08-16 2022-08-16 2d uv atlas sampling based methods for dynamic mesh compression

Publications (1)

Publication Number Publication Date
JP2023550110A true JP2023550110A (ja) 2023-11-30

Family

ID=85177441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023530054A Pending JP2023550110A (ja) 2021-08-16 2022-08-16 動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム

Country Status (6)

Country Link
US (1) US20230048897A1 (ja)
EP (1) EP4200808A4 (ja)
JP (1) JP2023550110A (ja)
KR (1) KR20230052944A (ja)
CN (1) CN116848553A (ja)
WO (1) WO2023023011A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7750914B2 (en) * 2004-08-26 2010-07-06 Intel Corporation Subdividing geometry images in graphics hardware
EP2531952B1 (en) * 2010-02-01 2018-08-08 VITO NV (Vlaamse Instelling voor Technologisch Onderzoek NV) System and method for 2d occupancy sensing
US11212506B2 (en) * 2018-07-31 2021-12-28 Intel Corporation Reduced rendering of six-degree of freedom video
US11284091B2 (en) * 2019-03-25 2022-03-22 Apple Inc. Video based point cloud compression-patch alignment and size determination in bounding box
US20230063575A1 (en) * 2021-08-25 2023-03-02 Tencent America LLC Patch zippering for mesh compression

Also Published As

Publication number Publication date
EP4200808A4 (en) 2024-01-17
CN116848553A (zh) 2023-10-03
WO2023023011A1 (en) 2023-02-23
US20230048897A1 (en) 2023-02-16
EP4200808A1 (en) 2023-06-28
KR20230052944A (ko) 2023-04-20

Similar Documents

Publication Publication Date Title
US20230306701A1 (en) Parallel approach to dynamic mesh alignment
JP2023550110A (ja) 動的メッシュ圧縮のための2d uvアトラスサンプリングベースの方法、装置及びプログラム
US20230316585A1 (en) Atlas sampling based mesh compression with charts of general topology
US20240078713A1 (en) Texture coordinate prediction in mesh compression
US20240185471A1 (en) Texture coordinate compression using chart partition
US20230319293A1 (en) Triangulation methods with boundary information for dynamic mesh compression
US20240007670A1 (en) Dynamic mesh vertex displacements coding
US20240135594A1 (en) Adaptive geometry filtering for mesh compression
US20230306648A1 (en) Mesh parameterization with temporally correlated uv atlases
US20230306647A1 (en) Geometry filtering for mesh compression
US20230334714A1 (en) Coding of boundary uv2xyz index for mesh compression
WO2024086314A2 (en) Texture coordinate compression using chart partition
WO2024063811A1 (en) Multiple attribute maps merging
KR20230169289A (ko) 메시 압축을 위한 경계 uv 정보의 예측 코딩
KR20240067924A (ko) 대칭 메시의 uv 속성 코딩 방법 및 장치
WO2023183186A1 (en) Predictive coding of boundary uv2xyz index for mesh compression
KR20230012558A (ko) 비디오 기반 포인트 클라우드 코딩을 위한 고속 재채색
KR20230011406A (ko) 비디오 기반 포인트 클라우드 코딩을 위한 조건적 재채색
KR20230010258A (ko) 비디오 기반의 포인트 클라우드 코딩을 위한 비2진 점유 맵

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240520