JP2023506832A - 補助パッチを有する容積ビデオ - Google Patents

補助パッチを有する容積ビデオ Download PDF

Info

Publication number
JP2023506832A
JP2023506832A JP2022536635A JP2022536635A JP2023506832A JP 2023506832 A JP2023506832 A JP 2023506832A JP 2022536635 A JP2022536635 A JP 2022536635A JP 2022536635 A JP2022536635 A JP 2022536635A JP 2023506832 A JP2023506832 A JP 2023506832A
Authority
JP
Japan
Prior art keywords
patch
atlas
patches
mvd
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022536635A
Other languages
English (en)
Inventor
ドーレ、ルノー
シュポー、ベルトラン
トゥドール、フランク
フルーロー、ジュリアン
Original Assignee
インターデジタル ブイシー ホールディングス フランス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ブイシー ホールディングス フランス filed Critical インターデジタル ブイシー ホールディングス フランス
Publication of JP2023506832A publication Critical patent/JP2023506832A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Library & Information Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Databases & Information Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Filling Or Discharging Of Gas Storage Vessels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3Dシーンを表すデータを符号化及び復号化するための方法及びデバイスが開示される。第1のパッチのセットは、3Dシーンの第1の領域から取得された第1のMVDコンテンツから生成される。パッチは、MVDコンテンツのビューのうちの1つの一部である。第2のパッチのセットは、3Dシーンの第2の領域から取得された第2のMVDコンテンツから生成される。第1及び第2のパッチをパッキングするアトラスが生成され、アトラスのパッチについて、パッチが第1のパッチか第2のパッチかを示すメタデータに関連付けられる。復号化側では、第1のパッチはビューポート画像をレンダリングするために使用され、第2のパッチは、ビューポート画像を前処理又は後処理するために使用される。【選択図】図7

Description

本原理は、概して、三次元(three-dimensional、3D)シーン及び容積ビデオコンテンツのドメインに関する。本文書はまた、モバイルデバイス又はヘッドマウントディスプレイ(Head-Mounted Display、HMD)などのエンドユーザデバイス上の容積コンテンツのレンダリングのための、テクスチャ及び3Dシーンの幾何学的形状を表すデータの符号化、フォーマット化及び復号化の文脈において理解される。
本節は、以下に説明及び/又は特許請求される本原理の様々な態様に関連し得る様々な技術の態様を読者に紹介することを意図している。この考察は、本原理の様々な態様のより良好な理解を容易にするための背景情報を読者に提供するのに役立つと考えられる。したがって、これらの記述は、この観点から読まれるべきであり、先行技術の承認として読まれるべきではないことを理解されたい。
近年、利用可能な大きな視野コンテンツ(最大360°)の成長があった。そのようなコンテンツは、ヘッドマウントディスプレイ、スマートグラス、PCスクリーン、タブレット、スマートフォンなどの没入型表示デバイス上のコンテンツを視聴するユーザによって完全には見えない可能性がある。これは、所与の瞬間に、ユーザがコンテンツの一部のみを視認することができることを意味する。しかしながら、ユーザは、典型的には、頭部の動き、マウスの動き、タッチスクリーン、音声などの様々な手段によって、コンテンツ内をナビゲートすることができる。典型的には、このコンテンツを符号化及び復号化することが望ましい。
360°フラットビデオとも呼ばれる没入型ビデオにより、ユーザは、静止点の周りの頭部の回転を通じて自身の周りの全てを視聴することができる。回転は、3自由度(3 Degrees of Freedom、3DoF)体験のみを可能にする。例えば、3DoFビデオが、ヘッドマウントディスプレイデバイス(HMD)を使用した第1の全方向性ビデオ体験に十分である場合であっても、例えば視差を体験することによって、より多くの自由度を期待する視聴者にとって、3DoFビデオは即座に苛立たしいものになる可能性がある。更に、3DoFはまた、ユーザが頭部を回転させるだけでなく、頭部を3方向に並進させるために、3DoFビデオ体験で再現されない並進のために、めまいを誘発し得る。
大きな視野コンテンツは、とりわけ、三次元コンピュータグラフィック画像シーン(three-dimension computer graphic imagery scene、3D CGIシーン)、点群又は没入型ビデオであり得る。そのような没入型ビデオを設計するために多くの用語が使用され得る。例えば、仮想現実(Virtual Reality、VR)、360、パノラマ、4πステラジアン、没入型、全方向性又は大きな視野。
容積ビデオ(6自由度(6 Degrees of Freedom、6DoF)ビデオとしても既知である)は、3DoFビデオの代替物である。6DoFビデオを視聴するとき、回転に加えて、ユーザはまた、視聴されたコンテンツ内で頭部を、更には自身の身体を並進させ、視差及び更には容積を体験することができる。そのようなビデオは、没入の感覚及びシーン深度の知覚を大幅に増加させ、頭部並進中に一貫した視覚的フィードバックを提供することによって、めまいを防止する。コンテンツは、目的のシーンの色及び深度の同時記録を可能にする専用センサの手段によって作成される。写真測量技術と組み合わせたカラーカメラのリグの使用は、技術的な困難が残っている場合でも、そのような記録を実行する方法である。
3DoFビデオは、テクスチャ画像(例えば、緯度/経度投影マッピング又は正距円筒図法マッピングに従って符号化された球形画像)のアンマッピングから生じる一連の画像を含むが、6DoFビデオフレームは、いくつかの視点から情報を埋め込む。それらは、三次元捕捉から生じる時間的一連の点群として視認することができる。視聴条件に応じて、2種類の容積ビデオを考慮することができる。第1のもの(すなわち、完全な6DoF)は、ビデオコンテンツ内の完全な自由ナビゲーションを可能にするが、第2のもの(別名3DoF+)は、ユーザ視認空間を視認境界ボックスと呼ばれる限られた容積に制限し、頭部及び視差体験の制限された容積を可能にする。この第2の文脈は、着座したオーディエンスメンバーの自由ナビゲーションと受動的視聴条件との間の貴重なトレードオフである。
3DoF+シナリオでは、アプローチは、視認境界ボックスの任意の点から3Dシーンを視聴するために必要な情報のみを送信することからなる。別のアプローチは、視認境界ボックスからは見えないが、再照明、衝突検出、又はハプティックインタラクションのようにデコーダ側で他のプロセスを実行するのに有用な、追加の幾何学的形状及び/又は色情報を送信することを考慮する。この追加情報は、可視点と同じ形式で伝達されてもよい。しかしながら、情報の一部はレンダリングに使用され、情報の他の部分は他の処理に使用されることをデコーダに示す形式及び方法の需要がある。
以下は、本原理のいくつかの態様の基本的な理解を提供するための本原理の簡略化された概要を提示する。この概要は、本原理の広範な概要ではない。本原理の重要な又は重大な要素を特定することは意図されていない。以下の概要は、以下に提供されるより詳細な説明の前置きとして簡略化された形態で、本原理のいくつかの態様を単に提示するに過ぎない。
本原理は、データストリーム内の3Dシーンを表すデータを符号化するための方法に関する。この方法は、
-3Dシーンのレンダリングのために取得された第1のマルチビュープラス深度(MVD)コンテンツから第1のパッチのセットを生成すること。第1のMVDは、3Dシーンの第1の領域から取得される。パッチは、MVDコンテンツのビューのうちの1つの一部である。
-前処理又は後処理使用のために取得された第2のMVDコンテンツから第2のパッチのセットを生成すること。第2のMVDは、3Dシーンの第2の領域から取得される。第2の領域は、第1の領域と重なっても分離していてもよい。
-第1及び第2のパッチを有するアトラスを生成すること。アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像であり、アトラスのパッチについて、パッチが第1のパッチか第2のパッチかを示すメタデータに関連付けられる。
-当該データストリーム内で当該アトラスを符号化すること
を含む。
本原理はまた、データストリームからの3Dシーンを表すデータを復号化するための方法にも関する。この方法は、
-アトラス及び関連付けられたメタデータを取得するためにデータストリームを復号化すること。アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像である。パッチは、3Dシーンの領域から取得されたMVDコンテンツの1つのビューの一部である。メタデータは、アトラスのパッチについて、パッチが第1のパッチか第2のパッチかを示すデータを含み、第1のパッチは3Dシーンの第1の領域から取得されたMVDコンテンツの一部であり、第2のパッチは3Dシーンの第2の領域から取得されたMVDの一部である。第1及び第2の領域は、重なっても分離していてもよい。
-メタデータ内の第1のパッチとして示されるパッチを使用することによって、3Dシーン内の視点からビューポート画像をレンダリングすることと、
-当該ビューポート画像を前処理及び/又は後処理するために、メタデータ内の第2のパッチとして示されるパッチを使用することと
を含む。
本原理は、上記の符号化方法を実装するように構成されたプロセッサを含むデバイス、並びに上記の復号化方法を実装するように構成されたプロセッサを含むデバイスにも関する。
本原理は、3Dシーンを表すデータを搬送するデータストリーム及び/又は非一時的媒体にも関する。データストリーム又は非一時的媒体は、
-アトラスレイアウトに従って第1及び第2のパッチをパッキングするアトラス画像であって、第1のパッチは、3Dシーンのレンダリングのために取得されたMVDコンテンツの1つのビューの一部であり、第2のパッチは、前処理又は後処理使用のために取得されたMVDコンテンツの1つのビューの一部である、アトラス画像と、
-当該アトラスに関連付けられたメタデータであって、メタデータは、アトラスのパッチについて、パッチが第1のパッチか第2のパッチかを示すデータを含む、メタデータと
を含む。
本開示は、より良好に理解され、以下の説明を読むと、他の特定の特徴及び利点が明らかになり、本明細書は、添付の図面を参照する。
本原理の非限定的な実施形態による、3Dモデルに対応するオブジェクト及び点群の点の三次元(3D)モデルを示す。 本原理の非限定的な実施形態による、3Dシーンのシーケンスを表すデータの符号化、送信及び復号化の非限定的な例を示す。 本原理の非限定的な実施形態による、図8及び図9に関連して説明される方法を実施するように構成され得るデバイスの例示的なアーキテクチャを示す。 本原理の非限定的な実施形態による、データがパケットベースの送信プロトコルを介して送信されるときのストリームの構文の一実施形態の一例を示す。 本原理の非限定的な実施形態による、中心視点からの球面投影を示す。 本原理の非限定的な実施形態による、エンコーダによるアトラス60及び61の生成の一例を示す。 本原理の非限定的な実施形態による、3DoF+レンダリングのビューと補助パッチの追加のビューとの取得を示す。 本原理の非限定的な実施形態による、補助情報を含む容積ビデオコンテンツを符号化するための方法80を示す。 本原理の非限定的な実施形態による、補助情報を含む容積ビデオコンテンツを復号化するための方法90を示す。
本原理は、添付の図面を参照して以下により完全に説明され、本原理の例が示されている。しかしながら、本原理は、多くの代替形態で具体化され得、本明細書に記載の実施例に限定されるものとして解釈されるべきではない。したがって、本原理は、様々な修正及び代替的な形態の余地があるが、その具体的な例は、図面の例として示され、本明細書において詳細に説明される。しかしながら、本原理を開示された特定の形態に限定する意図はないが、反対に、本開示は、特許請求の範囲によって定義される本原理の趣旨及び範囲内にある全ての修正、均等物及び代替物を網羅することであることを理解されたい。
本明細書で使用される用語は、特定の実施例のみを説明する目的のためであり、本原理を限定することを意図するものではない。本明細書で使用される場合、単数形「a」、「an」及び「the」は、文脈が別途明確に示されない限り、複数形も含むことが意図される。本明細書で使用される場合、「含む(comprises)」、「含む(comprising)」、「含む(includes)」及び/又は「含む(including)」という用語は、記載された特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素及び/又はそれらのグループの存在又は追加を排除しないことが更に理解されるであろう。更に、要素が別の要素に「応答する」又は「接続される」と称される場合、それは、他の要素に直接応答するか、又は他の要素に接続され得るか、又は介在要素が存在し得る。対照的に、要素が他の要素に「直接応答する」又は「直接接続される」と称される場合、介在要素は存在しない。本明細書で使用される場合、「及び/又は」という用語は、関連付けられた列挙された項目のうちの1つ以上の任意の及び全ての組み合わせを含み、「/」と略され得る。
本明細書では、第1、第2などの用語が様々な要素を説明するために使用され得るが、これらの要素はこれらの用語によって限定されるべきではないことが理解されよう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、第1の要素は、第2の要素と呼ぶことができ、同様に、第2の要素は、本原理の教示から逸脱することなく、第1の要素と呼ぶことができる。
図の一部は、通信の主要な方向を示すために通信経路上に矢印を含むが、通信は、描かれた矢印と反対方向に発生し得ることを理解されたい。
いくつかの例は、各ブロックが、指定された論理機能を実装するための1つ以上の実行可能命令を含む、回路要素、モジュール又はコードの部分を表すブロック図及び動作フローチャートに関して説明される。他の実装では、ブロックに記載された機能は、記載された順序から発生し得ることにも留意されたい。例えば、連続して示されている2つのブロックは、実際には実質的に同時に実行され得るか、又は関与する機能に応じて、ブロックが逆の順序で実行され得る。
本明細書における「一例による」又は「一例における」は、本実施例に関連して説明される特定の特徴、構造又は特性が、本原理の少なくとも1つの実装形態に含まれ得ることを意味する。本明細書の様々な場所における「一例による」又は「一例における」の句の出現は、必ずしも全てが同じ例を指しているわけではなく、別個の又は代替的な実施例では、必ずしも他の実施例と相互に排他的ではない。
特許請求の範囲に現れる参照番号は、単に例示としてのものであり、特許請求の範囲に限定的な影響を及ぼさないものとする。明示的に記載されていないが、本実施例及び変形例は、任意の組み合わせ又は部分的な組み合わせで用いられ得る。
図1は、オブジェクト及び3Dモデル10に対応する点群11の点の三次元(3D)モデル10を示す。3Dモデル10及び点群11は、例えば、他のオブジェクトを含む3Dシーンのオブジェクトの潜在的な3D表現に対応し得る。モデル10は、3Dメッシュ表現であり得、点群11の点は、メッシュの頂点であり得る。点群11の点はまた、メッシュの面の表面上に広がった点であり得る。モデル10はまた、点群11のスプラッティングされたバージョンとして表すこともでき、モデル10の表面は、点群11の点をスプラッティングすることによって作成される。モデル10は、ボクセル又はスプラインなどの多くの異なる表現によって表され得る。図1は、点群が3Dオブジェクトの表面表現と定義され得、3Dオブジェクトの表面表現がクラウドの点から生成され得るという事実を示す。本明細書で使用される場合、画像上の(3Dシーンの伸長点による)3Dオブジェクトの投影点は、この3Dオブジェクト、例えば、点群、メッシュ、スプラインモデル又はボクセルモデルの任意の表現を投影することと同等である。
点群は、例えば、ベクトルベースの構造としてメモリで表すことができ、各点は、視点の参照フレーム内の独自の座標(例えば、三次元座標XYZ、又は視点からの/視点への立体角及び距離(深度とも呼ばれる))及び成分とも呼ばれる1つ以上の属性を有する。成分の例は、様々な色空間、例えば、RGB(赤、緑及び青)又はYUV(Yが輝度成分及びUVが2つの色差成分である)で発現され得る色成分である。点群は、オブジェクトを含む3Dシーンの表現である。3Dシーンは、所与の視点又は視点の範囲から見ることができる。点群は、多くの方法によって、例えば、
・任意選択的に深度アクティブセンシングデバイスによって補完された、カメラのリグによって撮影された実オブジェクトの捕捉から、
・モデリングツールにおける仮想カメラのリグによって撮影された仮想/合成オブジェクトの捕捉から、
・実オブジェクトと仮想オブジェクトの両方の混合物から、取得され得る。
図2は、3Dシーンのシーケンスを表すデータの符号化、送信及び復号化の非限定的な例を示す。例えば、同時に、3DoF、3DoF+及び6DoF復号化に適合することができる符号化形式。
3Dシーン20のシーケンスが取得される。写真のシーケンスが2Dビデオであるとき、3Dシーンのシーケンスは3D(容積とも呼ばれる)ビデオである。3Dシーンのシーケンスは、3DoF、3Dof+又は6DoFレンダリング及び表示のための容積ビデオレンダリングデバイスに提供され得る。
3Dシーン20のシーケンスは、エンコーダ21に提供される。エンコーダ21は、入力として1つの3Dシーン又は3Dシーンのシーケンスを取り、入力を表すビットストリームを提供する。ビットストリームは、メモリ22内に、かつ/又は電子データ媒体上に記憶され得、ネットワーク22を介して送信され得る。3Dシーンのシーケンスを表すビットストリームは、メモリ22から読み取られ、かつ/又はデコーダ23によってネットワーク22から受信され得る。デコーダ23は、当該ビットストリームによって入力され、例えば、点群形式で3Dシーンのシーケンスを提供する。
エンコーダ21は、いくつかのステップを実装するいくつかの回路を備え得る。第1のステップでは、エンコーダ21は、各3Dシーンを少なくとも1つの2D写真に投影する。3D投影は、三次元点を二次元平面にマッピングする任意の方法である。グラフィックデータを表示するための最新の方法は、平面(いくつかのビット平面からの画素情報)二次元媒体に基づいているため、このタイプの投影の使用は、特にコンピュータグラフィック、操作及びドラフト化において広範囲に及ぶ。投影回路211は、シーケンス20の3Dシーンのための少なくとも1つの二次元フレーム2111を提供する。フレーム2111は、フレーム2111上に投影された3Dシーンを表す色情報及び深度情報を含む。変形例では、色情報及び深度情報は、2つの別個のフレーム2111及び2112において符号化される。
メタデータ212は、投影回路211によって使用され、更新される。メタデータ212は、図5~図7に関連して説明したように、投影動作(例えば、投影パラメータ)並びに色及び深度情報がフレーム2111及び2112内で編成される方法に関する情報を含む。
ビデオ符号化回路213は、フレーム2111及び2112のシーケンスをビデオとして符号化する。3Dシーン2111及び2112の写真(又は3Dシーンの写真のシーケンス)は、ビデオエンコーダ213によってストリーム内で符号化される。次いで、ビデオデータ及びメタデータ212は、データカプセル化回路214によってデータストリーム内でカプセル化される。
エンコーダ213は、例えば、
-JPEG、仕様ISO/CEI10918-1UIT-T推奨T.81、https://www.itu.int/rec/T-REC-T.81/en;
-MPEG-4AVC又はh264とも呼ばれるAVCなどのエンコーダに準拠する。UIT-TH.264及びISO/CEI MPEG-4-Part 10(ISO/CEI14496-10)、http://www.itu.int/rec/T-REC-H.264/en,HEVC(その仕様は、ITUウェブサイト、T推奨、H系列、h265、http://www.itu.int/rec/T-REC-H.265-201612-I/enで見出される)、
-3D-HEVC(仕様がITUウェブサイト、T推奨、H系列、h265、http://www.itu.int/rec/T-REC-H.265-201612-I/en annex G and Iで見出されるHEVCの拡張子)、
-Googleによって開発されたVP9、又は
-Alliance for Open Mediaによって開発されたAV1(AO媒体ビデオ1)。
データストリームは、デコーダ23によって、例えばネットワーク22を介してアクセス可能なメモリに記憶される。デコーダ23は、復号化の異なるステップを実装する異なる回路を備える。デコーダ23は、エンコーダ21によって生成されたデータストリームを入力として取り、ヘッドマウントデバイス(HMD)のような容積ビデオ表示デバイスによってレンダリングされ、かつ表示される3Dシーン24のシーケンスを提供する。デコーダ23は、ソース22からストリームを取得する。例えば、ソース22は、
-例えば、ビデオメモリ又はRAM(又はランダムアクセスメモリ)、フラッシュメモリ、ROM(又は読み取り専用メモリ)、ハードディスクなどのローカルメモリと、
-例えば、質量ストレージ、RAM、フラッシュメモリ、ROM、光学ディスク又は磁気サポートとのインターフェースなどのストレージインターフェースと、
-例えば、有線インターフェース(例えば、バスインターフェース、広域ネットワークインターフェース、ローカルエリアネットワークインターフェース)又は無線インターフェース(IEEE802.11インターフェース又はBluetooth(登録商標)インターフェースなど)などの通信インターフェースと、
-ユーザがデータを入力することを可能にするグラフィカルユーザインターフェースなどのユーザインターフェースと、を含むセットに属する。
デコーダ23は、データストリーム内で符号化されたデータを抽出するための回路234を備える。回路234は、データストリームを入力として取り、ストリーム及び二次元ビデオにおいて符号化されたメタデータ212に対応するメタデータ232を提供する。ビデオは、フレームのシーケンスを提供するビデオデコーダ233によって復号化される。復号化されたフレームは、色及び深度情報を含む。変形例では、ビデオデコーダ233は、一方が色情報を含み、他方が深度情報を含む2つのフレームのシーケンスを提供する。回路231は、メタデータ232を使用して、復号化されたフレームからの色及び深度情報を投影せず、3Dシーン24のシーケンスを提供する。3Dシーン24のシーケンスは、2Dビデオとしての符号化に関連する精度が潜在的に低下3Dシーン20のシーケンス及びビデオ圧縮に対応する。
例えば、回路231による逆投影ステップの前、又は逆投影後の後処理ステップにおいて、他の回路及び機能が追加されてもよい。例えば、シーン内のどこかに位置する別の照明からのシーンの再照明のための回路が追加されてもよい。衝突検出は、一貫した現実的な方法で、又は経路計画のために、新しいオブジェクトを3DoF+シーンに追加するなど、深度合成のために実行されてもよい。このような回路は、3DoF+レンダリング自体のために使用されるものではない3Dシーンに関する幾何学的形状及び/又は色情報を必要とする場合がある。異なる種類の情報の意味は、3DoF+シーンを表すビットストリームによって示されなければならない。
図3は、図8及び図9に関連して説明される方法を実施するように構成され得るデバイス30のアーキテクチャの一例を示す。図2のエンコーダ21及び/又はデコーダ23は、このアーキテクチャを実装し得る。代替的に、エンコーダ21及び/又はデコーダ23の各回路は、例えば、それらのバス31を介して、かつ/又はI/Oインターフェース36を介して一緒に連結された、図3のアーキテクチャによるデバイスであり得る。
デバイス30は、データ及びアドレスバス31によって一緒に連結された以下の要素:
-例えば、DSP(又はデジタル信号プロセッサ)であるマイクロプロセッサ32(又はCPU)と、
-ROM(又は読み取り専用メモリ)33と、
-RAM(又はランダムアクセスメモリ)34と、
-ストレージインターフェース35と、
-アプリケーションから、送信するデータを受信するためのI/Oインターフェース36と、
-電源、例えば、バッテリと、を備える。
一例によれば、電源はデバイスの外部にある。言及されたメモリの各々において、本明細書で使用される「レジスタ」という単語は、小さな容量の領域(いくつかのビット)又は非常に大きな領域(例えば、全体のプログラム又は大量の受信された、又は復号化されたデータ)に対応し得る。ROM33は、少なくともプログラム及びパラメータを含む。ROM33は、本原理に従って技術を実行するためのアルゴリズム及び命令を記憶することができる。オンに切り替えられると、CPU32は、RAM内のプログラムをアップロードし、対応する命令を実行する。
RAM34は、レジスタ内で、CPU32によって実行され、デバイス30のスイッチオン後にアップロードされるプログラムと、レジスタ内の入力データと、レジスタ内の方法の異なる状態の中間データと、レジスタ内の方法の実行のために使用される他の変数と、を含む。
本明細書に記載の実装形態は、例えば、方法又はプロセス、装置、コンピュータプログラム製品、データストリーム、又は信号において実装され得る。実装形態の単一の形態の文脈でのみ考察された場合(例えば、方法又はデバイスとしてのみ考察される)であっても、考察される特徴の実装形態は、他の形態(例えば、プログラム)においても実装され得る。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアで実装され得る。この方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路又はプログラマブル論理デバイスを含む、一般に処理デバイスを指すプロセッサなどの装置において実装され得る。プロセッサはまた、例えば、コンピュータ、携帯電話、携帯型/パーソナルデジタルアシスタント(「PDA」)及びエンドユーザ間の情報の通信を容易にする他のデバイスなどの通信デバイスを含む。
実施例によれば、デバイス30は、図8及び図9に関連して説明された方法を実装するように構成されており、
-モバイルデバイスと、
-通信デバイスと、
-ゲームデバイスと、
-タブレット(又はタブレットコンピュータ)と、
-ラップトップと、
-静止画カメラと、
-ビデオカメラと、
-符号化チップと、
-サーバ(例えば、ブロードキャストサーバ、ビデオオンデマンドサーバ又はウェブサーバ)と、を含むセットに属する。
図4は、データがパケットベースの送信プロトコルを介して送信されるときのストリームの構文の実施形態の一例を示す。図4は、容積ビデオストリームの例示的な構造4を示す。構造は、構文の独立した要素においてストリームを編成する容器からなる。構造は、ストリームの全ての構文要素に共通のデータのセットであるヘッダ部分41を含み得る。例えば、ヘッダ部分は、構文要素に関するメタデータのいくつかを含み、それらの各々の性質及び役割を説明する。ヘッダ部分はまた、図2のメタデータ212の一部、例えば、3Dシーンの点をフレーム2111及び2112上に投影するために使用される中心視点の座標を含み得る。構造は、構文42の要素と、構文43の少なくとも1つの要素を含むペイロードを含む。構文要素42は、色及び深度フレームを表すデータを含む。画像は、ビデオ圧縮方法に従って圧縮されている場合がある。
構文43の要素は、データストリームのペイロードの一部であり、構文42の要素のフレームがどのように符号化されるかについてのメタデータ、例えば、3Dシーンの点をフレーム上に投影するか、パッキングするために使用されるパラメータを含み得る。そのようなメタデータは、ビデオの各フレーム又は(ビデオ圧縮標準において写真のグループ(Group of Pictures、GoP)としても既知である)フレームのグループと関連付けられ得る。
図5は、4つの投影中心の例を有するパッチアトラスアプローチを示す。3Dシーン50は、特徴を含む。例えば、投影中心51は、遠近投影カメラであり、カメラ53は、正投影カメラである。カメラはまた、例えば、球形マッピング(例えば、正距円筒図法マッピング)又は立方体マッピングを有する全方向カメラであり得る。3Dシーンの3D点は、メタデータの投影データに記載された投影動作に従って、投影中心に位置する仮想カメラに関連付けられた2D平面上に投影される。図5の例では、カメラ51によって捕捉された点の投影は、遠近法マッピングに従ってパッチ52上にマッピングされ、カメラ53によって捕捉された点の投影は、直交マッピングに従ってパッチ54上にマッピングされる。
投影ピクセルのクラスター化により、多数の2Dパッチが得られ、これは長方形のアトラス55にパッキングされる。アトラス内のパッチの組織は、アトラスレイアウトを定義する。一実施形態では、同一のレイアウトを有する2つのアトラス:1つはテクスチャ(すなわち、色)情報のためのものであり、1つは奥行き情報のためのもの。同じカメラ又は2つの別個のカメラによって捕捉された2つのパッチは、例えば、パッチ54及び56のような3Dシーンの同じ部分を表す情報を含み得る。
パッキング動作は、生成されたパッチごとにパッチデータを生成する。パッチデータは、投影データの参照(例えば、投影データのテーブル内のインデックス又は投影データへのポインタ(メモリ又はデータストリーム内のアドレス))及びアトラス内のパッチの場所及びサイズを説明する情報(例えば、ピクセルの上部左角座標、サイズ、及び幅)を説明する情報を含む。パッチデータ項目は、1つ又は2つのアトラスの圧縮データと関連付けられてデータストリーム内でカプセル化されるメタデータに追加される。
図6は、エンコーダによるアトラス60及び61の生成の一例を示す。アトラス60及び61は、本原理の非限定的な実施形態による、3Dシーンの点のテクスチャ情報(例えば、RGBデータ又はYUVデータ)を含む。図5に関連して説明されたように、アトラスは、パッチをパッキングする画像である。例えば、エンコーダは、図6の例において3つのビュー62、63、及び64を含むマルチビュー+深度ビデオを入力として取る。エンコーダは、ビュー間冗長性を除去し(プルーニングステップ)、テクスチャ及び深度の選択されたパッチを1つ以上のアトラスにパッキングする。したがって、ビットストリームは、テクスチャ及び深度パッチのアトラスを搬送する複数のビデオストリーム(例えば、HEVCビデオストリーム)からなり、入力ビュー及びアトラスレイアウトのカメラパラメータを記述するメタデータを伴う。
パッチアトラスは、テクスチャ及び深度のために同じ写真サイズ及び同じレイアウト(同じパッキング)を有する、テクスチャ及び深度アトラス成分のペアからなる。あるアプローチでは、アトラスは、視認境界ボックス内の任意の点からのシーンの3DoF+レンダリングに必要な情報のみを搬送する。別のアプローチでは、アトラスは、シーン再照明又は衝突検出などの他の処理に有用な追加の幾何学的形状及び/又は色情報を搬送してもよい。例えば、この追加情報は、3Dシーンのオブジェクトの背面の幾何学的形状であってもよい。このようなパッチは、補助パッチと呼ばれる。これらは、デコーダによってレンダリングされるのではなく、デコーダの前処理又は後処理回路によって使用されることになる。
図7は、3DoF+レンダリングのビューと補助パッチの追加のビューとの取得を示す。エンコーダ側では、補助パッチの生成は、異なる手段によって実行されてもよい。例えば、シーン70の取得では、現実又は仮想カメラの第1のグループ71は、シーン70の前面を指して配置されてもよい。現実又は仮想カメラの第2のグループ72は、容積シーンの背面及び側面を見るように配置される。一実施形態では、カメラ72は、カメラ71よりも低い解像度でビューを捕捉する。カメラ72は、オブジェクトの隠れた部分の幾何学的形状及び/又は色を得る。カメラ71によって捕捉されたビューから取得されたパッチは3DoF+レンダリング用のパッチであり、カメラ72によって捕捉されたビューから取得されたパッチは、前処理又は後処理使用のための幾何学的形状及び/又は色情報の記述を完了するための補助パッチである。アトラスのパッチに関連付けられたメタデータは、各パッチの意味をシグナリングするためにフォーマットされ得る。デコーダ側では、ビューポートレンダラーは、レンダリングに無効なパッチをスキップする必要がある。メタデータは、デコーダのどのモジュールがこれらのレンダリング無効パッチを使用し得るかも示す。例えば、再照明回路は、照明の視点からその幾何学的形状マップを更新し、相応に適切な影を生成するようにシーン全体の照明テクスチャを変化させるために、この補助情報を使用する。
典型的にはより低い解像度で、オブジェクトの背面部分の幾何学的形状を記述する、背面及び側面から撮影しているカメラ72に関連付けられた、補助パッチを生成するための手段が、エンコーダに追加される。背面及び側面からの追加の深度ビューを最初に取得する必要があるが、これは様々な方法で行うことができる。合成的に生成されたオブジェクトの場合、任意の場所に配置された仮想カメラに関連付けられた深度画像は、3Dモデルから直接取得される。自然な3D捕捉では、追加の色及び/又アクティブな深度カメラを撮影段階に追加することができ、深度カメラは深度ビューを直接提供し、その一方で写真測量アルゴリズムはカラービューから深度を推定する。3Dモデルも追加捕捉も利用可能ではないとき、前面カメラから受信した開放形態の幾何学的形状からの妥当な閉鎖形状を生成するために、凸形状完了アルゴリズムを使用することができる。 次に、カメラ71からのビューに対して実行されたのと同様の方法で、プルーニングによってビュー間冗長性が除去される。一実施形態では、プルーニングは、2つのグループのビューに対して独立して実行される。したがって、正規パッチと余分のパッチとの間の可能性のある冗長性は除去されない。結果として生じる補助深度パッチは、深度パッチアトラス内の正規パッチと一緒にパッキングされる。
別の実施形態では、補助パッチが深度のみについて定義される場合、テクスチャ及び深度アトラスに同一のレイアウトが使用されるならば、アトラス上のテクスチャ部分は空のままとなる。これらの補助パッチがより低い解像度で定義されると思われる場合でも、これはテクスチャアトラス内の余裕の損失をもたらす。このような実施形態では、深度及びテクスチャアトラスに対して異なるレイアウトを使用してもよく、この違いは、アトラスに関連付けられたメタデータに示される。
アトラスを記述するメタデータの可能な構文は、「entity_id」と呼ばれる高レベルの概念を含んでもよく、このentity_idにより、オブジェクトフィルタリング又は合成などの高レベルな意味的処理にパッチのグループを添付することを可能にする。アトラスパラメータのメタデータに可能な構文aを、以下の表に示す。
Figure 2023506832000002
本原理の一実施形態によれば、補助パッチは、補助エンティティと呼ばれる特定のエンティティとして識別される。次に、いくつかのエンティティ及びその機能(すなわち、これらが補助エンティティであるか否か)は、以下の表に示されるようにメタデータに記述される。
Figure 2023506832000003
1に等しいauxiliary_flagは、エンティティ構造ごとに補助記述が存在することを示す。
1に等しいauxiliary_entity_flag[e]は、エンティティeに関連するパッチがビューポートレンダリング用ではないことを示す。
本原理の別の実施形態によれば、補助パッチは、以下の表に示されるようにアトラスパラメータの構文を修正することによって、パッチレベルでシグナリングされる。
Figure 2023506832000004
1に等しいauxiliary_flagは、パッチ構造ごとに補助記述が存在することを示す。
1に等しいauxiliary_patch_flag[a][p]は、アトラスaのパッチpがビューポートレンダリング用ではないことを示す。
別の実施形態では、パッチ情報データ構文は、以下の表に示されるように補助パッチフラグを定義する。
Figure 2023506832000005
復号化側では、auxiliary_patch_flagは、パッチがレンダリング用及び/又は別のモジュール用の情報を含むか否かを判定するために使用される。
図8は、本原理の非限定的な実施形態による、補助情報を含む容積ビデオコンテンツを符号化するための方法80を示す。ステップ81において、例えば、第1のグループのカメラによって取得されたマルチビュープラス深度コンテンツから冗長情報をプルーニングすることによって、3DoF+レンダリングに使用されるパッチが生成される。ステップ82において、レンダリングされることを意図していないシーンの部分を撮影しているカメラによって捕捉されたビューから補助パッチが生成される。ステップ81及び82は、平行して、又は順々に実行されてもよい。補助パッチを生成するために使用されるビューは、例えば、3Dシーンの背面及び側面に位置する、第2のグループのカメラによって捕捉される。補助パッチは、例えば、第1及び第2のグループのカメラによって捕捉されたビューに含まれる冗長情報をプルーニングすることによって生成される。別の実施形態では、補助パッチは、例えば、第2のグループのカメラによってのみ捕捉されたビューに含まれる冗長情報をプルーニングすることによって生成される。この実施形態では、3DoF+パッチと補助パッチとの間に冗長性が存在し得る。ステップ83において、アトラスは、3DoF+及び補助パッチを同じ画像内にパッキングすることによって生成される。一実施形態では、パッキングレイアウトは、アトラスの深度及び色成分で異なる。アトラスパラメータ及びパッチパラメータを記述するメタデータは、上記の表に記載されるような構文に従って生成される。メタデータは、パッチごとに、パッチがレンダリングされることになる3DoF+パッチであるか、又は前処理及び/又は後処理に使用されることになる補助パッチであるかを示す情報を含む。ステップ84において、生成されたアトラス及び関連付けられたメタデータは、データストリーム内で符号化される。
図9は、本原理の非限定的な実施形態による、補助情報を含む容積ビデオコンテンツを復号化するための方法90を示す。ステップ91において、容積コンテンツを表すデータストリームが、ストリームから取得される。データストリームは、アトラス及び関連付けられたメタデータを取得するために復号化される。アトラスは、パッキングレイアウトに従って少なくとも1つのパッチをパッキングする画像である。パッチは、3Dシーンの一部を表す深度及び/又は色情報を含む写真である。メタデータは、パッチを逆投影し、3Dシーンを取得するための情報を含む。ステップ92において、パッチはアトラスからアンパッキングされ、性質は、メタデータに含まれる情報に従って各パッチに起因する。パッチは、ステップ93でビューポート画像をレンダリングするために使用することになる3DoF+パッチ、又はステップ94で前処理又は後処理動作のために使用することになる補助パッチであってもよい。ステップ93及び94は、平行して、又は順々に実行されてもよい。
本明細書に記載の実装形態は、例えば、方法又はプロセス、装置、コンピュータプログラム製品、データストリーム、又は信号において実装され得る。実装形態の単一の形態の文脈でのみ考察された場合(例えば、方法又はデバイスとしてのみ考察される)であっても、考察される特徴の実装形態は、他の形態(例えば、プログラム)においても実装され得る。装置は、例えば、適切なハードウェア、ソフトウェア、及びファームウェアで実装され得る。この方法は、例えば、コンピュータ、マイクロプロセッサ、集積回路又はプログラマブル論理デバイスを含む、一般に処理デバイスを指すプロセッサなどの装置において実装され得る。プロセッサはまた、例えば、スマートフォン、タブレット、コンピュータ、携帯電話、携帯型/パーソナルデジタルアシスタント(「personal digital assistant、PDA」)及びエンドユーザ間の情報の通信を容易にする他のデバイスなどの通信デバイスを含む。
本明細書に記載の様々なプロセス及び特徴の実装は、様々な異なる機器又は用途、特に、例えば、データ符号化、データ復号化、ビュー生成、テクスチャ処理並びに画像及び関連するテクスチャ情報及び/又は深度情報の他の処理に関連付けられた機器又は用途において、具体化され得る。そのような機器の例としては、エンコーダ、デコーダ、デコーダからの出力を処理するポストプロセッサ、エンコーダに入力を提供するプリプロセッサ、ビデオコーダ、ビデオデコーダ、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、及び他の通信デバイスが挙げられる。明確であるはずであるように、機器は、モバイルであり得、モバイル車両に設置され得る。
更に、方法は、プロセッサによって実行される命令によって実装され得、そのような命令(及び/又は実装形態によって生成されたデータ値)は、例えば、集積回路、ソフトウェアキャリア又は他の記憶デバイス、例えば、ハードディスク、コンパクトディスケット(「compact diskette、CD」)、光学ディスク(例えば、デジタル多用途ディスク又はデジタルビデオディスクと称されることが多いDVDなど)、ランダムアクセスメモリ(「random access memory、RAM」)又は読み取り専用メモリ(「read-only memory、ROM」)などのプロセッサ可読媒体上に記憶され得る。命令は、プロセッサ可読媒体上で明白に具体化されたアプリケーションプログラムを形成し得る。命令は、例えば、ハードウェア、ファームウェア、ソフトウェア、又は組み合わせであり得る。命令は、例えば、オペレーティングシステム、別個のアプリケーション、又は2つの組み合わせに見出され得る。したがって、プロセッサは、例えば、プロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有するプロセッサ可読媒体(記憶デバイスなど)を含むデバイスと、の両方として特徴付けられ得る。更に、プロセッサ可読媒体は、命令に加えて、又は命令の代わりに、実装形態によって生成されたデータ値を記憶することができる。
当業者には明らかであるように、実装形態は、例えば、記憶又は送信され得る情報を担持するようにフォーマット化された様々な信号を生成し得る。情報は、例えば、方法を実行するための命令又は記載された実装形態のうちの1つによって生成されたデータを含み得る。例えば、信号は、記載された実施形態の構文を書き込むか、若しくは読み取るためのルールをデータとして担持するか、又は記載された実施形態によって書き込まれた実際の構文値をデータとして担持するようにフォーマット化され得る。かかる信号は、例えば、(例えば、スペクトルの無線周波数部分を使用して)電磁波として、又はベースバンド信号としてフォーマットされ得る。フォーマットすることは、例えば、データストリームを符号化し、符号化されたデータストリームで搬送波を変調することを含み得る。信号が搬送する信号は、例えば、アナログ情報又はデジタル情報であり得る。信号は、知られているように、様々な異なる有線又は無線リンクによって送信され得る。信号は、プロセッサ可読媒体に記憶され得る。
多くの実装形態が説明されている。それにもかかわらず、様々な修正が行われ得ることが理解されるであろう。例えば、異なる実装形態の要素は、他の実装形態を生成するために組み合わせ、補足、修正、又は削除することができる。更に、当業者は、開示されたものに対して他の構造及びプロセスを置換することができ、結果として生じる実装形態は、少なくとも実質的に同じ機能を少なくとも実質的に同じ方法で実行して、開示された実装形態と少なくとも実質的に同じ結果を達成することを理解するであろう。したがって、これら及び他の実装形態は、本出願によって企図される。

Claims (12)

  1. データストリーム内の3Dシーンを符号化するための方法であって、
    -前記3Dシーンのレンダリングのために取得された第1のマルチビュープラス深度(MVD)から第1のパッチのセットを生成することであって、パッチは、前記MVDコンテンツのビューのうちの1つの一部である、ことと、
    -前処理又は後処理使用のために取得された第2のMVDコンテンツから第2のパッチのセットを生成することと、
    -前記第1及び第2のパッチのアトラスを生成することであって、アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像であり、前記アトラスのパッチについて、前記パッチが第1のパッチか第2のパッチかを示すメタデータに関連付けられている、ことと、
    -前記データストリーム内で前記アトラスを符号化することと、
    を含む、方法。
  2. 前記第2のMVDは、前記第1のMVDの解像度よりも低い解像度で取得される、請求項1に記載の方法。
  3. パッチは、ビューとMVDとの間の情報冗長性を除去することによって取得されたMVDの1つのビューの一部である、請求項1又は2に記載の方法。
  4. データストリームから3Dシーンを復号化するための方法であって、
    -アトラス及び関連付けられたメタデータを取得するために前記データストリームを復号化することであって、アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像であり、パッチは、前記3Dシーンの領域から取得されたMVDコンテンツの1つのビューの一部であり、前記メタデータは、前記アトラスのパッチについて、前記パッチが第1のパッチか第2のパッチかを示すデータを含む、ことと、
    -前記メタデータ内の第1のパッチとして示されるパッチを使用することによって、前記3Dシーン内の視点からビューポート画像をレンダリングすることと、
    -前記ビューポート画像を前処理及び/又は後処理するために、前記メタデータ内の第2のパッチとして示されるパッチを使用することと、
    を含む、方法。
  5. 前記第2のMVDは、前記第1のMVDの解像度よりも低い解像度を有する、請求項4に記載の方法。
  6. データストリーム内の3Dシーンを符号化するためのデバイスであって、前記デバイスは、
    -前記3Dシーンのレンダリングのために取得された第1のマルチビュープラス深度(MVD)から第1のパッチのセットを生成し、パッチは、前記MVDコンテンツのビューのうちの1つの一部であり、
    -前処理又は後処理使用のために取得された第2のMVDコンテンツから第2のパッチのセットを生成し、
    -前記第1及び第2のパッチのアトラスを生成すし、アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像であり、前記アトラスのパッチについて、前記パッチが第1のパッチか第2のパッチかを示すメタデータに関連付けられており、
    -前記データストリーム内で前記アトラスを符号化する、
    ように構成されたプロセッサに関連付けられたメモリを含む、デバイス。
  7. 前記第2のMVDは、前記第1のMVDの解像度よりも低い解像度で取得される、請求項6に記載のデバイス。
  8. パッチは、ビューとMVDとの間の情報冗長性を除去することによって取得されたMVDの1つのビューの一部である、請求項6又は7に記載のデバイス。
  9. データストリームから3Dシーンを復号化するためのデバイスであって、
    -アトラス及び関連付けられたメタデータを取得するために前記データストリームを復号化し、アトラスは、アトラスレイアウトに従ってパッチをパッキングする画像であり、パッチは、前記3Dシーンの領域から取得されたMVDコンテンツの1つのビューの一部であり、前記メタデータは、前記アトラスのパッチについて、前記パッチが第1のパッチか第2のパッチかを示すデータを含み、
    -前記メタデータ内の第1のパッチとして示されるパッチを使用することによって、前記3Dシーン内の視点からビューポート画像をレンダリングし、
    -前記ビューポート画像を前処理及び/又は後処理するために、前記メタデータ内の第2のパッチとして示されるパッチを使用する、
    ように構成されたプロセッサを含む、デバイス。
  10. 前記第2のMVDは、前記第1のMVDの解像度よりも低い解像度を有する、請求項9に記載のデバイス。
  11. 3Dシーンを表すデータストリームであって、前記データストリームは、
    -アトラスレイアウトに従って第1及び第2のパッチをパッキングするアトラス画像であって、第1のパッチは、前記3Dシーンのレンダリングのために取得されたMVDコンテンツの1つのビューの一部であり、第2のパッチは、前処理又は後処理使用のために取得されたMVDコンテンツの1つのビューの一部である、アトラス画像と、
    -前記アトラスに関連付けられたメタデータであって、前記メタデータは、前記アトラスのパッチについて、前記パッチが第1のパッチか第2のパッチかを示すデータを含む、メタデータと
    を含む、データストリーム。
  12. 前記第2のMVDは、前記第1のMVDの解像度よりも低い解像度を有する、請求項11に記載のデータストリーム。
JP2022536635A 2019-12-19 2020-12-17 補助パッチを有する容積ビデオ Pending JP2023506832A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19306697 2019-12-19
EP19306697.4 2019-12-19
PCT/EP2020/086623 WO2021122881A1 (en) 2019-12-19 2020-12-17 Volumetric video with auxiliary patches

Publications (1)

Publication Number Publication Date
JP2023506832A true JP2023506832A (ja) 2023-02-20

Family

ID=69185206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536635A Pending JP2023506832A (ja) 2019-12-19 2020-12-17 補助パッチを有する容積ビデオ

Country Status (9)

Country Link
US (1) US20230042874A1 (ja)
EP (1) EP4078531A1 (ja)
JP (1) JP2023506832A (ja)
KR (1) KR20220127246A (ja)
CN (1) CN114945946A (ja)
AU (1) AU2020409674A1 (ja)
MX (1) MX2022007297A (ja)
TW (1) TW202126036A (ja)
WO (1) WO2021122881A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230129875A1 (en) * 2020-03-19 2023-04-27 Nokia Technologies Oy A method, an apparatus and a computer program product for volumetric video encoding and video decoding
WO2023208808A1 (en) * 2022-04-27 2023-11-02 Interdigital Ce Patent Holdings, Sas Providing segmentation information for immersive video

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3349182A1 (en) * 2017-01-13 2018-07-18 Thomson Licensing Method, apparatus and stream for immersive video format
EP3474562A1 (en) * 2017-10-20 2019-04-24 Thomson Licensing Method, apparatus and stream for volumetric video format
GB2572996A (en) * 2018-04-19 2019-10-23 Nokia Technologies Oy Processing video patches for three-dimensional content

Also Published As

Publication number Publication date
CN114945946A (zh) 2022-08-26
TW202126036A (zh) 2021-07-01
MX2022007297A (es) 2022-08-25
KR20220127246A (ko) 2022-09-19
EP4078531A1 (en) 2022-10-26
WO2021122881A1 (en) 2021-06-24
US20230042874A1 (en) 2023-02-09
AU2020409674A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US11979546B2 (en) Method and apparatus for encoding and rendering a 3D scene with inpainting patches
WO2019209838A1 (en) Method, apparatus and stream for volumetric video format
US11968349B2 (en) Method and apparatus for encoding and decoding of multiple-viewpoint 3DoF+ content
KR20220069086A (ko) 볼류메트릭 비디오를 인코딩, 송신 및 디코딩하기 위한 방법 및 장치
JP2023506832A (ja) 補助パッチを有する容積ビデオ
US20220377302A1 (en) A method and apparatus for coding and decoding volumetric video with view-driven specularity
JP2022549431A (ja) 容積ビデオを符号化、送信、及び復号化するための方法及び装置
EP3709659A1 (en) A method and apparatus for encoding and decoding volumetric video
US20230239451A1 (en) A method and apparatus for encoding and decoding volumetric content in and from a data stream
US20220343546A1 (en) Haptic atlas coding and decoding format
US20230224501A1 (en) Different atlas packings for volumetric video
JP2022551064A (ja) 容積ビデオを符号化、送信、及び復号化するための方法及び装置
JP2024514066A (ja) 光効果をサポートする容積ビデオ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220907

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20231110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231129