JP2019534500A - 没入型ビデオフォーマットのための方法、機器、及びシステム - Google Patents

没入型ビデオフォーマットのための方法、機器、及びシステム Download PDF

Info

Publication number
JP2019534500A
JP2019534500A JP2019512646A JP2019512646A JP2019534500A JP 2019534500 A JP2019534500 A JP 2019534500A JP 2019512646 A JP2019512646 A JP 2019512646A JP 2019512646 A JP2019512646 A JP 2019512646A JP 2019534500 A JP2019534500 A JP 2019534500A
Authority
JP
Japan
Prior art keywords
syntax element
data
stream
parametric surface
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019512646A
Other languages
English (en)
Inventor
フリュールー,ジュリアン
ブリアン,ジェラール
ドレ,ルノー
Original Assignee
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル ヴイシー ホールディングス, インコーポレイテッド, インターデジタル ヴイシー ホールディングス, インコーポレイテッド filed Critical インターデジタル ヴイシー ホールディングス, インコーポレイテッド
Publication of JP2019534500A publication Critical patent/JP2019534500A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Generation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

オブジェクトの少なくとも一部を表現する点群の点に関連するデータを取得すること、オブジェクトの少なくとも一部に関連する少なくとも幾何学的特性及び少なくとも1つの画像を取得するために使用される取得装置の姿勢情報に従ってパラメトリック曲面を取得すること、パラメトリック曲面に関連する高さマップ及び1つ又は複数のテクスチャマップを取得すること、少なくともパラメータに関する第1の構文要素、高さマップに関する第2の構文要素、少なくとも1つのテクスチャマップに関する第3の構文要素、及び取得装置の位置に関する第4の構文要素を組み合わせることによってストリームを生成することを含む、オブジェクトの画像からストリームを生成するための方法及び装置。本開示は、そのように取得したストリームからオブジェクトの画像をレンダリングするための方法及び装置に更に関する。

Description

1.技術分野
本開示は没入型ビデオコンテンツの分野に関する。本開示は、例えばモバイル装置やヘッドマウントディスプレイ等のエンドユーザ装置上でレンダリングするための没入型コンテンツを表すデータのフォーマッティングの脈絡でも理解される。
2.背景
この節は、以下に記載の及び/又は特許請求の範囲に記載の本開示の様々な態様に関係し得る技術の様々な側面を読者に紹介することを目的とする。この解説は、本発明の様々な態様をより良く理解するのを助けるための背景情報を読者に与えるのに有用だと考えられる。従って、これらの記述は従来技術の承認としてではなく、かかる観点から読まれるべきことを理解すべきである。
ヘッドマウントディスプレイ(HMD)やCAVE等のディスプレイシステムは、利用者が没入型ビデオコンテンツを閲覧することを可能にする。没入型ビデオコンテンツはCGI(コンピュータ生成画像)技法によって得ることができる。かかる没入型ビデオコンテンツにより、コンテンツを見ている利用者の視点に従ってコンテンツを計算することができるが、非現実的なグラフィカル品質が伴う。没入型ビデオコンテンツは、球体や立方体等の面上にビデオ(例えば数台のカメラによって取得されるビデオ)をマッピングすることによって得ることができる。かかる没入型ビデオコンテンツは優れた画質を提供するが、とりわけ前景の、即ちカメラに近いシーンのオブジェクトに関して視差に関する問題が生じる。
没入型ビデオコンテンツの脈絡において自由視点ビデオ(FVV:free-viewpoint video)とは、マルチビュービデオの表現及びコード化並びに任意の視点からのその後の再レンダリングのための技法である。没入型コンテンツにおけるユーザエクスペリエンスを高める一方、レンダラに搬送すべきデータ量が非常に重要であり問題になり得る。
3.概要
本明細書での「一実施形態」、「或る実施形態」、「一実施形態例」、「特定の実施形態」への言及は、記載される実施形態が特定の特徴、構造、又は特性を含み得るが、全ての実施形態がそれらの特定の特徴、構造、又は特性を必ずしも含まなくても良いことを意味する。更に、かかる語句は必ずしも同じ実施形態を指すものではない。更に、或る実施形態に関連して特定の特徴、構造、又は特性が記載される場合、明確に記載されていようがいまいが、かかる特徴、構造、又は特性を他の実施形態に関連して目指すことが当業者の知識の範囲内にあると考えられる。
本開示は、シーンのオブジェクトの少なくとも1つの画像からストリームを生成する方法に関し、この方法は、
−オブジェクトの少なくとも一部を表現する点群の点に関連するデータを取得すること、
−少なくとも1つの取得装置によって計算されるライトフィールド及び少なくとも1つの取得装置と点群との間の最短距離である距離に従ってパラメトリック曲面を表す少なくともパラメータを取得すること、
−データからパラメトリック曲面に関連する高さマップを取得することであって、高さマップはオブジェクトの少なくとも一部とパラメトリック曲面との間の距離を表す情報を含む、取得すること、
−データからパラメトリック曲面に関連する少なくとも1つのテクスチャマップを取得すること、
−少なくともパラメータに関する第1の構文要素と、高さマップに関する第2の構文要素と、少なくとも1つのテクスチャマップに関する第3の構文要素と、取得装置の位置に関する第4の構文要素とを組み合わせることによってストリームを生成すること
を含む。
特定の特性によれば、少なくともパラメータがオブジェクトの少なくとも一部の変形に従って経時変化する。
特定の特性によれば、データがテクスチャ情報及び深度を表す情報を含む。
本開示は、シーンのオブジェクトの少なくとも1つの画像からストリームを生成する上記の方法を実装するように構成される装置にも関する。
本開示はシーンのオブジェクトを表現するデータを運ぶストリームにも関し、データは
−オブジェクトの少なくとも一部に関連する少なくとも幾何学的特性及び少なくとも1つの画像を取得するために使用される取得装置の姿勢情報に従って得られるパラメトリック曲面を表す少なくともパラメータに関する第1の構文要素であって、前述の少なくとも幾何学的特性はオブジェクトの少なくとも一部に関連する点群の点に関連する面から得られる、第1の構文要素、
−オブジェクトの少なくとも一部を表現する点群の点に関連する第2のデータから得られる高さマップに関する第2の構文要素であって、高さマップはオブジェクトの少なくとも一部とパラメトリック曲面との間の距離を表す情報を含む、第2の構文要素、
−第2のデータから得られる少なくとも1つのテクスチャマップに関する第3の構文要素、及び
−取得装置の位置に関する第4の構文要素
を含む。
特定の特性によれば、オブジェクトの少なくとも一部の変形に従って変化する少なくともパラメータの変化に応じて第1の構文要素が経時変化する。
特定の特性によれば、第2のデータがテクスチャ情報及び深度を表す情報を含む。
本開示は、オブジェクトを表現するデータを運ぶストリームから前述のオブジェクトの少なくとも一部の画像をレンダリングする方法にも関し、この方法は、
−ストリームの第1の構文要素からパラメトリック曲面を表す少なくともパラメータを取得すること、
−ストリームの第2の構文要素から高さマップを取得することであって、高さマップはオブジェクトの少なくとも一部とパラメトリック曲面との間の距離を表す情報を含む、取得すること、
−ストリームの第3の構文要素から少なくとも1つのテクスチャマップを取得すること、
−パラメトリック曲面、高さマップ、及び少なくとも1つのテクスチャマップからオブジェクトの少なくとも一部を表現する点群の点に関連するデータを取得すること、
−データ及びストリームの第4の構文要素からの取得装置の位置を表す情報に基づいて画像をレンダリングすること
を含む。
特定の特性によれば、データがテクスチャ情報及び深度を表す情報を含む。
特定の特性によれば、レンダリングが前述のデータのスプラットレンダリングを含む。
本開示は、オブジェクトを表現するデータを運ぶストリームから前述のオブジェクトの少なくとも一部の画像をレンダリングする上記の方法を実装するように構成される装置にも関する。
本開示は、コンピュータ上で実行されるとき、オブジェクトを表現するデータを運ぶストリームから前述のオブジェクトの少なくとも一部の画像をレンダリングする方法のステップを実行するためのプログラムコード命令を含むコンピュータプログラム製品にも関する。
本開示は、シーンのオブジェクトの少なくとも1つの画像からストリームを生成する方法のステップを実行するためのプログラムコード命令を含むコンピュータプログラム製品にも関する。
本開示は、シーンのオブジェクトの少なくとも1つの画像からストリームを生成する少なくとも上記の方法をプロセッサに実行させるための命令を内部に記憶している(非一時的)プロセッサ可読媒体にも関する。
本開示は、コンピュータ上で実行されるとき、オブジェクトを表現するデータを運ぶストリームから前述のオブジェクトの少なくとも一部の画像をレンダリングする少なくとも上記の方法をプロセッサに実行させるための命令を内部に記憶している(非一時的)プロセッサ可読媒体にも関する。
4.図面一覧
以下の説明を読めば本開示がより良く理解され、他の特定の特徴及び利点が現われ、本説明は以下の付属図面を参照する。
本原理の特定の実施形態による没入型コンテンツを示す。 本原理の特定の実施形態による、図1の没入型コンテンツの少なくとも一部を取得するためにシーンの画像を取得するように構成されるライトフィールド取得装置を示す。 本原理の特定の実施形態による、図1の没入型コンテンツの少なくとも一部を取得するためにシーンの画像を取得するように構成されるライトフィールド取得装置を示す。 本原理の特定の実施形態による、図2A及び図2Bの取得装置を用いて取得されたシーンのオブジェクトの一部の表現を示す。 本原理の特定の実施形態による、図3のオブジェクトを表現するためのプロセス内で使用されるパラメトリック曲面を示す。 図4のパラメトリック曲面のサンプリングの例示的実施形態を示す。 図4のパラメトリック曲面のサンプリングの例示的実施形態を示す。 図4のパラメトリック曲面のサンプリングの例示的実施形態を示す。 本原理の特定の実施形態による、図3のオブジェクトの変形に関する図4のパラメトリック曲面のマッチングを示す。 本原理の第1の特定の実施形態による、図4のパラメトリック曲面に対するテクスチャ情報の関連付けを示す。 本原理の第2の特定の実施形態による、図4のパラメトリック曲面に対するテクスチャ情報の関連付けを示す。 本原理の一例による、図12及び/又は図13の方法を実装するように構成される装置のアーキテクチャの一例を示す。 本原理の一例による、通信ネットワーク上で通信する図9の2つの遠隔装置を示す。 本原理の一例による、図3のオブジェクトの記述を運ぶ信号の構文を示す。 本原理の一例による、図3のオブジェクトの記述するデータのストリームを生成する方法を示す。 本原理の一例による、図3のオブジェクトの画像をレンダリングする方法を示す。 本原理の特定の実施形態による、取得装置のライトフィールドに従って計算され、図3のオブジェクトを表現するためのプロセス内で使用されるパラメトリック曲面の一例を示す。
5.実施形態の詳細な説明
次に本内容を図面に関して説明し、図面では全体を通して同様の要素を指すために同様の参照番号を使用する。以下の説明では、本内容の完全な理解を与えるために多数の具体的詳細を説明目的で記載する。但し本内容の実施形態はそれらの具体的詳細なしに実践できることが明白であり得る。
この説明は本開示の原理を示す。従って、本明細書では明確に説明し又は図示しないが本開示の原理を実施する様々な構成を当業者なら考案できることが理解されよう。
本原理は、シーンのオブジェクトを表現するデータのストリームを生成する方法の特定の実施形態、及び/又は生成したデータストリームからそのオブジェクトの1つ又は複数の画像をレンダリングする方法の特定の実施形態に関して説明する。1つ又は複数の取得装置を用いて取得したオブジェクト(又はその一部)の1つ又は複数の画像からオブジェクト(又はその一部)を表す点群を求める。オブジェクト(又はその一部)を表現するための基礎としてパラメトリック曲面を計算し、パラメトリック曲面はオブジェクトの幾何学的特性(例えば点群の極点及び/又は点群から得られるオブジェクトの外面の要素に関連する法線の情報)及び(例えばパラメトリック曲面をオリエントするための)取得装置の姿勢情報を使用することによって計算される。別の実施形態では、パラメトリック曲面が取得装置によって定められるライトフィールドに従って計算される。パラメトリック曲面は、例えば取得装置の全ての光学的中心ごとにセンタリングされる平滑な半球の区分的組合せとして形作られ、各半球の半径は他のものと重複しないように十分小さい。パラメトリック曲面は、取得装置と点群の最接近点との間に位置する。高さマップ及び1つ又は複数のテクスチャマップを決定し、パラメトリック曲面に関連付ける。高さマップの高さ情報、テクスチャマップのテクスチャ情報を取得装置の姿勢情報と共に用いてパラメトリック曲面を表す情報(即ちパラメータ)を組み合わせる及び/又はコード化することによってデータストリームが生成される。復号器/レンダリングされる側では、パラメトリック曲面を表す情報並びに関連する高さマップ及びテクスチャマップを復号する/抽出することによってオブジェクト(又はその一部)の画像を取得することができる。
パラメトリック曲面のサンプルに関連するテクスチャ情報及び高さ情報と共にオブジェクトを表現するための基準としてパラメトリック曲面を使用することは、点群を用いた表現と比較してオブジェクトを表現するのに必要なデータ量を減らすことを可能にする。
図1は、本原理の特定の且つ非限定的な実施形態による、4πステラジアンビデオコンテンツの非限定的な例示的形態における没入型コンテンツ10の一例を示す。図1は、没入型コンテンツ10の平面表現に対応する。没入型コンテンツ10は、例えば1台又は複数台のカメラを用いて取得した現実シーン又は現実オブジェクトと仮想オブジェクトとを含む混合現実シーンに対応し、仮想オブジェクトは例えば3Dエンジンを使用することによって合成される。没入型コンテンツ10の一部11は、例えば没入型コンテンツを視覚化するように適合される表示装置上で表示される没入型コンテンツの一部に対応し、部分11のサイズは例えば表示装置によって提供される視野に等しい。
没入型コンテンツ10を視覚化するために使用される表示装置は、例えば利用者の頭部に又はヘルメットの一部として着用されるHMD(ヘッドマウントディスプレイ)である。HMDは有利には1つ又は複数の表示画面(例えばLCD(液晶ディスプレイ)、OLED(有機発光ダイオード)、LCOS(エルコス:Liquid Crystal On Silicon))、及び現実世界の1軸、2軸、又は3軸(ピッチ軸、ヨー軸、及び/又はロール軸)に従ってHMDの位置変化を測定するように構成されるセンサ、例えばジャイロスコープやIMU(慣性計測装置)を含む。HMDの測定位置に対応する没入型コンテンツ10の一部11は、有利には現実世界内のHMDに関連する視点と没入型コンテンツ10に関連する仮想カメラの視点との間の関係を確立する特定の関数によって決定される。HMDの測定位置に従ってHMDの表示画面上に表示されるビデオコンテンツの一部11を制御することは、HMDを着用している利用者が、HMDの表示画面に関連する視野よりも大きい没入型コンテンツを見て回ることを可能にする。例えばHMDによって提供される視野が(例えばヨー軸の周りの)110°に等しい場合、且つ没入型コンテンツが180°のコンテンツを提供する場合、HMDを着用している利用者は自分の頭を右又は左に回転させて、HMDによって提供される視野外のビデオコンテンツ部分を見ることができる。別の例によれば、没入型システムがCAVE(Cave自動仮想環境)システムであり、没入型コンテンツが部屋の壁に投影される。CAVEの壁は、例えば背面映写スクリーンやフラットパネルディスプレイで作られる。従って、利用者は自分の視線を部屋の様々な壁上において見て回ることができる。CAVEシステムは、有利には、利用者の画像を取得して利用者の視線方向をそれらの画像をビデオ処理することによって決定するためのカメラを備える。改変形態によれば利用者の視線又は姿勢が追跡システム、例えば赤外線追跡システムによって決定され、利用者は赤外線センサを着用している。別の改変形態によれば、没入型システムが触覚表示画面を有するタブレットであり、利用者は1本又は複数本の指を触覚表示画面上でスライドさせてコンテンツをスクロールすることによってコンテンツ内を見て回る。
没入型コンテンツ10並びに部分11は、前景オブジェクト及び背景オブジェクトを含み得る。
当然ながら、没入型コンテンツ10は4πステラジアンビデオコンテンツに限定されず、視野11よりも大きいサイズを有する任意のビデオコンテンツ(又は視聴覚コンテンツ)に及ぶ。没入型コンテンツは、例えば2π、2.5π、3πステラジアンコンテンツ等とすることができる。
図2A及び図2Bはライトフィールド取得装置の一例を示す。より詳細には、図2A及び図2Bは、本原理の2つの特定の実施形態によるカメラアレイ2A、2B(マルチカメラアレイとも呼ぶ)をそれぞれ示す。
カメラアレイ2Aは、幾つかのマイクロレンズ201、202から20p(pはマイクロレンズの数に対応する整数)を含むレンズ又はマイクロレンズのアレイ20と、1つ又は幾つかのセンサアレイ21とを含む。カメラアレイ2Aはメインレンズを含まない。レンズのアレイ20は、マイクロレンズアレイと一般に名付けられる小型装置とすることができる。単一のセンサを有するカメラアレイは、メインレンズが無限の焦点距離を有するプレノプティックカメラの特別な事例と見なすことができる。光センサの数がマイクロレンズの数と等しい、即ち1つの光センサが1つのマイクロレンズと光学的に関連付けられる特定の構成によれば、カメラアレイ20は、例えば(図2Aに示す)正方形の構成や五の目型の構成等、複数の密集した個々のカメラ(例えばマイクロカメラ)の構成と見なすことができる。
カメラアレイ2Bは、レンズ及び光センサアレイをそれぞれ含む個々のカメラのリグに対応する。カメラは例えば数センチメートル以下や5cm、7cm、又は10cmに等しい距離隔てられる。
かかるカメラアレイ2A又は2Bによって得られる(所謂ライトフィールド画像を形成する)ライトフィールドデータはシーンの複数のビュー、即ち小型レンズアレイと光センサアレイとの間の距離がマイクロレンズの焦点距離に等しいプレノプティックカメラに相当するタイプ1.0のプレノプティックカメラやそうではないタイプ2.0のプレノプティックカメラ(フォーカスドプレノプティックカメラとも呼ばれる)等のプレノプティックカメラを用いて得られる生画像を多重分離しデモザイク処理することによって得ることができる最終的なビューに対応する。カメラアレイ2Bのカメラは任意の既知の方法に従って較正され、即ちカメラの固有パラメータ及び外部パラメータは知られている。
ライトフィールド取得装置によって得られる様々なビューは、没入型コンテンツ又は没入型コンテンツの少なくとも一部を取得することを可能にする。当然ながら、没入型コンテンツはライトフィールド取得装置と異なる取得装置によって、例えば深度センサ(例えばMicrosoftのKinect等の赤外線発光器/受光器やレーザ発光器を有するを有する)に関連するカメラを用いて得ても良い。
図3は、没入型コンテンツによって表されるシーンのオブジェクト又はその一部の2つの異なる表現を示す。図3の例によれば、オブジェクトは例えばシーン内を移動している人物であり、頭部に相当するオブジェクトの一部を図3に示す。
オブジェクトの一部の第1の表現30は点群である。この点群はオブジェクト、例えばオブジェクトの外面や外部形状を表す複数の点の大きな集合に相当する。点群はベクトルに基づく構造と見なすことができ、各点はその座標(例えば三次元座標XYZや所与の視点からの深度/距離)及び成分とも呼ばれる1つ又は複数の属性を有する。成分の一例は、様々な色空間、例えばRGB(赤色、緑色、及び青色)やYUV(Yはルマ成分でありUVは2つのクロミナンス成分)内で表現され得る色成分である。点群は、所与の視点又は一連の視点から見たオブジェクトの表現である。点群は様々なやり方、例えば以下のように取得することができる。
・任意選択的に深度アクティブ感知装置によって補完される、図2のカメラアレイのようなカメラのリグによって撮像される現実オブジェクトを捕捉したものから取得される。
・モデリングツールにおける仮想カメラのリグによって撮像される仮想/合成オブジェクトを捕捉したものから取得される。
・現実オブジェクト及び仮想オブジェクトを混合したものから取得される。
(現実オブジェクトの捕捉からの)第1の事例では、1組のカメラが様々なビュー(様々な視点)に対応する1組の画像又は一連の画像(ビデオ)を生成する。各カメラ中心からオブジェクト表面までの距離を意味する深度情報が、例えば赤外域において且つ構造化光分析又は飛行時間に基づくアクティブ深度感知装置によって、又は視差アルゴリズムに基づいて取得される。両方の場合において、全てのカメラを固有に且つ外部的に較正する必要がある。視差アルゴリズムは、典型的には1次元ラインに沿って行われる、1対の補正されたカメラ画像上での同様の視覚的特徴の探索で構成され、画素列の差が大きくなるほどこの特徴の表面が近くなる。カメラアレイの場合、複数のカメラの対の利点を利用し、複数のピア視差情報を組み合わせることによってグローバル深度情報を取得し、従って信号対雑音比(SN比)を改善することができる。
第2の事例(合成オブジェクト)では、モデル化ツールが深度情報を直接提供する。
オブジェクトの一部の第2の表現31は点群表現30から取得することができ、第2の表現は表面表現に対応する。点群はその表面を計算するために処理することができる。そのために、点群の所与の点に関し、この所与の点における局所表面に対する法線を計算するためにこの所与の点に隣接する点を使用し、この所与の点に関連する表面要素は法線から導出される。表面を取得するためにこのプロセスを全ての点に対して繰り返す。点群から表面を再構築するための方法は、例えばMatthew Bergerらによって“State of the Art in Surface Reconstruction from Point Clouds”, State of the Art Report, 2014の中で記載されている。改変形態によれば、この所与の点に対してスプラットレンダリングを適用することによって点群の所与の点に関連する表面要素が取得される。オブジェクトの表面(オブジェクトの陰関数曲面又は外面とも呼ばれる)は、点群の点に関連する全てのスプラット(例えば楕円体)を混合することによって得られる。
特定の実施形態では、点群がオブジェクト全体ではなくオブジェクトの部分的なビューのみを表現し、かかるビューはレンダリング側、例えば映画のシーン内でオブジェクトがどのように見えることになるのかに対応する。例えば、平面カメラアレイの方を向いているキャラクタを撮像することはリグ側だけの点群を生成する。キャラクタの背後は存在すらしておらず、オブジェクト自体が閉じておらず、従ってこのオブジェクトの幾何学的特性はリグの方を向いている1組の全ての表面である(各局所表面の法線と取得装置に戻る光線との間の角度は例えば180°未満である)。
図4は、本原理の非限定的な実施形態による、オブジェクト43を表現するために使用される表面44を示す。表面44はパラメトリック曲面、即ちパラメータによって定義され、パラメトリック方程式によって定義される表面である。
図4に示すように、あり得るパラメトリック曲面の一例を円筒によって与える(明瞭にするために1つの次元しか示していないが、表面は2次元又は3次元で定めることができる)。パラメトリック曲面は、表面がパラメトリック方程式、即ち限られた数のパラメータを用いて定義され得る限り任意の形態、例えば正方形、矩形、又はより複雑な形状を取り得る。オブジェクト43(図3のオブジェクトに対応し得る)は3つの取得装置40、41、及び42、例えば3台のRGBカメラを用いて取得される。各取得装置40、41、42に異なる視点が関連付けられる。平坦な円筒表面45上へのオブジェクト43の表面の投影は、パラメトリック曲面44のマッピング/投影を矩形上に行うことに対応する。オブジェクト43の点に関連し、取得装置40、41、42を用いて得られる画像から取得され及び/又は計算される色情報及び深度情報が平坦な円筒表面45の対応する点に関連付けられ、即ち色+高さ情報が行インデックス及び列インデックスによって定義される各点/画素に関連付けられる。表面45の一部450に関連する色情報及び高さ情報は取得装置40のビューから取得され、表面45の一部451に関連する色情報及び高さ情報は取得装置41に関連するビューから取得され、表面45の一部452に関連する色情報及び高さ情報は取得装置42に関連するビューから取得される。
楕円体46は表面45の一部を示し、円形の点はオブジェクト43の点群表現の点をパラメトリック曲面44又はそのフラット表現45に投影したものに対応する。パラメトリック曲面44のサンプリングは、点群に由来するサンプリングとは異なることがある。パラメトリック曲面のサンプリングは、楕円体46内の十字「+」によって表現し、限られた数のパラメータを用いて記述される。図5A、図5B、及び図5Cの例示的実施形態の中で示すように、パラメトリック曲面44のサンプリングは均一でも不均一でも良い。
図5Aの例では、パラメトリック曲面のサンプリング50が均一であり、即ちサンプル点の列が互いに等距離に、即ち距離「a」で配置されており、同じことが行にも該当する。
図5Bの例では、パラメトリック曲面のサンプリング51が不均一であり、即ちサンプル点の列が互いに異なる距離で配列されており、即ち(左側から始まる)最初の2つの列は距離「a」隔てられ、次いで2つの列間の距離は「a+b」になり、次に「a+2b」になり、次に「a+3b」等のようになる。図5Bの例では、行は互いに等距離隔てられている。
図5A及び図5Bの例では、各サンプルに関連する高さ情報に関連する方向がパラメトリック曲面と直交する。図5Cの例では、サンプリング53のサンプルに関連する高さ情報に関連する方向が可変角度θ+qΔθで或るサンプルから別のサンプルへと変化し、但しθは初期角度であり、qは0から最大値Nまで変化する整数であり、Δθは2つの連続したサンプル間の角度変化に対応する。
パラメトリック曲面上のサンプリングの密度は、例えば以下に応じて調節される:
・オブジェクト、即ち点群のサンプリング、及び/又は
・期待されるレンダリング品質
例えばオブジェクトが遠いほどカメラのサンプリングの密度が低下し、パラメトリック曲面上のサンプリングの密度が低下し得る。
パラメトリック曲面のサンプルに関連付けられる値は以下の通りである:
・幾何学的情報、即ちパラメトリック曲面とオブジェクトの陰関数曲面との間の距離。
・色情報。最も簡単な形態では、パラメトリック曲面の各サンプルに対応するオブジェクト表面領域に関する様々なビューから混色値を計算することができ、例えば平均ディフューズ色(即ちパラメトリック曲面のサンプルに関連し得る点群の点の色情報の平均)が得られる。
パラメトリック曲面のサンプルに関連する高さ情報は、パラメトリック曲面と同数のサンプルを有する高さマップ内に記憶することができる。パラメトリック曲面のサンプルに関連する色情報は、パラメトリック曲面と同数のサンプルを有するテクスチャマップ内に記憶することができる。
所与のサンプルに関連付けられる高さ情報は、(図5A、図5B、及び図5Cに関して説明したサンプリングに応じてパラメトリック曲面と直交するように又は直交しないように)所与のサンプルからの光線をキャストすることによって得ることができる、高さは、光線と点群から取得されるオブジェクトの表面との間の交点に関連する点群の領域に属する点群の点からサンプルを分ける距離から求められる。この領域に幾つかの点が属する場合、距離は領域の複数の点からサンプルを分ける距離の平均とすることができる。パラメトリック曲面及び点群は取得装置に関する世界空間内で定められ、パラメトリック曲面のサンプルとオブジェクトの外面の点との間の距離はユークリッド距離であるものとして取得される。
同様に、所与のサンプルに関連付けられるテクスチャ情報は、所与のサンプルからの光線をキャストすることによって得ることができる。テクスチャ情報は、光線とオブジェクトの表面との間の交点に対応する領域に属する点群の点のテクスチャ/色情報(例えば平均)から取得される。別の実施形態では、パラメトリック曲面の分析表現(即ちパラメトリック曲面のジオメトリ及び法線)が知られている場合、例えば反復的なニュートン法を利用して点群を(法線及びサイズの関連情報を使用して)パラメトリック曲面上に直接スプラットすることができる。その場合、テクスチャ情報はスプラットの混合から得られる。
改変形態では、複数のパラメトリック曲面が同じオブジェクトに関連し得る。オブジェクトは複数の部分にセグメント化することができ、各部分に異なるパラメトリック曲面を関連付けることができ、所与の部分に関連するパラメトリック曲面はその部分の特定のジオメトリに従って、及びその部分を取得するために使用される取得装置の姿勢情報に従って決定される。この改変形態によれば、高さマップ及び1つ又は複数のテクスチャマップが各パラメトリック曲面に関連付けられる。例えばオブジェクトが人物である場合、第1のパラメトリック曲面を片方の脚に関連付けることができ、第2のパラメトリック曲面をもう片方の足に関連付けることができ、第3のパラメトリック曲面を腕に関連付けることができ、第4のパラメトリック曲面を他方の腕に関連付けることができ、第5のパラメトリック曲面を胴体に関連付けることができ、第6のパラメトリック曲面を頭部に関連付けることができる。
選択肢として、レンダリングに必要だが時間のかかる、MLS(移動最小二乗法)からの計算上の副産物を記録するために追加のテクスチャを追加することができる。例は、例えばCGI法線マップと等価のモードにおける法線ベクトルのテクスチャ又は大小の軸方向やサイズ等のスプラットジオメトリである。これらの追加のテクスチャの制約は、圧縮エンジンに良好に適合するために優れた空間的及び時間的なコヒーレンス特性を示すべきことである。全ての必要な情報が伝送されると、MLSカーネルパラメータの伝送はもはや有用ではなくなる。
図7に示す特定の実施形態では、複数のテクスチャマップが1つ又は複数のパラメトリック曲面に関連し得る。図7は、オブジェクトの一部70に関する2つのパラメトリック曲面71、72の生成を示し、部分70は例えば異なる角度に応じて異なる色を発光する。この場合、(例えばビューポートの方向に従って2色間の補間を行うことによって)クライアント側で正しくレンダリングするために、色の角度広がりの情報並びに別のテクスチャ情報を記録し搬送することができる。改変形態によれば、2つのパラメトリック曲面70、71の代わりに単一のパラメトリック曲面を生成することができ、様々なテクスチャマップが単一のパラメトリック曲面に関連付けられる。
図8に示す特定の実施形態では、オブジェクトの同一部分について複数のパラメトリック曲面を生成することができる。例えば、第1のパラメトリック曲面を人物の顔81について計算する(及び関連付ける)ことができる。第2のパラメトリック曲面を顔81の一部、即ち目を含む部分82について計算する(及び関連付ける)ことができる。第1の高さマップ及び第1のテクスチャマップが第1のテクスチャマップに関連付けられても良く、例えば第1の詳細度83で顔を表現することを可能にする。第2の高さマップ及び第2のテクスチャマップが第2のテクスチャマップに関連付けられても良く、例えば第2の詳細度84で顔の一部82を表現することを可能にする。この目的を達成するために、第1の定義が第1のパラメトリック曲面に関連付けられ、(第1の定義よりも上位の)第2の定義が第2のパラメトリック曲面に関連付けられる。顔をレンダリングする際に第2のテクスチャを視認可能にするために、第2の高さマップを生成するために計算された高さ値からオフセット値を減算する。高さ値は第2の高さマップ内に記憶し、顔の外面から第2のパラメトリック曲面を分ける計算された現実の高さ値よりも小さい。顔をレンダリングする際、レンダリングの観点に関して第2のテクスチャ情報が第1のテクスチャ情報の前に置かれる。
特定の実施形態では、図14に示すリグの取得装置に従ってパラメトリック曲面が計算される。この例では、図2A及び図2Bに示すように取得システムは擬似ピンホールカメラの平面リグである。オブジェクト140が3台のカメラ141a、141b、及び141cによって捕捉される。オブジェクト140は例えば人間のキャラクタである。図14ではオブジェクト140を上から見ており、腕が体の前にある。右腕の点142が3台のカメラ141a、141b、及び141cによって捕捉される。体の点143がカメラ141b及び141cによって捕捉され、点143はカメラ141aにとって腕によって隠されている。上記の原理に従ってパラメトリック曲面144、例えば円筒を構築するとき、点142が点145においてパラメトリック曲面144上に投影される。点143は、より離れた距離において点142と同じ法線上にあるのでパラメトリック曲面144上には投影されない。その結果、点143は3台のカメラのうちの2台によって捕捉されていながら高さマップ及びテクスチャマップ上で表現されない。復号器側では、これは偽の掩蔽をもたらす。パラメトリック曲面144は非常に少量のパラメータの記述を必要とし、さほど詳細ではない点群の表現を必要とする応用に十分である。
上記の幾何学的パラメトリック曲面144の代わりに、リグの取得装置のライトフィールドに従って計算されるパラメトリック曲面146を使用することができる。図14の例では、カメラのリグをそのライトフィールド(即ちリグがそれに沿って捕捉可能な1組の直線の光線)によって光学的に定めることができる。パラメトリック曲面146の法線はライトフィールドに沿って方向を有し、カメラのリグによって捕捉される全ての点がパラメトリック曲面上に投影される。例えばパラメトリック曲面146は、取得装置の全ての光学的中心ごとにセンタリングされる平滑な半球の区分的組合せとして形作られ、各半球の半径は他のものと重複しないように十分小さい。パラメトリック曲面146は、取得装置と点群の最接近点との間に位置する。
かかるパラメトリック曲面146を使い、リグによって捕捉される各点が最大で捕捉された回数に至るまで投影される。図14の例では点142が3台のカメラによって捕捉されており、そのため点147a、147b、及び147cにおいて3回まで投影される。点143は、点148b及び148cにおいてパラメトリック曲面146上に2回まで投影される。改変形態では、冗長データを符号化しないために、投影されるこれらの点の1つだけを点集合によって保つことができる。例えば、高さマップ内で最小値を有する点だけを保つ。改変形態では、最も中央にあるカメラに対応する半球上に投影される点を保つ。図14の例では、点147b及び148bを保ち、点147a、147c、及び148cを破棄する。これらの2つの基準は限定的ではなく、例えばリグに対する法線とパラメトリック曲面に対する法線との間の最小角度を有する点を保つこと等の他の基準が使用されても良い。
図6は、本原理の特定の且つ非限定的な実施形態による、オブジェクトの変形に関するパラメトリック曲面のマッチングを示す。図6の左側の部分は、時点tにおいて(又はビデオの第1のフレームAについて)取得したオブジェクト600に関連するパラメトリック曲面604を示し、図6の右側の部分は、時点t+1において(又は時間的に第1のフレームAの後に続くビデオの第2のフレームBについて)取得したオブジェクト601(オブジェクト600に対応するが外形が異なる、即ちオブジェクト600の変形されたバージョンに対応するオブジェクト601)に関連するパラメトリック曲面605を示す。オブジェクト600、601は、例えば図4の取得装置40、41、42に対応する1組のカメラ60、61、62を用いて取得される。図6の上の部分は利用者及びカメラの上面図に対応し、図6の下の部分は例えば利用者及びカメラの正面図に対応し、下の部分上ではカメラを黒色の円板で示す。
オブジェクトに最良に追従するように、(典型的には固定されている)カメラ60、61、62のリグ側で、パラメトリック曲面に対応する部分円筒604、605が、オブジェクト600、601それぞれに近接してオブジェクト600、601をそれぞれ部分的に取り囲む。パラメトリック曲面600、601の座標は、オブジェクト600、601をそれぞれ取り囲む境界ボックス602、603を計算することによって取得することができ、境界ボックス602、603は点群の各極(x,y,z)座標によって画定される)。パラメトリック曲面604、605を表現するパラメータ(例えば円筒形状のパラメトリック曲面の高さ、半径、中心位置)は境界ボックスを包含可能なものとして決定され、パラメトリック曲面604、605はカメラのビューの方向に開いている。この例は、パラメトリック曲面が(移動)オブジェクト及びカメラのリグの位置の両方に依存することを示す。
カメラ60、61、62によって捕捉されるオブジェクト600、601が時点tから時点t+1に移る場合、オブジェクトを表現するために使用される点群も変化し、つまりトポロジ(又はオブジェクトの幾何学的特性)が例えばオブジェクトの動きに従って(又はオブジェクトに適用される変形に従って)、例えばオブジェクト変化の幅及び/又は高さに従って変化する。従って、ビデオフレームごとに、点群に関係する全ての幾何学的情報及び/又はテクスチャ情報を記録し及び/又は搬送する関連する高さマップ及びテクスチャマップを用いてオブジェクトを表現するために使用されるパラメトリック曲面のトポロジを調節することに関連がある。以下の制約が適用され得る:及び/又は
−パラメトリック曲面上に点群を投影することが、例えばH264/MPEG4やH265/HEVC等の規格や他の任意の規格に基づいて通常の圧縮エンジンによって効率的に圧縮され得るように優れた空間的及び時間的整合性を有するビデオ画像を形成することができ、これは表面がサッカードなしに平滑に漸進的変化できることを意味する。
−点群の投影によってカバーされるパラメトリック曲面の部分を最大化するために、及び点群までのパラメトリック曲面の距離を最小化するためにパラメトリック曲面を点群に関して配置することができ、従って例えばPSNRメトリクによって測定される最終的な画像の質が保たれる。より詳細には、パラメトリック曲面は以下のように選択される:
1.その(幅×高さ)の画像解像度を最大限に利用する、及び/又は
2.深度をコード化するのに有用なビットの数を最適化する。
−各フレームにおけるパラメトリック曲面の漸進的変化/変化は容易に記録し、メタデータとして搬送し、復号器/レンダラ側で復元することができ、これはパラメトリック曲面が限られた数のパラメータによって表現され得ることを意味する。
図12は、本原理の非限定的な実施形態による、例えば(図9に関して説明した)装置9内で実装されるシーンのオブジェクトを表現するデータを含むストリームを生成するための方法を示す。
ステップ1200で、装置9の様々なパラメータを更新する。特に、オブジェクトの表現に関連するデータを任意のやり方で初期化する。
ステップ1201で、オブジェクトの一部又はオブジェクト全体を表現する点群の点に関連するデータを取得する。このデータは、例えば装置9のローカルメモリや(例えばインターネットやローカルエリアネットワーク等のネットワーク経由で)サーバ等の遠隔記憶装置等のメモリ装置から受信される。別の例によれば、このデータはオブジェクトを含むシーンの1つ又は複数のビューを取得するために使用される1つ又は複数の取得装置から受信される。このデータは、例えばテクスチャ情報(例えば色情報)及び距離情報(例えば検討中の点と検討中の点に関連する視点、即ち検討中の点を取得するのに使用される取得装置の視点との間の距離に対応する高さの深度)を含む。
ステップ1202で、パラメトリック曲面を表現する1つ又は複数のパラメータを取得する。パラメトリック曲面は点群によって表現されるオブジェクトの一部(又はオブジェクト全体)に関連する。例示的なパラメトリック曲面の一般式は以下の通りであり:
x=f(t,t
y=f(t,t
z=f(t,t
但しx、y、z座標は3つの次元を成し、f、f、fは連続関数であり、t、tはパラメータである。パラメトリック曲面のパラメータは、点群に関連する外面の幾何学的特性に従って、及び点群の点を取得するために使用される1つ又は複数の取得装置の姿勢情報から取得される。オブジェクトの検討中の部分に関連付けられるパラメトリック曲面を決定するために、例えば点に関連する座標から点群の極点の座標を決定することができる。極点は、座標が表現される空間の次元の少なくとも1つについて最小値又は極大を有する点に対応する。点群を包含する境界ボックスを極点から取得する。パラメトリック曲面は、中心として境界ボックスの背面の中心を有し、境界ボックスの前端を通過する円筒として取得することができ、取得装置が基準とされる。従って、パラメトリック曲面の向きは取得装置の姿勢情報を使用することによって決定される。
改変形態によれば、オブジェクトの一部の外面に関連する法線ベクトルが点群から計算される。パラメトリック曲面が外面の形状変化に近密に追従するように、法線ベクトルの向きの変化を使用してパラメトリック曲面を決定することができる。
ステップ1203では、ステップ1202で取得したパラメトリック曲面に関連する高さマップを取得、即ち決定し又は計算する。(例えば検討中のサンプルにおいてパラメトリック曲面に対して直交する)光線を発射することによってパラメトリック曲面のサンプルごとに高さ値を計算する。検討中のサンプルに関連付けられる高さ値は、検討中のサンプルと(光線と外面との間の交点に対応する)オブジェクト点の部分の外面の要素との間の距離に対応する。外面の要素に関連する座標は、例えば外面のこの表面要素を生成するために使用される点群の点から取得される。高さマップを取得するために、パラメトリック曲面のサンプルごとに高さ値を計算することができ、高さマップは例えばマップのサンプルごとに高さ値を記憶する例えば2次元マップ(又は画像)に対応し、マップのサンプルの数はパラメトリック曲面のサンプリングのサンプルの数に対応する。
ステップ1204では、ステップ1202で取得されたパラメトリック曲面に関連するテクスチャマップを取得、即ち決定し又は計算する。テクスチャマップは、例えばマップのサンプルごとにテクスチャ情報(例えば色情報)を記憶する2次元マップ(又は画像)に対応し、テクスチャマップのサンプルの数はパラメトリック曲面のサンプリングのサンプルの数に対応する。パラメトリック曲面の検討中のサンプルに関連するテクスチャ情報は、例えば検討中のサンプルにおいてパラメトリック曲面に対して直交する光線を発射することによって決定される。テクスチャマップ内に記憶するテクスチャ情報は、光線が横断するオブジェクトの部分の外面の表面要素に関連するテクスチャ情報に対応する。表面要素に関連するテクスチャ情報は、この表面要素を取得するために使用される点群の点のテクスチャ情報から取得される。改変形態では、パラメトリック曲面について幾つかのテクスチャマップを取得することができる。
ステップ1205では、ステップ1202で取得したパラメータ、ステップ1203で取得した高さ情報、及びステップ1204で取得したテクスチャ情報を組み合わせることにより、オブジェクトの一部を表現するデータを含むデータストリーム1100を取得する。かかるストリーム1100の構造の一例を図11に関して説明する。高さマップ及び1つ又は複数のテクスチャマップに関連するパラメトリック曲面形式でオブジェクトの一部を表現することには、点群を用いた表現と比較してオブジェクトの一部を表現するのに必要なデータ量が減る利点がある。点群を取得するために使用される取得装置の位置を表現する更なる情報をストリームに追加することができる。この更なる情報は、オブジェクトの一部を取得する視点の範囲の限界内にレンダリング装置上でのオブジェクトの一部のレンダリングを制約し、それにより、ストリームに含まれるオブジェクトの一部を表現する基礎となる点群を取得するために使用される視点の範囲に対応しない視点に従ってデータストリームからオブジェクトの一部をレンダリングしようと試みるとき生じ得るレンダリングアーティファクトを回避する利点を有する。
任意選択的なステップでは、オブジェクトの一部をレンダリングし又は表示するためにデータストリームを符号器に送信し、復号器又はレンダラによって受信する。
改変形態では、例えばオブジェクトの一部の形状又は外面が経時変化するとき、ストリームのデータが例えばフレームごとに経時変化する。外面が変化するとき、オブジェクトの一部の形状の変化を表現するためにパラメトリック曲面のパラメータを高さマップ及びテクスチャマップによって更新する。
別の改変形態では、オブジェクトの同一部分を例えば様々なサンプリング解像度に従って表現するために、幾つかのパラメトリック曲面を使用することができる。
オブジェクト全体を表現するために単一のパラメトリック曲面を使用することができ、又はオブジェクト全体を表現するために様々なパラメトリック曲面を使用することができ、例えば1つの別個のパラメトリック曲面がオブジェクトの異なる各部分を表現するために決定される。かかる改変形態では、異なるパラメトリック曲面並びに関連する高さマップ及びテクスチャマップを組み合わせることによってデータストリームが取得される。
別の改変形態によれば、オブジェクトの背景を表現するフラットビデオ(即ち2Dビデオ)が例えばmp4やmkv等のメディアコンテナ内でストリームに追加される。
図13は、図12の方法を用いて取得したストリームからオブジェクトの少なくとも一部を表現する画像をレンダリングするための方法を示す。このレンダリング方法は、例えば本願の原理の非限定的な実施形態に従って(図9に関して説明した)装置9内で実施される。
ステップ1300で、装置9の様々なパラメータを更新する。特に、オブジェクトの少なくとも一部の表現に関連するデータを任意のやり方で初期化する。
ステップ1301で、パラメトリック曲面を表現する1つ又は複数のパラメータをデータストリーム1100から取得し、かかるストリームの構造の一例を図11に記載した。1つ又は複数のパラメータは、例えばステップ1202で取得したパラメータに対応する。
ステップ1302では、ステップ1301で取得したパラメトリック曲面に関連する高さマップをストリーム1100から取得する。高さマップは、例えばステップ1203で取得した高さマップに対応する。
ステップ1303では、ステップ1301で取得したパラメトリック曲面に関連する1つ又は複数のテクスチャマップをストリーム1100から取得する。テクスチャマップは、例えばステップ1204で取得したテクスチャマップに対応する。
ステップ1304で、ステップ1301で取得したパラメトリック曲面、ステップ1302で取得した高さマップ、及びステップ1303で取得したテクスチャマップから点群の点に関連するデータを取得する。点はパラメトリック曲面のサンプルを逆投影することによって取得し、点の座標はサンプルの座標及びサンプルに関連する高さ情報から導出し、点のテクスチャ情報はサンプルに関連するテクスチャ情報から取得する。
ステップ1305で、ストリーム1100内に含まれる位置情報によって制約される視点からの、パラメトリック曲面、高さマップ、及びテクスチャマップによって表現されるオブジェクトの一部の画像をレンダリングする。例えば取得した点群の点に対してスプラットレンダリング技法を適用することによってオブジェクトの一部の外面を取得することができる。改変形態では、ストリームが一連のフレーム(即ち画像)にわたってオブジェクト又はその一部を表現する情報を含む場合、一連の画像がレンダリングされる。
図9は、図12及び/又は図13に関して説明した方法を実装するように構成され得る装置9の例示的アーキテクチャを示す。
装置9は、データ及びアドレスバス91によってつながれる以下の要素、つまり
−例えばDSP(即ちデジタル信号プロセッサ)であるマイクロプロセッサ92(又はCPU)、
−ROM(即ち読取専用メモリ)93、
−RAM(即ちランダムアクセスメモリ)94、
−記憶域インタフェース95、
−アプリケーションから伝送するためのデータを受信するためのI/Oインタフェース96、及び
−電源、例えば電池
を含む。
一例によれば、電源が装置の外にある。言及したメモリのそれぞれにおいて、本明細書で使用する「レジスタ」という用語は小容量(数ビット)の領域又は非常に大きい領域(例えば全プログラムや大量の受信データ又は復号データ)に対応し得る。ROM93は、少なくともプログラム及びパラメータを含む。ROM93は、本原理による技法を実行するためのアルゴリズム及び命令を記憶し得る。オンにされるとき、CPU92がプログラムをRAM内にアップロードし、対応する命令を実行する。
RAM94は、CPU92によって実行され、装置9がオンにされた後でアップロードされるプログラム、レジスタ内の入力データ、レジスタ内の本方法の様々な状態の中間データ、及びレジスタ内の本方法の実行に使用される他の変数をレジスタ内に含む。
本明細書に記載した実装形態は、例えば方法若しくはプロセス、機器、コンピュータプログラム製品、データストリーム、又は信号によって実装され得る。単一形式の実装形態の脈絡でしか論じられていなくても(例えば方法又は装置としてしか論じられていなくても)、論じられた特徴の実装形態は他の形式(例えばプログラム)でも実装することができる。機器は、例えば適切なハードウェア、ソフトウェア、及びファームウェアによって実装することができる。方法は例えばプロセッサ等の機器によって実装することができ、プロセッサは例えばコンピュータ、マイクロプロセッサ、集積回路、プログラム可能論理装置を含む処理装置全般を指す。プロセッサは、例えばコンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、エンドユーザ間の情報の通信を助ける他の装置等の通信装置も含む。
符号化又は符号器の一例によれば、第1の構文要素、第2の構文要素、第3の構文要素、及び/又は第4の構文要素が情報源から得られる。例えば情報源は、
−ローカルメモリ(93又は94)、例えばビデオメモリやRAM(即ちランダムアクセスメモリ)、フラッシュメモリ、ROM(即ち読取専用メモリ)、ハードディスク、
−記憶域インタフェース(95)、例えば大容量記憶域、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気支持とのインタフェース、
−通信インタフェース(96)、例えば有線インタフェース(例えばバスインタフェース、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース)や無線インタフェース(IEEE 802.11インタフェースやBluetooth(登録商標)インタフェース等)、及び
−利用者がデータを入力することを可能にするグラフィカルユーザインタフェース等のユーザインタフェース
を含む組に属する。
復号又は復号器の一例によれば、第1の情報、第2の情報、及び/又は第3の情報が宛先に送信され、とりわけその宛先は、
−ローカルメモリ(93又は94)、例えばビデオメモリやRAM、フラッシュメモリ、ハードディスク、
−記憶域インタフェース(95)、例えば大容量記憶域、RAM、フラッシュメモリ、ROM、光ディスク、又は磁気支持とのインタフェース、及び
−通信インタフェース(96)、例えば有線インタフェース(例えばバスインタフェース(例えばUSB(即ちユニバーサルシリアルバス))、広域ネットワークインタフェース、ローカルエリアネットワークインタフェース、HDMI(登録商標)(高精細度マルチメディアインタフェース)インタフェース)や無線インタフェース(IEEE 802.11インタフェース、WiFi(登録商標)インタフェース、Bluetooth(登録商標)インタフェース等)
を含む組に属する。
符号化又は符号器の例によれば、オブジェクトを表現するデータを含むビットストリームが宛先に送信される。一例として、ビットストリームはローカルメモリ又は遠隔メモリ、例えばビデオメモリ(94)、RAM(94)、ハードディスク(93)内に記憶される。改変形態では、ビットストリームが記憶域インタフェース(95)、例えば大容量記憶域、フラッシュメモリ、ROM、光ディスク、磁気支持とのインタフェースに送信され、及び/又は通信インタフェース(96)、例えば二地点間リンク、通信バス、一地点対多地点間リンク、又はブロードキャストネットワークへのインタフェース上で伝送される。
復号、復号器、又はレンダラの例によれば、ビットストリームが情報源から取得される。例示的には、ビットストリームはローカルメモリ、例えばビデオメモリ(94)、RAM(94)、ROM(93)、フラッシュメモリ(93)、ハードディスク(93)から読み出される。改変形態では、ビットストリームが記憶域インタフェース(95)、例えば大容量記憶域、RAM、ROM、フラッシュメモリ、光ディスク、磁気支持とのインタフェースから受信され、及び/又は通信インタフェース(95)、例えば二地点間リンク、バス、一地点対多地点間リンク、又はブロードキャストネットワークへのインタフェースから受信される。
例によれば、装置9は図12に関して説明した方法を実装するように構成され、
−モバイル装置、
−通信装置、
−ゲーム機、
−タブレット(又はタブレットコンピュータ)、
−ラップトップ、
−静止画像カメラ、
−ビデオカメラ、
−符号化チップ、
−サーバ(例えばブロードキャストサーバ、ビデオオンデマンドサーバ、又はウェブサーバ)
を含む組に属する。
例によれば、装置9は図13に関して説明したレンダリング方法を実装するように構成され、
−モバイル装置、
−通信装置、
−ゲーム機、
−セットトップボックス、
−TVセット、
−タブレット(又はタブレットコンピュータ)、
−ラップトップ、及び
−ディスプレイ(例えばHMD等)
を含む組に属する。
図10に示す一例によれば、通信ネットワークNET1000上での2つの(装置9の種類の)遠隔装置1001と1002との間の伝送の脈絡では、装置1001が図12に関して説明したストリームを生成するための方法を実装するように構成される手段を含み、装置1002が図13に関して説明した画像をレンダリングするための方法を実装するように構成される手段を含む。
一例によれば、ネットワーク1000は、装置1001から装置1002を含む復号/レンダリング装置に静止画又はビデオピクチャを関連する音声情報と共にブロードキャストするように適合されるLAN又はWLANネットワークである。
図11は、パケットベースの伝送プロトコル上でデータが伝送される場合のかかる信号の構文の実施形態の一例を示す。図11は、没入型ビデオストリームの構造1100の一例を示す。この構造は、ストリームを独立した構文要素単位で組織化するコンテナで構成される。この構造は、ストリームの全構文要素に共通の1組のデータであるヘッダ部分1101を含み得る。例えばヘッダ部分は、構文要素それぞれの性質及び役割を記述する構文要素に関するメタデータを含む。この構造は構文要素1102、1103、1104、及び1105を含むペイロードを含むことができ、第1の構文要素1102はパラメトリック曲面を定めるパラメータに関係し、第2の構文要素はパラメトリック曲面に関連する高さマップに関係し、第3の構文要素はパラメトリック曲面に関連する1つ又は複数のテクスチャマップに関係し、第4の構文要素は取得装置の位置情報に関係する。
当然ながら本開示は先に記載した実施形態に限定されない。
具体的には、本開示はストリームを生成するための方法及び装置に限定されず、シーンのオブジェクトを表現するデータを含むパケットを符号化/復号するための方法、及びこの方法を実装する任意の装置、とりわけ少なくとも1個のCPU及び/又は少なくとも1個のGPUを含む任意の装置にも及ぶ。
本開示は、シーンのオブジェクトを表現する情報を含むデータストリームからレンダリングされる画像を表示するための方法(及びそのように構成される装置)、及びフラットビデオによってオブジェクトをレンダリングし表示するための方法(及びそのように構成される装置)にも関する。
本開示はストリームを送信及び/又は受信するための方法(及びそのように構成される装置)にも関する。
本明細書に記載した実装形態は、例えば方法若しくはプロセス、機器、コンピュータプログラム製品、データストリーム、又は信号によって実装され得る。単一形式の実装形態の脈絡でしか論じられていなくても(例えば方法又は機器としてしか論じられていなくても)、論じられた特徴の実装形態は他の形式(例えばプログラム)でも実装することができる。機器は、例えば適切なハードウェア、ソフトウェア、及びファームウェアによって実装することができる。方法は例えばプロセッサ等の機器によって実装することができ、プロセッサは例えばコンピュータ、マイクロプロセッサ、集積回路、プログラム可能論理装置を含む処理装置全般を指す。プロセッサは、例えばスマートフォン、タブレット、コンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、及びエンドユーザ間の情報の通信を助ける他の装置等の通信装置も含む。
本明細書に記載した様々なプロセス及び特徴の実装形態は、多岐にわたる異なる機器又はアプリケーション、とりわけ例えばデータの符号化、データの復号、ビュー生成、テクスチャ処理、並びに画像及び関係するテクスチャ情報及び/又は深度情報の他の処理に関連する機器やアプリケーションによって具体化することができる。かかる機器の例は、符号器、復号器、復号器からの出力を処理する後処理系、符号器に入力を与える前処理系、ビデオ符号器、ビデオ復号器、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、携帯電話、PDA、及び他の通信装置を含む。明白であるように、機器は可搬式とすることができ、移動車両内に設置することさえできる。
加えて、これらの方法はプロセッサによって実行される命令によって実装されても良く、かかる命令(及び/又は実装形態によって作り出されるデータ値)は例えばハードディスク、コンパクトディスケット(「CD」)、光ディスク(例えばデジタル多用途ディスクやデジタルビデオディスクとしばしば呼ばれるDVD等)、ランダムアクセスメモリ(「RAM」)、読取専用メモリ(「ROM」)等、例えば集積回路、ソフトウェア担体、又は他の記憶装置等のプロセッサ可読媒体上に記憶され得る。命令は、プロセッサ可読媒体上で有形に具体化されるアプリケーションプログラムを形成し得る。命令は、例えばハードウェア、ファームウェア、ソフトウェア、又は組合せの中にあり得る。命令は、例えばオペレーティングシステム、別個のアプリケーション、又はその2つの組合せの中で見つけることができる。従ってプロセッサは、例えばプロセスを実行するように構成される装置及びプロセスを実行するための命令を有するプロセッサ可読媒体(記憶装置等)を含む装置の両方として特徴付けることができる。更にプロセッサ可読媒体は、実装形態によって作り出されるデータ値を命令に加えて又は命令の代わりに記憶し得る。
当業者に明らかなように、実装形態は例えば記憶され又は伝送され得る情報を運ぶようにフォーマットされる多岐にわたる信号を作り出し得る。かかる情報は、例えば方法を実行するための命令や、記載した実装形態の1つによって作り出されるデータを含み得る。例えば信号は、記載した実施形態の構文を読み書きするための規則をデータとして運ぶように、又は記載した実施形態によって書かれる実際の構文値をデータとして運ぶようにフォーマットされ得る。かかる信号は、例えば電磁波として(例えばスペクトルの無線周波数部分を用いて)、又はベースバンド信号としてフォーマットされ得る。フォーマットすることは、例えばデータストリームを符号化し、符号化データストリームで担体を変調することを含み得る。信号が運ぶ情報は、例えばアナログ情報又はデジタル情報とすることができる。信号は、知られているように様々な異なる有線リンク又は無線リンク上で伝送され得る。信号はプロセッサ可読媒体上に記憶され得る。
幾つかの実装形態を記載してきた。それでもなお、様々な修正が加えられ得ることが理解されよう。例えば、他の実装形態を作り出すために別の実装形態の要素が組み合わせられ、補われ、修正され、又は除去され得る。更に、開示した構造及びプロセスを他の構造及びプロセスが置換しても良く、その結果生じる実装形態が開示した実装形態と少なくともほぼ同じ結果を実現するために、少なくともほぼ同じ機能を少なくともほぼ同じやり方で実行することを当業者なら理解されよう。従って、これらの及び他の実装形態も本願によって予期される。

Claims (15)

  1. 複数の取得装置によって捕捉されるオブジェクトの少なくとも1つの画像からストリームを生成する方法であって、
    −前記オブジェクトの少なくとも一部を表現する点群の点に関連するデータを取得すること(1201)、
    −前記複数の取得装置のライトフィールドに従ってパラメトリック曲面(146)を表す少なくともパラメータを取得すること(1202)、
    −前記データから前記パラメトリック曲面に関連する高さマップを取得すること(1203)であって、前記高さマップは前記オブジェクトの前記少なくとも一部と前記パラメトリック曲面との間の距離を表す情報を含む、取得すること(1203)、
    −前記データから前記パラメトリック曲面に関連する少なくとも1つのテクスチャマップを取得すること(1204)、
    −前記少なくともパラメータを含む第1の構文要素と、前記高さマップを含む第2の構文要素と、前記少なくとも1つのテクスチャマップを含む第3の構文要素と、前記複数の取得装置の位置を含む第4の構文要素とを組み合わせることによって前記ストリームを生成すること(1205)
    を含む、方法。
  2. 前記パラメトリック曲面が、前記複数の取得装置の全ての光学的中心ごとにセンタリングされる平滑な半球の区分的組合せとして計算される、請求項1に記載の方法。
  3. 前記データに関連する前記点が前記高さマップ及び前記テクスチャマップ上で1回だけ投影される、請求項1乃至2の何れか一項に記載の方法。
  4. 複数の取得装置によって捕捉されるオブジェクトの少なくとも1つの画像からストリームを生成するように構成される装置であって、
    −前記オブジェクトの少なくとも一部を表現する点群の点に関連するデータを取得すること、
    −前記複数の取得装置のライトフィールドに従ってパラメトリック曲面を表す少なくともパラメータを取得すること、
    −前記データから前記パラメトリック曲面に関連する高さマップを取得することであって、前記高さマップは前記オブジェクトの前記少なくとも一部と前記パラメトリック曲面との間の距離を表す情報を含む、取得すること、
    −前記データから前記パラメトリック曲面に関連する少なくとも1つのテクスチャマップを取得すること、
    −前記少なくともパラメータを含む第1の構文要素と、前記高さマップを含む第2の構文要素と、前記少なくとも1つのテクスチャマップを含む第3の構文要素と、前記複数の取得装置の位置を含む第4の構文要素とを組み合わせることによって前記ストリームを生成すること
    を行うように構成された少なくとも1個のプロセッサに関連するメモリを含む、装置。
  5. 前記パラメトリック曲面が、前記複数の取得装置の全ての光学的中心ごとにセンタリングされる平滑な半球の区分的組合せとして計算される、請求項4に記載の装置。
  6. 前記データに関連する前記点が前記高さマップ及び前記テクスチャマップ上で1回だけ投影される、請求項4又は5に記載の装置。
  7. 複数の取得装置によって捕捉されるオブジェクトを表現する第1のデータを運ぶストリームであって、前記データが
    −前記複数の取得装置のライトフィールドに従って取得されるパラメトリック曲面を表す少なくともパラメータを含む第1の構文要素(1102)、
    −前記オブジェクトの前記少なくとも一部を表現する点群の点に関連する第2のデータから得られる高さマップを含む第2の構文要素(1103)であって、前記高さマップは前記オブジェクトの前記少なくとも一部と前記パラメトリック曲面との間の距離を表す情報を含む、第2の構文要素(1103)、
    −前記第2のデータから得られる少なくとも1つのテクスチャマップを含む第3の構文要素(1104)、及び
    −前記複数の取得装置の位置を含む第4の構文要素(1105)
    を含む、ストリーム。
  8. 前記第1の構文要素(1102)が、前記複数の取得装置の全ての光学的中心ごとにセンタリングされる平滑な半球の区分的組合せとして形作られるパラメトリック曲面を表す、請求項7に記載のストリーム。
  9. 前記第2のデータがテクスチャ情報及び深度を表す情報を含む、請求項7又は8に記載のストリーム。
  10. オブジェクトを表現するデータを運ぶストリームから前記オブジェクトの少なくとも一部の画像をレンダリングする方法であって、
    −前記ストリームの第1の構文要素からパラメトリック曲面を表す少なくともパラメータを取得すること(1301)、
    −前記ストリームの第2の構文要素から高さマップを取得すること(1302)であって、前記高さマップは前記オブジェクトの前記少なくとも一部と前記パラメトリック曲面との間の距離を表す情報を含む、取得すること(1302)、
    −前記ストリームの第3の構文要素から少なくとも1つのテクスチャマップを取得すること(1303)、
    −前記パラメトリック曲面、前記高さマップ、及び前記少なくとも1つのテクスチャマップから前記オブジェクトの前記少なくとも一部を表現する点群の点に関連するデータを取得すること(1304)、
    −前記データ及び前記ストリームの第4の構文要素からの複数の取得装置の位置を表す情報に基づいて前記画像をレンダリングすること(1305)
    を含む、方法。
  11. 前記データがテクスチャ情報及び深度を表す情報を含む、請求項10に記載の方法。
  12. 前記レンダリングが前記データのスプラットレンダリングを含む、請求項10又は11に記載の方法。
  13. オブジェクトを表現するデータを運ぶストリームから前記オブジェクトの少なくとも一部の画像をレンダリングするように構成される装置であって、
    −前記ストリームの第1の構文要素からパラメトリック曲面を表す少なくともパラメータを取得すること、
    −前記ストリームの第2の構文要素から高さマップを取得することであって、前記高さマップは前記オブジェクトの前記少なくとも一部と前記パラメトリック曲面との間の距離を表す情報を含む、取得すること、
    −前記ストリームの第3の構文要素から少なくとも1つのテクスチャマップを取得すること、
    −前記パラメトリック曲面、前記高さマップ、及び前記少なくとも1つのテクスチャマップから前記オブジェクトの前記少なくとも一部を表現する点群の点に関連するデータを取得すること、
    −前記データ及び前記ストリームの第4の構文要素からの複数の取得装置の位置を表す情報に基づいて前記画像をレンダリングすること
    を行うように構成された少なくとも1個のプロセッサに関連するメモリを含む、装置。
  14. 前記データがテクスチャ情報及び深度を表す情報を含む、請求項13に記載の装置。
  15. 前記画像をレンダリングするために前記データのスプラットレンダリングを行うように前記少なくとも1個のプロセッサが更に構成される、請求項13又は14に記載の装置。
JP2019512646A 2016-09-13 2017-09-07 没入型ビデオフォーマットのための方法、機器、及びシステム Pending JP2019534500A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16306155 2016-09-13
EP16306155.9 2016-09-13
PCT/EP2017/072431 WO2018050529A1 (en) 2016-09-13 2017-09-07 Method, apparatus and stream for immersive video format

Publications (1)

Publication Number Publication Date
JP2019534500A true JP2019534500A (ja) 2019-11-28

Family

ID=56997435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019512646A Pending JP2019534500A (ja) 2016-09-13 2017-09-07 没入型ビデオフォーマットのための方法、機器、及びシステム

Country Status (6)

Country Link
US (1) US20190251735A1 (ja)
EP (1) EP3513554A1 (ja)
JP (1) JP2019534500A (ja)
KR (1) KR20190046850A (ja)
CN (1) CN109716757A (ja)
WO (1) WO2018050529A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929563A1 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Measurement method and measurement device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3929564A1 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Measurement method and measurement device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3929562A2 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Electrode portion device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3940367A1 (en) 2020-06-22 2022-01-19 Mazda Motor Corporation Damaged portion treatment method and damaged portion treatment device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3547703A1 (en) * 2018-03-30 2019-10-02 Thomson Licensing Method, apparatus and stream for volumetric video format
EP3547704A1 (en) * 2018-03-30 2019-10-02 Thomson Licensing Method, apparatus and stream for volumetric video format
JP7389751B2 (ja) 2018-04-11 2023-11-30 インターデジタル ヴイシー ホールディングス, インコーポレイテッド 三次元物体を表すポイントクラウドを符号化/復号する方法及び装置
US10930049B2 (en) * 2018-08-27 2021-02-23 Apple Inc. Rendering virtual objects with realistic surface properties that match the environment
US20230154101A1 (en) * 2021-11-16 2023-05-18 Disney Enterprises, Inc. Techniques for multi-view neural object modeling
US20230281921A1 (en) * 2022-03-01 2023-09-07 Tencent America LLC Methods of 3d clothed human reconstruction and animation from monocular image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
JP2006004158A (ja) * 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
CN101369348B (zh) * 2008-11-07 2010-09-15 上海大学 汇聚式相机的多视点采集/显示系统中新视点重建方法
US20130300740A1 (en) * 2010-09-13 2013-11-14 Alt Software (Us) Llc System and Method for Displaying Data Having Spatial Coordinates
WO2013074153A1 (en) * 2011-11-17 2013-05-23 University Of Southern California Generating three dimensional models from range sensor data
KR102049456B1 (ko) * 2013-04-05 2019-11-27 삼성전자주식회사 광 필드 영상을 생성하는 방법 및 장치
CN104732580B (zh) * 2013-12-23 2018-09-25 富士通株式会社 图像处理装置、图像处理方法和程序
CN106416239B (zh) * 2014-05-29 2019-04-09 奈克斯特Vr股份有限公司 用于交付内容和/或回放内容的方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929563A1 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Measurement method and measurement device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3929564A1 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Measurement method and measurement device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3929562A2 (en) 2020-06-22 2021-12-29 Mazda Motor Corporation Electrode portion device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material
EP3940367A1 (en) 2020-06-22 2022-01-19 Mazda Motor Corporation Damaged portion treatment method and damaged portion treatment device, and corrosion resistance test method and corrosion resistance test apparatus for coated metal material

Also Published As

Publication number Publication date
CN109716757A (zh) 2019-05-03
EP3513554A1 (en) 2019-07-24
US20190251735A1 (en) 2019-08-15
WO2018050529A1 (en) 2018-03-22
KR20190046850A (ko) 2019-05-07

Similar Documents

Publication Publication Date Title
US10891784B2 (en) Method, apparatus and stream for immersive video format
US20170347055A1 (en) Method, apparatus and stream for immersive video format
CN111615715B (zh) 编码/解码体积视频的方法、装置和流
JP2019534500A (ja) 没入型ビデオフォーマットのための方法、機器、及びシステム
US20210176496A1 (en) Method, apparatus and stream for encoding/decoding volumetric video
JP7499182B2 (ja) ボリュメトリックビデオフォーマット用の方法、装置及びストリーム
KR20200051784A (ko) 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들
EP3562159A1 (en) Method, apparatus and stream for volumetric video format
JP2017532847A (ja) 立体録画及び再生
JP2023506832A (ja) 補助パッチを有する容積ビデオ
KR20210027483A (ko) 3 자유도 및 볼류메트릭 호환 가능한 비디오 스트림을 인코딩 및 디코딩하기 위한 방법들 및 디바이스들