JP2014501973A - 3dビデオ情報をサーバからクライアントに送信するための方法および装置 - Google Patents

3dビデオ情報をサーバからクライアントに送信するための方法および装置 Download PDF

Info

Publication number
JP2014501973A
JP2014501973A JP2013541294A JP2013541294A JP2014501973A JP 2014501973 A JP2014501973 A JP 2014501973A JP 2013541294 A JP2013541294 A JP 2013541294A JP 2013541294 A JP2013541294 A JP 2013541294A JP 2014501973 A JP2014501973 A JP 2014501973A
Authority
JP
Japan
Prior art keywords
information
representation
user
server
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013541294A
Other languages
English (en)
Other versions
JP5655156B2 (ja
Inventor
フアン・デン・ベルヘ,ステフエン
ド・シエツパー,クーン
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2014501973A publication Critical patent/JP2014501973A/ja
Application granted granted Critical
Publication of JP5655156B2 publication Critical patent/JP5655156B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/08Bandwidth reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

1組の3Dオブジェクトおよび光源に関するジオメトリおよび材質情報を定義する情報であり、かつサーバに記憶された3Dシーンモデルの3D表現を、データ通信ネットワークを介してサーバから第1のクライアント装置に送信するための方法が開示され、3D表現は、第1のクライアント装置に関連付けられた第1のユーザに対する仮想視点に対応しており、方法は、サーバで、3Dシーンモデルから3Dオブジェクトに関する表現情報を導出するステップと、表現情報の圧縮を実施するステップと、表示するために、圧縮された表現情報を第1のクライアント装置に向けて転送するステップとを含み、表現情報が、3Dオブジェクトに関する照明情報をさらに含み、また3Dオブジェクトに関する照明情報が、ユーザに対する複数の仮想視点に対応している。サーバ、および経路指定手段。

Description

本発明は、サーバからクライアントへの3Dビデオをレンダリングするための方法および装置の分野に関する。典型的な用途では、3Dビデオは、クライアント装置に関連付けられた2Dディスプレイによりユーザに表現される。ディスプレイ上に表現された2D画像は、仮想3Dシーンモデルにおけるユーザの仮想視点に対応することができる。
高性能な3Dレンダリングを必要とする(ゲームおよびユーザインターフェースを含む)用途が増加しつつある。3Dレンダリングに関する既存のソリューションは、様々な原理に基づいている。3Dゲームまたはアプリケーションでは、環境は、3D空間にオブジェクトを含むシーンとして表現される。これらのオブジェクトは、通常、例えば、三角形ファセットを含むファセット構造として定義される。これらのファセットはまた、非常に簡単な関数(固定色または階調)による、またはピクチャ(例えば、JPEGファイル)による、あるいは表面の物理的な挙動のより複雑な表現(例えば、Eurographics Rendering Workshop 1999の会議録におけるJan KautzおよびMichael D.McCool、「Interactive Rendering with Arbitrary BRDFs using Separable Approximations」により述べられたいわゆるBRDF(双方向反射率分布))による所定の「テクスチャ」を備えている。オブジェクトの次に、光源が、特有の特性(色、拡散モデルなど)を用いて定義される。
現在の展開は、3D処理および2D処理を、サーバノードで共に動作させる(さらにその2Dをクライアントに向かうビデオストリームに出力して、クライアントに関連付けられた2Dディスプレイ上で表現する)、または家庭で(プレイステーション、PCなど)共に動作させる(図1を参照のこと)。3D処理および2D処理は分割することができないので、分散処理を行うことは可能ではない。さらに、処理は、アプリケーションごとに、かつユーザごとに行う必要がある。これは、明らかにスケーラビリティの問題を生ずる。
Eurographics Rendering Workshop 1999の会議録、Jan KautzおよびMichael D.McCool、「Interactive Rendering with Arbitrary BRDFs using Separable Approximations」 2008年、第15回IEEE International Conference on Image Processing、ICIPの会議録、N.Stefanoski他、「Spatially and temporally scalable compression of animated 3D meshes with MPEG−4/FAMC」 第7回Eurographics Workshop on Renderingの会議録、Henrik Wann Jensen、「Global Illumination Using Photon Maps」 A Watt、「Advanced animation and rendering techniques」7−9章、ISBN 978−0201544121 MPEG4規格「FAMC(Frame−based Animated Mesh Compression:フレームベースアニメーション付メッシュ圧縮)」、第16部AFX(Animation Framework eXtension:アニメーションフレームワーク拡張)の追補2
本発明の一目的は、上記の問題のうちの少なくとも1つを解決する、請求項1による方法、請求項6によるサーバ、および請求項10による経路指定手段を提供することである。
本発明の第1の態様によれば、1組の3Dオブジェクトおよび光源に関するジオメトリおよび材質情報を定義する情報であり、かつサーバに記憶される3Dシーンモデルの3D表現を、データ通信ネットワークを介してサーバから第1のクライアント装置に送信するための方法が開示され、3D表現は、第1のクライアント装置に関連付けられた第1のユーザに対する仮想視点に対応しており、方法が:
− サーバで、3Dシーンモデルから3Dオブジェクトに関する表現情報を導出するステップと、
− 表現情報の圧縮を実施するステップと、
− 表示するために、圧縮された表現情報を第1のクライアント装置に向けて転送するステップとを含み、
表現情報が、3Dオブジェクトに関する照明情報をさらに含み、また3Dオブジェクトに関する照明情報が、ユーザに対する複数の仮想視点に対応する。
ジオメトリ情報は、3Dシーンモデル内のオブジェクトの(おそらく変化する)ジオメトリに関する情報である。
材質情報は、3Dオブジェクトを定義する(仮想の)材質の光学的特性を定義する情報である。材質情報は、各3Dオブジェクトと光の相互作用を記述する情報を含むことができる。材質情報は、オブジェクトまたはオブジェクトの部分の色、光吸収、拡散、屈折、および反射パラメータのうちの少なくとも1つを含むことができる。材質情報は、複数の、またはすべてのこれらのパラメータを含むことができる。
光源情報は、光源の数、シーン中の光源の仮想位置、光源のタイプ、放射光の強度などを含むことができる。
本発明の実施形態によれば、表現情報の一部である照明情報は、前記圧縮された表現情報内に圧縮される。
好ましい実施形態によれば、圧縮は、時間圧縮および空間圧縮の少なくとも一方を含む。それ自体に対する時間圧縮および空間圧縮は、当業者に知られており、例えば、3Dメッシュの領域で見出すことができる(2008年、第15回IEEE International Conference on Image Processing、ICIPの会議録で、N.Stefanoski他による「Spatially and temporally scalable compression of animated 3D meshes with MPEG−4/FAMC」で述べられている)。
好ましい実施形態によれば、方法は、フォトンマッピング技法により照明情報を導出するステップをさらに含む。
照明情報は、本発明の実施形態によれば、シーンの照明に関する色情報を作成するために、フォトンマッピング機構(例えば、第7回Eurographics Workshop on Renderingの会議録で、Henrik Wann Jensenによる「Global Illumination Using Photon Maps」で述べられている)を適用することにより導出される。これは、反射、屈折、影、および拡散に関して、シーンに対する光源の効果を計算するステップを含み、シーン中の選択された点の色情報が得られる。色に関するこの情報は、次いで、1つまたは複数の要約フォトンテーブルに記憶され、またこれらのテーブルは、その後に続いて、好ましくは、(時間の特有な点におけるシーン表現に含まれる)空間的に、かつ(時間の様々な点におけるシーン表現を参照して)時間的に圧縮される。
好ましい実施形態によれば、表現情報は、オブジェクトの3Dファセット構造情報を含み、また照明情報は、ファセットに関する各照明情報を含む。
照明情報は、シーン情報をファセットのそれぞれに関する色情報へと変換するために、例えば、A Watt、「Advanced animation and rendering techniques」7−9章、ISBN 978−0201544121で述べられたレイトレーシング機構を適用することにより導出することができる。これは、反射、屈折、影、および拡散に関して、シーンに対する光源の効果を計算するステップを含み、ファセットのそれぞれに対する色情報が得られる。色に関するこの情報は、次いで、好ましくは、(時間の特有な点におけるシーン表現に含まれる)空間的に、かつ(時間の様々な点におけるシーン表現を参照して)時間的に圧縮される。
本発明の好ましい実施形態によれば、表現情報は、サーバと、サーバによりサービスされるいくつかのクライアント装置との間の必要なデータフローの数を低減する解決策を提供するために、データ通信ネットワーク上でさらに使用される。データ通信ネットワークは、したがって、サーバから圧縮された表現情報を受信する少なくとも中間ノードを備え、中間ノードは、圧縮された表現情報から第1のユーザに関する必要な表現情報を導出し、必要な表現情報を使用して、第1のクライアント装置に対するシーン上に2Dビューを作成し、かつ同じ圧縮された表現情報から第2のユーザに関連付けられた第2のクライアント装置に関する必要な表現情報を導出し、さらに第2のユーザが、同じ3Dシーンモデルに関連付けられ、かつ第1のユーザの仮想視点と同じ、または異なる仮想視点を有しており、それに対して、照明情報がまた、第2のユーザの仮想視点からのシーン上に2Dビューを作成するように表現される。
本発明の実施形態によれば、第2のユーザは、第1のユーザと同じであることができる。第2のクライアント装置および第1のクライアント装置は、その場合、同じ、または異なるものとすることができる。
本発明の実施形態によれば、第1および第2のクライアント装置は同じであるが、第1および第2のユーザは同じではない。第1のユーザ、および第1のユーザとは異なる第2のユーザに対するビューをレンダリングすることは、例えば、単一のディスプレイ上で実施することができ、それにより、各ユーザには、表示領域の半分が割り当てられる。
各クライアント装置は、例えば、2D画像/ビデオを表示するための画面として、単一の表示手段を備える、またはそれに関連付けることができる。
本発明の第2の態様によれば、1組の3Dオブジェクトおよび光源に関するジオメトリおよび材質情報を定義する情報である3Dシーンモデルの3D表現を、データ通信ネットワークを介してクライアント装置に送信するためのサーバが開示され、3D表現は、クライアント装置に関連付けられたユーザに対する仮想視点に対応しており、サーバが:
− 3Dシーンモデルから3Dオブジェクトに関する表現情報を導出し、
− 表現情報の圧縮を実施し、かつ
− 表示するために、圧縮された表現情報をクライアント装置に向けて転送する
ように構成され、
サーバが、3Dオブジェクトに関する照明情報を含む表現情報を導出するようにさらに構成され、また3Dオブジェクトに関する照明情報が、ユーザに対する複数の仮想視点に対応している。
好ましい実施形態によれば、サーバは、表現情報の時間および空間圧縮の少なくとも一方を実施するようにさらに構成される。好ましい実施形態によれば、サーバは、フォトンマッピング技法により照明情報を導出するようにさらに構成される。
好ましい実施形態によれば、サーバは、3Dオブジェクトの3Dファセット構造情報、および各ファセットに関する各照明情報を導出することにより、表現情報を導出するようにさらに構成される。
本発明の第3の態様によれば、通信ネットワークに対する、例えば、ルータとしての経路指定手段が開示され、請求項6から9のいずれかによるサーバに関する圧縮された表現情報を受信するように構成され、かつ、
− 前記サーバによりサービスされる第1のクライアントに関連付けられた第1のユーザに関する前記圧縮された表現情報から、必要な表現情報を導出すること、
− 第1のユーザに関する前記必要な表現情報に基づいて、前記第1のユーザに対する前記3Dシーン上に2Dビューを作成すること、
− 第2の装置に関連付けられた第2のユーザに関する必要な表現情報を、同じ圧縮された表現情報から導出することであり、前記第2のユーザが、同じ3Dシーンモデルに関連付けられ、かつ第1のユーザの仮想視点と同じ、または異なる仮想視点を有しており、それに対して、照明情報がまた、第2のユーザの視点からのシーン上に2Dビューを作成するように表現されること、および
− 前記第2のユーザに関する必要な表現情報に基づいて、第2のユーザの視点からのシーン上に2Dビューを作成すること
を実施するようにさらに構成される。
本発明のさらなる態様は、従属請求項により述べられる。従属請求項からの特徴、独立請求項のいずれの特徴、および他の従属請求項のいずれの特徴も、特許請求の範囲で定義された特定の組合せに限るのではなく、当業者が適切であると考えるように組み合わせることができる。
当業者であれば理解されるように、本発明の態様の1つに関して述べられた特徴はまた、他の態様と組み合わせることもできる。
添付図面は、本発明の実施形態を例示するために使用される。
各アプリケーションおよび各ユーザに対して「カメラ」の処理インスタンスが必要な、現在の技術水準による3Dレンダリングプロセスを示す図である。 表現情報が3Dオブジェクトに関する照明情報を含み、照明情報がユーザに対する複数の仮想視点に対応している本発明による実施形態を示す図である。 各アプリケーションおよび各ユーザに対して「カメラ」の処理インスタンスが必要な、現在の技術水準による3Dレンダリングプロセスを示す図である。 表現情報が3Dオブジェクトに関する照明情報を含み、照明情報がユーザに対する複数の仮想視点に対応している本発明による実施形態を示す図である。 表現情報が3Dオブジェクトに関する照明情報を含み、照明情報がユーザに対する複数の仮想視点に対応している本発明による実施形態を示す図である。 表現情報が3Dオブジェクトに関する照明情報を含み、照明情報がユーザに対する複数の仮想視点に対応している本発明による実施形態を示す図である。 表現情報が3Dオブジェクトに関する照明情報を含み、照明情報がユーザに対する複数の仮想視点に対応している本発明による実施形態を示す図である。
参照記号は、様々な図もしくは図面における同様の、または等しい要素もしくは特徴に対して同じであるように選択される。
本発明の諸態様の説明は、特定の実施形態により、かついくつかの図面を参照して行われるが、本発明はそれに限定されない。示された図は、概略的なものに過ぎず、限定するものと見なすべきではない。
本開示の諸実施形態によれば、3Dシーンの中間表現が生成され、それは、現実感のある照明を作成するために負担の多い処理を行った結果である。この中間表現は、クライアント側の比較的簡単なプロセスにより、そこから複数の仮想視点を作成するために使用することができ、また限られた処理機能を有する装置で動作することができる。こうすることにより、例えば、クラウドにおける高性能サーバで、アプリケーションごとに単一の処理インスタンスを動作させることが可能になり、一方、2Dビューが、比較的低性能の機器を用いて、ユーザの近傍もしくは家庭で構成される。これは図2で示されている。その結果、3Dシーンからの情報の転送は以下のように分割することができる(図7を参照のこと):
− シーンの進展(すなわち、ポリゴンメッシュの動き)の構造的記述、
− 時間T+1におけるシーンに対する時間予測のために使用される、時間Tにおけるシーンに関する照明情報などの参照情報、
− 参照情報に対する残りの情報を提供する更新ストリーム。
以下のセクションは、このプロセスを詳細に説明し、かつどのようにしてシーンを符号化できるかに関する2つの例示的なアルゴリズムを示す。
改良された時間および空間圧縮のために3Dアニメーションを符号化する概念は、既存のMPEG4規格「FAMC(Frame−based Animated Mesh Compression:フレームベースアニメーション付メッシュ圧縮)」、第16部AFX(Animation Framework eXtension:アニメーションフレームワーク拡張)の追補2で述べられている。この研究および他の同様の研究の目標は、シーン中の動いているオブジェクトに対応し、かつメッシュの点の位置、および時間経過に伴うその動きに対する圧縮アルゴリズムを記述するポリゴンメッシュ情報の交換を容易にすることであった。
しかし、シーンの符号化/復号は、レンダリングプロセスのうちの最も負担の多いサブプロセスではなく、ライティングプロセスをさらに、各動画化されたフレームに対して行う必要がある。後者は、現在の技術水準の技法により行うことができるが、莫大な量の処理パワーが必要となる。
3D情報を移送する効率は、照明の側面に関して様々な方法で改良することができる。改良の一部は、複数の視点に関する情報を再使用することにより得られる。シーン内で、大部分の照明は、仮想視点から独立している。より具体的には、影およびシーン内の反射(すなわち、他のオブジェクトに対する1つのオブジェクトの反射)は、視点にわたって再使用可能である。二人のユーザが、同じシーンに対するビューを要求したとき、照明情報を再使用することは、二重の処理を回避し、したがって、処理要件を低減することができる。
第2の改良は、以下のことなど、照明情報における時間および空間的な冗長性を利用することにより行うことのできる利点による。すなわち:
− シーン照明は、通常、空間的に非常に相関のある結果を生成する。言い換えると、白い花瓶だけを含むシーンを見る場合は、「白」が、その照明されたモデルに対する良好な予測となるよい機会である。我々は、参照情報として白のファセットを使用することができ、色および影におけるより微妙な変化を反映する照明更新情報でこれを補完することができる。
− 同じ相関が、時間的にも当てはまる(例えば、オブジェクトが、動画化されたシーンで枢動した場合、時間Tにおけるそのファセットの色は、時間T+1におけるその同じファセットの色に対する良好な予測である)。
図4および図5で示される参照符号器は、一般的なレベルにおけるプロセスを述べている。照明アルゴリズムが、照明された3Dシーンを作成するために使用される(すなわち、シーン上の光源の影響を考慮に入れる)。シーンの構造は、次いで「従来の」メッシュ符号化技法を用いて符号化される。本発明の実施形態によれば、照明情報は符号化され、メッシュと組み合わされて出力ストリームになる。両方の場合に対して、符号化は、プロセス中の符号化/復号ループに基づいて時間参照を作成するものと考える。照明されたモデルを入力する方法、特に照明の符号化を最適化する方法が異なる複数のアルゴリズムを、次にこのモデルにプラグインすることができる。
使用できるいくつかの方法を以下で述べる。
レイトレーシング(図3を参照のこと)は、3Dシーン表現からフォトリアリスティックな2Dビューを作成するための技法である。基本原理は、シーンを通る光線の横断と、その物理的な特性(反射、拡散など)がシミュレートされることである。最も使用される形態は、ビューポートにおける各点に対して、カメラから到来する光線をシミュレートすることである。オブジェクトとの光線の交差点で、二次光線が、この点で輝く光を求めて回転する。その光線が他のオブジェクトに当たった場合、これは、そのオブジェクトが影の中に存在することを意味する。そうではない場合、その点における光の強度を、二次光線の距離および角度から計算することができる。一次および二次の光線は共に、オブジェクトから「跳ね返って」反射を生成することもでき、各跳ね返りは、再度さらなる光線を生成する。光線の量は、指数的に増加する可能性があり、したがって、この技法は、非常に計算量が多くなることは明らかである。
基本的なレイトレーシングアルゴリズムは、単一段階(phase)の技法であり、したがって、処理を多量のプロセスと少量のプロセスの間で分散させることは不可能である。しかし、第1の予測としてビューに対する1つのトレースプロセスの結果を、第2のビューに対して使用することができる。こうすることにより、1つのストリームからの参照情報を、他のものに対する第1の予測としての使用することが可能になり、個々の2Dストリームとしてよりも、ストリームを良好に空間的かつ時間的に圧縮できるようになる。
処理における利点の損失の他に、基本的なレイトレーシングはまた、いくつかの効果の表現で限定される。いくつかの興味ある最近の手法は、2段階を使用する:最初にシーンに対する光の影響がシミュレートされ、その後に、レイトレーシングプロセスが、表面の色の良好な推定としてこの情報を使用する。1つの一般的なアルゴリズムである「フォトンマッピング」では、シーンの光の影響は、例えば、シーンを横断する多数のフォトンを、それらがオブジェクトにより吸収される、またはシーンを去るまで、シミュレートすることにより計算される。この結果は、要約され(「フォトンの収集(gathering photons)」)、かつ1つまたは複数のいわゆる「フォトンマップ」に記憶される(複数のマップは、シーンのいくつかのより複雑な領域の付近にフォトンを集中させるために使用することができる)。基本的なレイトレーシングを行う場合、多すぎる二次のストリームを送る必要性を回避するために、複数のビューおよび光線が、これらのテーブルを利用することができる。フォトンマッピングおよびレイトレーシングを2つの異なるプロセスに入れることにより、複雑さをネットワークにわたって分散させることができる。したがって、フォトンマップは、符号化される必要がある。図6は、フォトンマッピング技法と共に使用する符号器プロセスの詳細を示している。
本発明によるいくつかの実施形態の説明において、様々な特徴が、様々な本発明の態様の1つまたは複数のものを理解するのに役立つように、その単一の実施形態、図、または記述へと共にグループ化されることがある。これは、必ずしもグループのすべての特徴が、特定の問題を解決するために示されていると解釈すべきではない。本発明の諸態様は、特定の実施形態の記述に示された特徴のこのようなグループのすべての特徴よりも少ないところに存在する可能性がある。
本明細書で述べられたいくつかの実施形態は、他の実施形態に含まれているいくつかの特徴を含み、その他の特徴を含まないが、当業者であれば理解されるように、様々な実施形態の特徴の組合せは、本発明の範囲に含まれるものであり、かつ様々な実施形態を形成することを意味している。

Claims (10)

  1. 1組の3Dオブジェクトおよび光源に関するジオメトリおよび材質情報を定義する情報であり、かつサーバに記憶される3Dシーンモデルの3D表現を、データ通信ネットワークを介して前記サーバから第1のクライアント装置に送信するための方法であって、前記3D表現が、前記第1のクライアント装置に関連付けられた第1のユーザに対する仮想視点に対応しており、方法が、
    − 前記サーバで、前記3Dシーンモデルから前記3Dオブジェクトに関する表現情報を導出するステップと、
    − 前記表現情報の圧縮を実施するステップと、
    − 表示するために、前記圧縮された表現情報を前記第1のクライアント装置に向けて転送するステップとを含み、
    前記表現情報が、前記3Dオブジェクトに関する照明情報をさらに含み、また前記3Dオブジェクトに関する照明情報が、ユーザに対する複数の仮想視点に対応する、方法。
  2. 圧縮が、時間圧縮および空間圧縮の少なくとも一方を含む、請求項1に記載の方法。
  3. フォトンマッピング技法により、前記照明情報を導出するステップをさらに含む、請求項1に記載の方法。
  4. 前記表現情報が、前記オブジェクトの3Dファセット構造情報を含み、また前記照明情報が、前記ファセットに関する各照明情報を含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記データ通信ネットワークが、前記圧縮された表現情報が受信される少なくとも中間ノードを備え、また前記中間ノードが、前記圧縮された表現情報から、前記第1のユーザに関する必要な表現情報を導出し、前記必要な表現情報を使用して、前記第1のクライアント装置に対するシーン上に2Dビューを作成し、かつ同じ圧縮された表現情報から第2のユーザに関連付けられた第2のクライアント装置に関する必要な表現情報を導出し、前記第2のユーザが、同じ3Dシーンモデルに関連付けられ、かつ第1のユーザの仮想視点と同じ、または異なる仮想視点を有しており、それに対して、照明情報がまた、前記第2のユーザの仮想視点からのシーン上に2Dビューを作成するように表現される、請求項1から4のいずれか一項に記載の方法。
  6. 1組の3Dオブジェクトおよび光源に関するジオメトリおよび材質情報を定義する情報である3Dシーンモデルの3D表現を、データ通信ネットワークを介してクライアント装置に送信するためのサーバであって、前記3D表現が、前記クライアント装置に関連付けられたユーザに対する仮想視点に対応しており、サーバが、
    − 前記3Dシーンモデルから前記3Dオブジェクトに関する表現情報を導出し、
    − 前記表現情報の圧縮を実施し、かつ
    − 表示するために、前記圧縮された表現情報を前記クライアント装置に向けて転送するように構成され、
    前記サーバが、前記3Dオブジェクトに関する照明情報を含む表現情報を導出するようにさらに構成され、また前記3Dオブジェクトに関する前記照明情報が、ユーザに対する複数の仮想視点に対応する、サーバ。
  7. 前記表現情報の空間圧縮および時間圧縮の少なくとも一方を実施するように構成される、請求項6に記載のサーバ。
  8. フォトンマッピング技法により、前記照明情報を導出するようにさらに構成される、請求項6から7のいずれか一項に記載のサーバ。
  9. 前記3Dオブジェクトの3Dファセット構造情報と、各ファセットに関する各照明情報とを導き出すことにより表現情報を導出するようにさらに構成される、請求項6から8のいずれか一項に記載のサーバ。
  10. 請求項6から9のいずれか一項に記載のサーバに関する圧縮された表現情報を受信するように構成された、通信ネットワークに対する経路指定手段であって、
    − 前記サーバによりサービスされる第1のクライアントに関連付けられた第1のユーザに関する前記圧縮された表現情報から、必要な表現情報を導出すること、
    − 前記第1のユーザに関する前記必要な表現情報に基づいて、第1のユーザに対する前記3Dシーン上に2Dビューを作成すること、
    − 第2の装置に関連付けられた第2のユーザに関する必要な表現情報を、同じ圧縮された表現情報から導出することであり、前記第2のユーザが、同じ3Dシーンモデルに関連付けられ、かつ第1のユーザの仮想視点と同じ、または異なる仮想視点を有しており、それに対して、照明情報がまた、第2のユーザの仮想視点からのシーン上に2Dビューを作成するように表現されること、および
    − 前記第2のユーザに関する必要な表現情報に基づいて、第2のユーザの仮想視点からのシーン上に2Dビューを作成すること
    を実施するようにさらに構成される、経路指定手段。
JP2013541294A 2010-12-01 2011-11-23 3dビデオ情報をサーバからクライアントに送信するための方法および装置 Expired - Fee Related JP5655156B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10306336A EP2461587A1 (en) 2010-12-01 2010-12-01 Method and devices for transmitting 3D video information from a server to a client
EP10306336.8 2010-12-01
PCT/EP2011/070786 WO2012072462A1 (en) 2010-12-01 2011-11-23 Method and devices for transmitting 3d video information from a server to a client

Publications (2)

Publication Number Publication Date
JP2014501973A true JP2014501973A (ja) 2014-01-23
JP5655156B2 JP5655156B2 (ja) 2015-01-14

Family

ID=43706621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013541294A Expired - Fee Related JP5655156B2 (ja) 2010-12-01 2011-11-23 3dビデオ情報をサーバからクライアントに送信するための方法および装置

Country Status (6)

Country Link
US (1) US20130321417A1 (ja)
EP (1) EP2461587A1 (ja)
JP (1) JP5655156B2 (ja)
KR (1) KR101491941B1 (ja)
CN (1) CN103238325A (ja)
WO (1) WO2012072462A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190398A1 (ja) * 2021-03-09 2022-09-15 株式会社Mawari 3dオブジェクトのストリーミング方法、装置、及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713838B2 (en) * 2013-05-03 2020-07-14 Nvidia Corporation Image illumination rendering system and method
KR101653353B1 (ko) * 2015-03-26 2016-09-01 주식회사 나루씨이엠 스마트폰 가상 3d 디스플레이 앱 기반 가상 3d 표현 방법
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
GB2563895B (en) 2017-06-29 2019-09-18 Sony Interactive Entertainment Inc Video generation method and apparatus
CN110223367B (zh) * 2018-11-30 2023-01-06 腾讯科技(深圳)有限公司 动画显示方法、装置、终端及存储介质
CN110225332A (zh) * 2019-05-31 2019-09-10 吉林大学 一种基于光子映射的立体元图像阵列生成方法
US11941752B2 (en) 2020-07-21 2024-03-26 Nvidia Corporation Streaming a compressed light field
US11501467B2 (en) 2020-11-03 2022-11-15 Nvidia Corporation Streaming a light field compressed utilizing lossless or lossy compression

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507747A (ja) * 2004-07-22 2008-03-13 株式会社ソニー・コンピュータエンタテインメント シェーディング結果をモデルサーフェス表現に組み込むことにより動的ビュー角からの写実的三次元レンダリングを向上させる方法
JP2008282171A (ja) * 2007-05-09 2008-11-20 Sony Computer Entertainment Inc グラフィックスプロセッサおよび描画処理方法
JP2009116856A (ja) * 2007-10-19 2009-05-28 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212207B2 (en) * 2003-08-20 2007-05-01 Sony Computer Entertainment Inc. Method and apparatus for real-time global illumination incorporating stream processor based hybrid ray tracing
US20050134611A1 (en) * 2003-12-09 2005-06-23 Cheung Kevin R. Mechanism for creating dynamic 3D graphics for 2D web applications
US7145562B2 (en) * 2004-05-03 2006-12-05 Microsoft Corporation Integration of three dimensional scene hierarchy into two dimensional compositing system
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
US20100134494A1 (en) * 2008-12-02 2010-06-03 Electronics And Telecommunications Research Institute Remote shading-based 3d streaming apparatus and method
CN101826214B (zh) * 2010-03-29 2012-06-27 中山大学 一种基于光子映射的全局光照方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507747A (ja) * 2004-07-22 2008-03-13 株式会社ソニー・コンピュータエンタテインメント シェーディング結果をモデルサーフェス表現に組み込むことにより動的ビュー角からの写実的三次元レンダリングを向上させる方法
JP2008282171A (ja) * 2007-05-09 2008-11-20 Sony Computer Entertainment Inc グラフィックスプロセッサおよび描画処理方法
JP2009116856A (ja) * 2007-10-19 2009-05-28 Canon Inc 画像処理装置、画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022190398A1 (ja) * 2021-03-09 2022-09-15 株式会社Mawari 3dオブジェクトのストリーミング方法、装置、及びプログラム
JP2022137826A (ja) * 2021-03-09 2022-09-22 株式会社Mawari 3dオブジェクトのストリーミング方法、装置、及びプログラム

Also Published As

Publication number Publication date
KR20130085051A (ko) 2013-07-26
JP5655156B2 (ja) 2015-01-14
EP2461587A1 (en) 2012-06-06
KR101491941B1 (ko) 2015-02-10
WO2012072462A1 (en) 2012-06-07
US20130321417A1 (en) 2013-12-05
CN103238325A (zh) 2013-08-07

Similar Documents

Publication Publication Date Title
JP5655156B2 (ja) 3dビデオ情報をサーバからクライアントに送信するための方法および装置
TWI485644B (zh) 群眾外包式(crowd-sourced)視訊顯像系統
KR102502794B1 (ko) 가상 현실 데이터를 맞춤화하기 위한 방법들 및 시스템들
KR102441514B1 (ko) 하이브리드 스트리밍
WO2022063260A1 (zh) 一种渲染方法、装置及设备
JP7448660B2 (ja) ポイントクラウドデータ送信装置、ポイントクラウドデータ送信方法、ポイントクラウドデータ受信装置及びポイントクラウドデータ受信方法
US9704290B2 (en) Deep image identifiers
JP7447293B2 (ja) 異種クライアントエンドポイントへのストリーミングのための2dビデオの適応のためのニューラルネットワークモデルの参照
JP7440546B2 (ja) ポイントクラウドデータ処理装置及び方法
KR102598603B1 (ko) 이기종 클라이언트 종단점에 대한 스트리밍을 위한 2d 비디오의 적응
JP7472298B2 (ja) 没入型メディアの設置、及び没入型メディアから異種クライアントエンドポイントへの配信
Liu et al. Mobile Volumetric Video Streaming System through Implicit Neural Representation
KR20240032912A (ko) 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
EP4085397B1 (en) Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points
US20240179203A1 (en) Reference of neural network model by immersive media for adaptation of media for streaming to heterogenous client end-points
US20230345008A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
CN117397243A (zh) 用于沉浸式媒体的流式传输场景优先级排序器
JP2023544049A (ja) 双方向プレゼンテーションデータストリーム
KR20240052837A (ko) 몰입형 미디어를 위한 스트리밍 장면 우선순위화기
JP2024511312A (ja) ポイントクラウドデータ送信方法、ポイントクラウドデータ送信装置、ポイントクラウドデータ受信方法及びポイントクラウドデータ受信装置
WO2023164244A1 (en) Methods and systems for facilitating the cooperation of large numbers of computing devices with particular application to maintaining, presenting and editing a shared 3-dimensional virtual space to multiple users
KR20230152130A (ko) 클라이언트 질의를 이용한 중복 자산의 재사용
Fairchild Video based reconstruction system for mixed reality environments supporting contextualised non-verbal communication and its study
Franco et al. Research Article Multicamera Real-Time 3D Modeling for Telepresence and Remote Collaboration

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141121

R150 Certificate of patent or registration of utility model

Ref document number: 5655156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees