JP2016510473A - デプスマップのコンテンツを強化するための方法およびデバイス - Google Patents

デプスマップのコンテンツを強化するための方法およびデバイス Download PDF

Info

Publication number
JP2016510473A
JP2016510473A JP2015557380A JP2015557380A JP2016510473A JP 2016510473 A JP2016510473 A JP 2016510473A JP 2015557380 A JP2015557380 A JP 2015557380A JP 2015557380 A JP2015557380 A JP 2015557380A JP 2016510473 A JP2016510473 A JP 2016510473A
Authority
JP
Japan
Prior art keywords
depth
information
depth map
scene
fragment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015557380A
Other languages
English (en)
Other versions
JP2016510473A5 (ja
Inventor
ルコック パスカル
ルコック パスカル
ゴートラン パスカル
ゴートラン パスカル
マービー ジャン−ユード
マービー ジャン−ユード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016510473A publication Critical patent/JP2016510473A/ja
Publication of JP2016510473A5 publication Critical patent/JP2016510473A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)

Abstract

デプスマップ(10)の第1の要素(21)に関連付けられたコンテンツを強化するための方法であって、前記デプスマップ(10)は、視点に従ってシーン(1)に関連付けられる。従って、前記デプスマップの空間内の前記第1の要素(21)におけるデプスの変動を表す少なくとも第1の情報が設定される。

Description

本発明は、デプスマップの領域に関し、より詳細にはデプスマップのコンテンツを強化することに関する。本発明はまた、コンピュータ生成画像(CGIまたは3D−CGI)のコンテキストで理解される。
従来技術によると、デプスマップを、シーンを表す画像に関連付けることが知られている。画像は、仮想シーンを表す合成画像かまたはカメラによって撮影された現実のシーンの画像である。また、デプスマップに含まれるデプス情報を使用して、可視性テストを行う、すなわち、カメラ視野に従ってシーンのどのフラグメントがシーンの別のフラグメントによって隠されているかを決定することも知られている。デプスマップは、典型的には、ピクセルまたはテクセルとも呼ばれる要素のNラインおよびM列のアレイに対応し、単一のデプス情報が、デプスマップの各要素に関連付けられている。デプスマップの有限解像度は、シーンの第1のフラグメントがシーンの第2のフラグメントによって(またはその影で)隠されているかどうかを決定する際に、いくつかの近似をもたらし、カメラ視野に関するそのデプスは、デプスマップの(ピクセルまたはテクセルとも呼ばれる)要素に記憶される。結果として生じるエイリアシングは、バイアスエイリアシングとして知られている。このエイリアシングは、特に、デプスマップに関連付けられたカメラ視野から見られたときに、第1のフラグメントおよび第2のフラグメントがシーンのオブジェクトの同一表面に属する場合に発生することができる。
少なくとも部分的にこのバイアスエイリアシングアーチファクトを克服するために、デプスマップに関連付けられたカメラ視野までのフラグメントの距離がバイアスを加えたこのフラグメントに関連付けられたデプスマップの要素に記憶されたデプスより大きいとき、フラグメントが遮蔽されるまたは影になっているとみなされるバイアス値を使用することが知られている。しかしながら、バイアス値の導入は、ピーターパンアーチファクト(peter-panning artifact)として知られる別のエイリアシングを引き起こすことがある。
本発明の目的は、従来技術の欠点の少なくとも1つを克服することである。
より詳細には、本発明の目的は、先行技術よりも高い精度で、デプスマップの1つまたは複数の要素に関連付けられたデプス情報を設定することである。
本発明は、デプスマップの第1の要素に関連付けられたコンテンツを強化するための方法に関し、上記デプスマップは、視点に従ってシーンに関連付けられる。そして、本方法は、上記デプスマップのその空間内の上記第1の要素におけるデプスの変動を表す少なくとも第1の情報を設定するステップを含む。
特定の特徴によると、上記少なくとも第1の情報は、上記第1の要素に関連付けられたデプス情報から、および少なくとも第2の要素に関連付けられたデプス情報から設定され、上記第1の要素および上記少なくとも第2の要素は、上記デプスマップ内に投射された上記シーンの同一表面要素に属する。
有利には、上記第1の要素および上記少なくとも第2の要素は隣接する。
特定の特徴によると、上記少なくとも第1の情報は、上記第1の要素と上記少なくとも第2の要素との間のデプスの差の、上記第1の要素と上記少なくとも第2の要素との間の距離に対する比を計算することによって設定される。
有利には、上記少なくとも第1の情報は、上記デプスマップに関連付けられたカメラ視野の上記空間内に投射された上記シーンの表面要素の式から設定され、その投射された表面要素は、上記第1の要素を含む。
別の特徴によると、上記少なくとも第1の情報は、上記第1の要素におけるデプスの変動を表す傾斜角度の形態で表現される。
有利には、上記傾斜角度の形態で表現された上記少なくとも第1の情報は、奇数べき関数(odd power function)で符号化される。
特定の特徴によると、1つの第1の情報が上記デプスマップの上記空間の次元ごとに設定される。
別の特徴によると、本方法は、上記デプスマップ内の上記第1の要素に関連付けられた上記少なくとも第1の情報を記憶するステップをさらに含む。
有利には、上記第1の要素に関連付けられた上記コンテンツは、上記視点と上記シーンのフラグメントとの間のデプスを表す第2の情報を含み、上記フラグメントは、上記第1の要素を通過する視方向に沿って上記視点から可視の最も近いフラグメントに対応する。
また、本発明は、デプスマップの第1の要素に関連付けられたコンテンツを強化するように構成されたデバイスに関し、上記デプスマップは、視点に従ってシーンに関連付けられ、本デバイスは、上記デプスマップのその空間内の上記第1の要素におけるデプスの変動を表す少なくとも第1の情報を設定するように構成された少なくとも1つのプロセッサを備える。
有利には、上記少なくとも1つのプロセッサは、グラフィックプロセッサユニット(GPU)である。
特定の特徴によると、上記少なくとも第1の情報は、上記第1の要素に関連付けられたデプス情報から、および少なくとも第2の要素に関連付けられたデプス情報から設定され、上記第1の要素および上記少なくとも第2の要素は、上記デプスマップ内に投射された上記シーンの同一表面要素に属する。
別の特徴によると、上記少なくとも1つのプロセッサは、上記少なくとも第1の情報を、上記第1の要素におけるデプスの変動を表す傾斜角度の形態で表現し、上記傾斜角度の形態で表現された上記少なくとも第1の情報を、奇数べき関数で符号化するようにさらに構成される。
また、本発明は、プログラムがコンピュータ上で実行されたとき、デプスマップの第1の要素に関連付けられたコンテンツを強化するための方法を実行するための少なくとも1つのプロセッサによる実行ためのプログラムコードの命令を含むコンピュータプログラム製品に関する。
本発明は、添付の図面を参照する以下の説明を読むことで、より良く理解され、他の特定の特徴および利点が明らかになる。
従来技術による、シーンに関連付けられた画像およびデプスマップを示す図である。 本発明の特定の実施形態による、図1のデプスマップの一部を示す図である。 本発明の2つの特定の実施形態による、図1のデプスマップ上に投射された図1のシーンの表面要素の投射を示す図である。 本発明の2つの特定の実施形態による、図1のデプスマップ上に投射された図1のシーンの表面要素の投射を示す図である。 本発明の2つの特定の実施形態による、図1のデプスマップ上に投射された図1のシーンの表面要素の投射を示す図である。 本発明の特定の実施形態による、図1のデプスマップの要素に記憶されたデプス情報を示す図である。 本発明の特定の実施形態による、図1のデプスマップに含まれるデプス情報の符号化を示す図である。 本発明の特定の実施形態による、図1のデプスマップに含まれるデプス情報の符号化を示す図である。 本発明の特定の実施形態による、図1のデプスマップのコンテンツを強化するための方法を実装するためのデバイスを概略的に示す図である。 本発明の特定の実施形態による、図1のデプスマップのコンテンツを強化するための方法を示す図である。
本発明は、デプスマップの第1の要素のコンテンツを強化するための方法の特定の実施形態を参照して説明される。デプスマップは、有利には、LおよびMが0より大きい整数であるL行およびM列の要素のアレイに対応し、1つまたは複数の画像にレンダリングされるシーンに関連付けられる。デプスマップに含まれる要素の数は、たとえば、シーンの画像のピクセルの数に対応する。デプスマップは、有利には、デプスマップの空間内の第1の要素におけるデプスの変動を表す1つまたは複数の第1の情報によって強化される。
したがって、追加的な第1の情報が、必要に応じて、第1の要素の任意のポイントに関連付けられたデプスを取り出すことを可能にし、一方で、従来技術によるデプスマップでは、デプスマップの要素の任意のポイントに関連付けられたデプスは、第1の要素またはその中心に関連付けられたシーンの最も近い可視のフラグメントのデプスと同じであり、これに対応する。
図1は、特定の非限定的実施形態による、関連付けられたデプスマップ10を有する画像11にレンダリングされるシーン1を示す。画像11は、(カメラ視野とも呼ばれ、図1に示されていない)所与の視点から見られるシーン1を表し、デプスマップは、別の視点100(すなわち別のカメラ視野)に従って生成される。シーンは、たとえば仮想シーンに対応し、いくつかの仮想オブジェクト、すなわち第1のオブジェクト12および第2のオブジェクト13を含む。オブジェクト12および13は、当業者に知られている任意の方法によってモデリングされ、たとえば、それぞれがそれを構成する頂点およびエッジのリストによって定義される一組のポリゴン(メッシュ要素)とモデルが同化されるポリゴンモデリング、モデルが制御頂点によって作成された一組の曲線によって定義されるNURBS(非一様有理Bスプライン)タイプ曲線モデリング、表面の細分割によるモデリング、によってモデリングされる。現実の環境/現実のシーン(たとえば、地面、家もしくは家の前面、人、車、木、すなわち、家、街路、町、地方などの一部など、環境を構成する任意の要素)または架空の要素を構成する、(現実または架空の)オブジェクトの(モデリングによって得られる)任意の仮想表現が、仮想オブジェクトによって理解される。シーン1の各オブジェクト12、13は、それを覆う表面によって特徴付けられ、各オブジェクトの表面は、それに特有の(1またはいくつかの方向で表面によって反射される入射光の比率に対応する)反射特性を有する。
デプスマップ10は、n個の要素101…10p’…10nを含み、nは、デプスマップ10の解像度を定義する、0より大きい整数であり、解像度は、たとえば、512×512ピクセル、1024×1024ピクセル、または4096×4096ピクセルに等しい。デプス情報は、有利には、デプスマップ10の各要素に関連付けられる。このデプス情報は、視点100と、デプスマップの要素を通過する視方向に沿ったシーン1の最も近い可視のフラグメントとの間の距離に対応し、デプスマップのこの要素は、シーンの最も近い可視のフラグメントに関連付けられる。要素10p’を例にとると、この要素10p’に関連付けられたデプス情報は、視点100を起点として有し、要素10p’を通過し、有利には要素10p’の中心を通過する視方向100p’に沿った、視点100とシーン1のフラグメントP’121との間の距離に対応する。フラグメントP’121は、視点100から開始して視方向100p’によって交差されるシーンの最初の要素に対応する。デプス情報は、デプスマップの対応する要素の中心に関連付けられる。デプスマップ10の要素の内部のデプスの変動を表す第1の情報は、有利には、デプスマップの各要素にさらに関連付けられ、この第1の情報は、図2から図4に関して説明されるように設定される。
画像11は、m個のピクセル111…11p…11mを含み、mは、画像11の解像度を定義する、0より大きい整数である。有利には、mはnと異なり、たとえば、nがmより大きい、またはmがnより大きい(デプスマップの解像度は、たとえば、512×512ピクセル、1024×1024ピクセル、または4096×4096ピクセルであるのに対し、画像11の解像度は、たとえば、1024×768ピクセル、1280×720ピクセル、または1920×1200ピクセルである)。変形形態によると、mはnに等しく、デプスマップ10と画像11の両方が同じ解像度を有する。有利には、属性は、画像11の各ピクセルに関連付けられ、たとえば、画像のピクセルに関連付けられたシーンのフラグメントのカラー情報(たとえばRGB情報)および/または半透明特徴を含む。フラグメントは、有利には、シーン1のポイントに関連付けられた表面要素に対応し、そのサイズは、ディスプレイスクリーン上でシーン1を表すように表示され得る画像11のピクセルのサイズと等しい。シーン1のフラグメントは、フラグメントが画像11に関連付けられた視点から可視である場合、画像内のピクセルとなる。明確にするため、シーン1の要素(たとえばポイント)が3Dシーンの空間(ワールド空間)に位置しているとき、フラグメントと呼ばれ、画像11に関連付けられた視点から可視の同じ要素が画像11の空間に位置しているとき、ピクセルと呼ばれる。したがって、画像11に関連付けられた視点から可視のフラグメントおよび画像における対応するピクセルは、シーン1の全く同じ要素を言及し、本説明の残りの部分では一緒に扱われることがある。有利には、フラグメントは、以下のデータアイテムの1つまたはいくつかを一緒にグループ化する一組のデータによって定義される。
− フラグメントのラスター化位置、
− 視点におけるフラグメントのデプス、
− 属性(たとえば、色、テクスチャ座標)、
− フラグメントの半透明特徴を表すアルファチャネル。
シーンのフラグメントが画像11の視点から可視であるかどうかを決定するために、(zバッファアルゴリズムとしても知られる)よく知られたzバッファ法が、画像11と同じ視点を有し、デプスマップ10と同様の構造を有する1つまたは複数のデプスマップに関連して使用される。また、画像11と同じ視点を有し、zバッファアルゴリズムで使用される1つまたは複数のデプスマップは、zバッファと呼ばれる。この方法によると、画像11のピクセル11pを例にとると、画像11の視点を起点として有し、ピクセル11pの中心を通過する視方向110pに沿って配置されたシーンのフラグメントのデプスが比較され、最小のデプス(すなわち、視方向110pに沿った視点からの最短の距離)を有するフラグメントP131は、属性がピクセル11pに関連付けられたものである。変形形態によると、よく知られたペインタのアルゴリズムは、シーンのどのフラグメントが画像11の視点から画像11の各ピクセルについて可視であるかを決定することに関する可視性の問題を解決するために使用される。
図1の例によると、視点100は、有利にはシーン1の光源に対応し、デプスマップ10は、シーン1のどのフラグメントが光源によって照明され、シーンのどのフラグメントが影になるかを決定するために使用される。この例によると、デプスマップ10はシャドウマップとも呼ぶことができる。次いで、(画像11のピクセル11pに対応する)フラグメントP131が照明されるか又はシーン1のオブジェクトの影になるかを決定するために、フラグメントP131が、視点100とフラグメントP131とをリンクする視方向に沿ってデプスマップに投射される。視点100とフラグメントP131との間の距離||LP||は、デプスマップ10内へのフラグメントP131の投射に対応する要素10p’の中心に関連付けられたデプス情報||LP’||と比較される。||LP||が||LP’||より大きい場合、フラグメントP131はフラグメントP’121の影になっている(すなわち、フラグメントP131は光源Lによって直接照明されない)。||LP||が||LP’||以下である場合、フラグメントP131は光源Lによって直接照明される。有利な手法では、距離||LP||が比較されるデプス情報は、要素10p’の中心に関連付けられたデプス情報から、および要素10p’内のデプスの変動を表す第1の情報から取り出される。これは、特に、要素10p’に属している一方でデプスマップ内へのフラグメントP’131の投射ポイントが要素10p’の中心と一致しないときに、シーンの別のフラグメントによりフラグメントP131が照明されるかそれとも照明されないかを、より良い精度で決定することを可能にする。これは、デプスマップ10の有限解像度に関係付けられたいくつかの欠陥を是正することを可能にする。フラグメントが照明されるかどうかを決定することは、画像11におけるシーンをレンダリングするとき、すなわち、考慮されるフラグメントに関連付けられた画像11のピクセルをレンダリングするとき、フラグメントの照明されるまたは照明されない特徴と調和するように考慮されるフラグメントにビデオ情報(たとえば、RBGデータ)を関連付けることを可能にする。したがって、画像のピクセルのレンダリングは、従来技術のデプスマップを使用するレンダリング方法と比べて、アーチファクトが少ないまたは存在せず精度が高い。
変形形態によると、シーン1は、画像11を生成し、有利には異なる視点に従って1つまたは複数の他の画像を生成してシーンの2眼式立体映像を生成するカメラデバイスによって撮影された現実のシーンである。この変形形態によると、デプスマップは画像11と同じ視点に従って生成され、デプスマップおよび画像11は互いに関連付けられる。シーンの他の画像に関連付けられたデプスマップも生成することができる。デプスマップの要素の中心に関連付けられたデプス情報は、たとえば、カメラに関連付けられたデプスセンサを介して生成される。別の例によると、デプスマップは、2つの異なる視点に従って取得されたシーン1の2つの画像(たとえば、シーンの左画像および右画像)を比較することによって生成され、視差情報は、2つのペアによる各視界のピクセル間を一致させるために2つの画像をピクセル単位で比較することによって取り出され、視差情報は、左画像内のピクセルの位置と右画像内のその対応するピクセルの位置との間の横軸によるピクセルの差に対応する。この例によるデプスマップは、視差マップと呼ばれる。画像11に関連付けられた視差マップは、画像11(たとえば2眼式立体映像の左画像に対応する)と2眼式立体映像の別の画像(たとえば右画像)との間の視差を表し、別の視差マップを右画像に関連付けることができ、この別の視差マップは、右画像と左画像11との間の視差を表す。各視差マップは、有利には、左画像11(または右画像)のピクセルと右画像(または左画像11)のピクセルとの比較およびペアリングによって推定される。左画像11(または右画像)のピクセルに関連付けられた視差は、有利には、この左画像11(または右画像)のピクセルと、右画像(または左画像11)の対応する(またはペアにされた)ピクセル、すなわち、左画像11(または右画像)のピクセルのビデオ情報(すなわちカラー情報)と同一または同様のビデオ情報を有する右画像(または左画像11)のピクセルとの間のピクセル距離に対応する。デプスの変動を表す第1の情報は、図2から図4に関してより詳細に説明されるように、デプスマップ10(視差マップ)の要素で設定され、関連付けられる。
図2は、特定の非限定的実施形態による、図1のデプスマップ10の一部20を示す。デプスマップのこの一部は第1の要素21を中心とし、第1の要素21はデプスマップ10の8つの要素によって囲まれ、それらのうち、要素22、23および24は第2の要素と呼ばれる。(図2に表示されない)視点100とフラグメントPT25との間の距離を表すデプス情報pz,21は、第1の要素の中心T211に関連付けられる。第1の要素のポイントT211は、第1の要素21を通過する視方向210に沿ったフラグメントPT25の投射ポイントに対応する。第1の要素21に属するポイントT’212は、デプスマップ10に関連付けられた視点100を起点として有し第1の要素21を通過する視方向220に沿ったフラグメントPT’26の投射ポイントに対応する。第1のフラグメント25および第2のフラグメントは、有利には、互いに近く(たとえば隣接し)、シーンのオブジェクトの同一表面、すなわち、デプスマップ10に関連付けられた視点100に対応する光源L(図2に表示されない)によって照明されたオブジェクト13の表面に属する。フラグメントPT’26が照明されるかどうかを決定するために、視点100に従ったフラグメントPT’26のデプスは、第1の要素21(または第1の要素21の中心T211)に関連付けられたデプス情報と、第1の要素21に関連付けられた第1の要素21におけるデプスの変動を表す1つまたは複数の第1の情報とを使用して計算される、ポイントT’212に関連付けられたデプス情報と比較される。従来技術のデプスマップでは、フラグメントPT’24のデプスは、可視のアーチファクトを引き起こす可能性があった、第1の要素21の中心T211に関連付けられたデプス情報pz,21と比較されているだけであった。実際、2つのフラグメント25および26が属するオブジェクト13の表面が、第1のフラグメントおよび第2のフラグメントの視方向210および220にほぼ接する(または言い換えれば、オブジェクト13の表面法線と1つの視方向210もしくは220とによって形成される角度が大きい、すなわち所定の閾値角度より大きい、たとえば45°より大きい)ことを考慮することによって、特に、第2のフラグメントPT’26が視点に対して第1のフラグメントPT25の後であるとき、または第2のフラグメントPT’26が視点に対して第1のフラグメントPT25から遠くに配置されているとき、第1の要素21の中心T211に関連付けられた(実際に距離pz,21=||LPT||に対応する)デプスと距離||LPT’||の比較は、第2のフラグメントPT’26が第1のフラグメントPT25の影になることを設定することができる。これは、もちろん、図3A、図3B、図4、および図5に関して説明されるように設定される第1の情報を含まない先行技術のデプスマップに記憶されるデプス情報の不正確さによる誤った考えである。実際、フラグメントPT25およびPT’26の両方が、オブジェクト13の1つの同一表面に属するため、またデプスマップにおけるそれらの投射ポイントT211およびT’212が同じ第1の要素21に属するため、それらは光源Lによって照明される(または視点100から可視である)。
図3Aおよび図3Bは、本原理の特定の非限定的実施形態による、第1の要素21におけるデプスの変動を表す1つまたは複数の第1の情報を設定するための第1の方法を示す。図2および図3Aおよび図3Bの共通の要素は同じ参照番号を有する。図3Aは、シーン1に属する第2の表面要素の投射に対応する第1の表面要素30を示し、第2の表面要素は、たとえば、シーンがポリゴンモデリングによってモデリングされている場合はメッシュ要素(ポリゴン、たとえば三角形)に、シーン1が表面の細分割によってモデリングされている場合は表面の細分割に対応する。図3の例によると、第1の表面要素は、三角形の形態をとり、デプスマップ10の空間(x,y)で定義される。第1の表面要素30は、要素の2×2の正方形を形成する少なくとも4つの要素21、22、23、24を含む。要素21は、図2の第1の要素21に対応し、要素22、23および24は、第2の要素と呼ばれる。dxは、デプスマップの空間(x,y)における横軸xに沿った第1の要素21の中心と第2の要素22の中心との間の距離を表す。dyは、デプスマップの空間(x,y)における縦軸yに沿った第1の要素21の中心と第2の要素23の中心との間の距離を表す。デプスマップの空間(x,y)内の第1の要素21におけるデプスの変動を表す第1の情報は、有利には、デプスマップにおける第1の表面要素30の(シーン1のどのフラグメントが、シーン1の第2の表面要素の一部、したがってデプスマップの対応する第1の表面要素の一部であるかを決定することを可能にする)ラスター化プロセスの間に設定(すなわち計算または生成)され、ラスター化プロセスは、図5に関して後で説明されるように、GPU(グラフィック処理ユニット)に関連付けられたグラフィックハードウェアパイプラインの幾何学図形的配列シェーダーによって行われる。x軸に沿った第1の要素におけるデプスの変動を表す第1の情報は、x軸に沿って第1の要素21の中心と第2の要素22の中心とを分離する距離dxを考慮に入れることにより、第1の要素21の中心に関連付けられたデプス情報から、およびx軸に沿って第1の要素21に有利には隣接する第2の要素22の中心に関連付けられたデプス情報から、設定される。図3Bは、第1の要素21および第2の要素22、ならびにそれぞれの中心に関連付けられたデプス情報d1およびd2を示す。d1およびd2は、破線矢印によって表され、第1の要素21と第2の要素22との間のデプス差は、線分31によって表され、第1の要素21と第2の要素22とのそれぞれの中心の間の距離dx32は、二重矢印によって表される。第1の要素21におけるデプスの変動を表す第1の情報は、直線31の関数の偏微分係数を設定することによって得られるこの線分31の傾斜に対応する。
x軸に沿ったデプスマップの空間内の第1の要素におけるデプスの変動を表す第1の情報は、次の式によって設定することができる。
式中、dpz,21/dxは、第1の要素21に関連付けられたx軸に沿った第1の情報に対応し、またx軸に沿ったデプス偏微分係数(partial depth derivative)にも対応し、
p(21)は、第1の要素21の中心T211に関連付けられたデプス情報に対応し、
p(21−dx)=p(22)は、第2の要素22の中心に関連付けられたデプス情報に対応する。
同様に、y軸に沿った第1の要素におけるデプスの変動を表す第1の情報は、y軸に沿って第1の要素21の中心T211と第2の要素23の中心とを分離する距離dyを考慮に入れることにより、第1の要素21の中心に関連付けられたデプス情報から、およびy軸に沿って第1の要素21に有利には隣接する第2の要素23の中心に関連付けられたデプス情報から、設定される。y軸に沿ったデプスマップの空間内の第1の要素21におけるデプスの変動を表す第1の情報は、次の式によって設定することができる。
式中、dpz,21/dyは、y軸に沿った第1の要素21に関連付けられた第1の情報に対応し、またy軸に沿ったデプス偏微分係数にも対応し、
p(21)は、第1の要素21の中心T211に関連付けられたデプス情報に対応し、
p(21−dy)=p(23)は、第2の要素23の中心に関連付けられたデプス情報に対応する。
変形形態によると、(x軸またはy軸のいずれかに沿った)2つの第1の情報の一方のみが、GPUのレンダリングパイプラインで行われる計算量を最小化するように設定される。
他の要素22、23および24に関連付けられた第1の情報は、有利には、要素21から24の同じグループで設定される。たとえば、x軸に沿った要素22におけるデプスの変動を表す第1の情報dpz,22/dxは、要素22の中心と要素21の中心とを分離する距離dx32を考慮に入れることにより、要素22の中心に関連付けられたデプス情報p(22)から、および要素21の中心T211に関連付けられたデプス情報p(21)から、設定される。y軸に沿った要素22におけるデプスの変動を表す第1の情報dpz,22/dyは、要素22の中心と要素24の中心とを分離する距離dyを考慮に入れることにより、要素22の中心に関連付けられたデプス情報p(22)から、および要素24の中心に関連付けられたデプス情報p(24)から、設定される。(それぞれx軸およびy軸に沿った)両方の第1の情報は、以下の式によって設定することができる。
図4は、特定の非限定的実施形態による、図2の第1の要素21におけるデプスの変動を表す1つまたは複数の第1の情報を設定するための第2の方法を示す。図4は、シーン1に属する第2の表面要素42の投射に対応する第1の表面要素41を示し、第2の表面要素は、たとえば、シーンがポリゴンモデリングによってモデリングされている場合はメッシュ要素(ポリゴン、たとえば三角形)に、シーン1が表面の細分割によってモデリングされている場合は表面の細分割に対応する。第2の表面要素42は、ワールド空間、すなわちシーン1の空間において表される。第1の表面要素41は、デプスマップ10に関連付けられた正投影カメラに関連付けられた3次元空間40における第2の表面要素42の投射に対応する。正投影カメラを使用することは、ワールド空間に属する第2の表面要素を、デプスマップ10に関連付けられたカメラ視野の3次元空間(x,y,z)内に投射することを可能にする。デプスマップ10の2D空間内のデプスマップの第1の要素におけるデプスの変動を表す1つまたは複数の第1の情報を設定するために、正投影カメラ40の3D空間内の第1の表面要素41に関連付けられた平面を表す関数が決定され、以下のようになる。
ax+by+cz+d=0 式5
式中、a、b、cおよびdは、平面係数であり、x、yおよびzは、平面のポイントの座標であり、zは、デプスに対応する。
z=−(ax+by+d)/c 式6
これは、デプスマップの空間のx軸に沿った第1の情報(dpz,21/dx)、および/またはデプスマップの空間のy軸に沿った第1の情報(dpz,22/dy)を設定することを可能にする。
dpz,21/dx=−a/c 式7
dpz,22/dy=−b/c 式8
図5は、本原理の特定の非限定的実施形態による、デプスマップ10の第1の要素21を表すメモリ要素(またはメモリ要素の組み合わせ)の構造5を概略的に示す。構造5は、3つのメモリブロック50、51、52を含む。第1の要素の中心に関連付けられたデプス情報pz,21は第1のブロック50に記憶され、デプスマップの空間のx軸に沿ったデプスの変動を表す第1の情報dpz,21/dxは第2のブロック51に記憶され、デプスマップの空間のy軸に沿ったデプスの変動を表す第1の情報dpz,21/dyは第3のブロック52に記憶される。デプスマップの構造は、たとえば、32ビットRGBAバッファであり、ブロック50に16ビットが使用され、第2のブロック51に8ビットが使用され、第3のブロック52に8ビットが使用される。別の例によると、デプスマップの構造は、RGBAバッファに記憶された64ビットデータアレイであり、第1のブロック50に32ビット、ブロック51および52のそれぞれに16ビットを有する。単一の第1の情報が(x軸またはy軸に沿って)設定される場合、ブロック51および52の一方が空であり、解放された空間のメモリは、より高い精度で単一の第1の情報を記憶するために使用することができる。
次いで、デプスマップ10に記憶され図2の第1の要素21に関連付けられた第1の情報は、第1の要素21のポイントT’212に関連付けられたデプス情報を計算するために使用され得る。ポイントT’212に関連付けられたデプス情報pz,T’は、以下の式によって計算される。
z,T’=pT+(xT’−xT)dpz,21/dx+(yT’−yT)dpz,21/dy 式9
式中、pT=pz,21は、第1の要素21の中心T211に関連付けられたデプス情報であり、
T’およびyT’は、デプスマップ10の空間(x,y)内のポイントT’212の座標であり、
TおよびyTは、デプスマップ10の空間(x,y)内のポイントT211の座標であり、dpz,21/dxは、x軸に沿った第1の要素21におけるデプスの変動を表す第1の情報であり、dpz,21/dyは、y軸に沿った第1の要素21におけるデプスの変動を表す第1の情報である。
フラグメントPT’26が照明されるか、それともフラグメントPT25によって光から隠されるかを決定するために、視点100とフラグメントPT’26との間の距離||LPT’||が、ポイントT’212に関連付けられたデプス情報pz,T’と比較され、式9によって計算される。||LPT’||がpz,T’以下である場合、フラグメントPT’26は(図2に図示されないが図1に図示される)光源L100によって照明される。||LPT’||がpz,T’より大きい場合、フラグメントPT’26は光源L100によって照明されない。
図6Aおよび図6Bは、特定の非限定的実施形態による、デプスマップ10の第1の要素21におけるデプスの変動を表す第1の情報の符号化を示す。デプスマップの第1の要素におけるデプスの変動を表す第1の情報の値は、前向きの表面(すなわち、デプスマップの第1の要素21の中心を通過する視方向に対して平行または略平行の法線を有するオブジェクトの表面)の存在下でかなり小さく、逆に、グレージング角表面(すなわち、デプスマップの法線に対して垂直または略垂直の法線を有するシーンのオブジェクトの表面)の存在下で非常に大きい可能性がある。そのような振幅は、高精度の浮動記憶域(float storage)を必要とし、デプスマップの記憶域をかなり増大させる可能性がある。他方で、第1の情報が(デプスマップのx軸に沿った)xおよび(デプスマップのy軸に沿った)yの線形関数の傾斜を表すため、以下のように傾斜角度によって表すことができる。
θx(pz,21)=arctan(dpz,21/dx) 式10
θy(pz,21)=arctan(dpz,21/dy) 式11
これらの角関数は、境界範囲[−π/2,π/2]において定義され、たとえば、π/256、すなわち約0.703度)の精度で、符号なしの8ビット整数値で記憶することができる。図6Aは、そのような角関数60を示し、範囲[−π/2,π/2]は、[−1.0;1.0]に正規化される。
図6Aでは、低角度に関して、第1の情報値(すなわち、微分係数または率)がゆっくり変化し、角度の精度が重要でないことが認められる。それは、領域の境界の近く、すなわち、−π/2およびπ/2の近くでは重要となる。小さい角度変動は、誤ったデプス再構成をもたらす可能性がある大きな微分係数変動を表す。より高い精度を有することは、たとえば16または32ビットサイズのデータ記憶域を増大することを必要とする。本発明の1つの特定の非限定的実施形態によると、軸xおよびyに沿ったデプスマップの空間内のデプスマップの第1の要素におけるデプスの変動を表す角関数、すなわち、関数θx(pz,21)およびθy(pz,21)は、0付近の角領域を圧縮し、領域の境界の近く、すなわち、−π/2およびπ/2の近くのエリアについてより高い精度を与えるために、奇数べき関数xy(たとえばx3またはx5)で符号化される。そのような関数61および有効な圧縮が、奇数べき関数によって図6Bに示されている(図6Bは、奇数べき関数(すなわち図6Bの例ではx3)を使用して正規化された角領域圧縮を示す)。そのような実施形態は、各第1の情報値について8ビットデータ記憶域のみを用いて高精度で第1の情報(すなわち微分係数)を記録できるようにする。符号なしの8ビット整数の(x軸およびy軸にそれぞれ沿った)最終的な符号化された第1の情報値Edx(pz,21)およびEdy(pz,21)は、以下のようにして得られる。
式中、nは、正の奇数の整数を表す。
第1の情報値を得るための復号化は、有利には、フラグメントが照明されるかどうか(またはフラグメントが可視であるかどうか)を決定するためにデプス比較を行うシーンレンダリングパスで行われる。
復号化された第1の情報値dpz,21/dxおよびdpz,21/dyは、以下のようにして得られる。
図7は、デプスマップの第1の要素に関連付けられたコンテンツを強化するように構成されたデバイス7のハードウェア実施形態を概略的に示す。デバイス7はまた、シーン1を表す1またはいくつかの合成画像のディスプレイ信号を作成するように構成されている。デバイス7は、たとえば、パーソナルコンピュータ(PC)、ラップトップ、タブレット、スマートフォンまたはゲームコンソールに対応する。
デバイス7は、クロック信号も移送するアドレスおよびデータのバス75によって互いに接続された、以下の要素を備える。すなわち、
− マイクロプロセッサ71(またはCPU)と、
− グラフィックカード72であって、
・いくつかのグラフィックプロセッサユニット(またはGPU)720、及び
・グラフィカルランダムアクセスメモリ(GRAM)721
を含むグラフィックカード72、
− ROM(読出し専用メモリ)タイプの不揮発性メモリ76と、
− ランダムアクセスメモリまたはRAM77と、
− 1またはいくつかのI/O(入力/出力)デバイス74、たとえば、キーボード、マウス、ウェブカメラなどと、
− 電源78と、
を備える。
デバイス7はまた、たとえばライブで、グラフィックカード72において計算および構成された合成画像を表示するために、グラフィックカード72に直接接続されたディスプレイスクリーンタイプのディスプレイデバイス73を備える。ディスプレイデバイス73をグラフィックカード72に接続するための専用バスの使用は、はるかに速いデータ伝送ビットレートを有するという利点をもたらし、したがって、グラフィックカードによって構成される画像の表示のための待ち時間を低減する。変形形態によると、ディスプレイデバイスは、デバイス7の外部にあり、ディスプレイ信号を送信するためにケーブルまたは無線でデバイス7に接続される。デバイス7たとえばグラフィックカード72は、たとえばLCDまたはプラスマスクリーンまたはビデオプロジェクタなどの外部ディスプレイ手段へディスプレイ信号を送信するように適合された、伝送または接続用のインターフェース(図7に図示せず)を備える。
メモリ721、76、および77の説明に使用される単語「レジスタ」は、前述されたメモリのそれぞれにおいて、小容量(いくらかのバイナリーデータ)のメモリ領域とともに、(プログラム全体、または計算されたもしくは表示すべきデータを表すデータのすべてもしくは一部が記憶されることを可能にする)大容量のメモリ領域を示すことに留意されたい。
起動されると、マイクロプロセッサ71は、RAM77に含まれるプログラムの命令をロードし実行する。
ランダムアクセスメモリ77は、特に、
− レジスタ770における、デバイス7上のスイッチングを担当するマイクロプロセッサ71のオペレーティングプログラムと、
− シーンを表すパラメータ771(たとえば、シーンのオブジェクトのモデリングパラメータ、シーンの照明パラメータ)と、
を含む。
本発明に特有の後述される方法のステップを実装するアルゴリズムは、これらのステップを実装するデバイス7に関連付けられたグラフィックカード72のメモリGRAM721に記憶される。起動され、環境を表すパラメータ771がRAM77にロードされると、グラフィックカード72のグラフィックプロセッサ720は、これらのパラメータをGRAM721にロードし、これらのアルゴリズムの命令を、たとえば、HLSL(高レベルシェーダー言語)またはGLSL(OpenGLシェーディング言語)を使用して、「シェーダー」タイプのマイクロプログラムの形態で実行する。
ランダムアクセスメモリGRAM721は、特に、
− レジスタ7211における、シーンを表すパラメータと、
− レジスタ7212における、デプスマップの中心に関連付けられたデプス情報と、
− レジスタ7213における、デプスマップの空間内のデプスマップの要素におけるデプスの変動を表す1または2つの第1の情報と、
を含む。
変形形態によると、第1の識別子および第2の識別子ならびに距離は、RAM77に記憶されマイクロプロセッサ71によって処理される。
別の変形形態によると、GRAM721で使用可能なメモリ記憶空間が不十分な場合、RAM77の一部が、CPU71によって識別子および距離の記憶域のために割り当てられる。しかしながら、この変形形態は、GPUに含まれたマイクロプログラムから構成された環境の表現を含む画像の構成において、より長い待ち時間を生じさせるが、その理由は、データがグラフィックカードからランダムアクセスメモリ77にバス75を介して送信されなければならず、そのための伝送容量が、GPUからGRAMへのデータの伝送およびその逆のためにグラフィックスカードで使用可能なそれらより一般に劣るためである。
別の変形形態によると、電源78はデバイス7の外部にある。
図8は、本発明の第1の非限定的な特に有利な実施形態による、たとえばデバイス7において実装されるデプスマップの第1の要素に関連付けられたコンテンツを強化するための方法を示す。
初期化プロセス80において、デバイス7の様々なパラメータが更新される。特に、画像11において表されるシーン1を表すパラメータ、およびデプスマップ10に含まれるデプス情報が、何らかのやり方で初期化される。
次いで、ステップ81において、デプスマップの第1の要素(たとえば、テクセルまたはピクセル)におけるデプスの変動を表す少なくとも第1の情報は、デプスマップの空間内で設定される。第1の情報は、(デプスを表す第2の情報と呼ばれる)1つのデプス情報を含むだけの先行技術のデプスマップのコンテンツを強化するために使用され、そのデプス情報は、第1の要素の中心に関連付けられ、デプスマップの視点を起点として有し第1の要素を通過する視方向に沿ったデプスマップに関連付けられた視点から可視であるシーンのフラグメントのデプスに対応する。有利なやり方では、2つの第1の情報、すなわち、デプスマップの空間の横軸に沿ったデプスの変動を表す1つの第1の情報と、デプスマップの空間の(横軸に垂直の)縦軸に沿ったデプスの変動を表すもう1つの第1の情報とが設定される。変形形態によると、2つの第1の情報の一方のみ、すなわち、デプスマップの空間の横軸に沿ったデプスの変動を表す第1の情報またはデプスマップの空間の縦軸に沿ったデプスの変動を表す第1の情報のいずれかが設定される。第1の情報は、有利には、先行技術によって行われるように第1の要素の中心のデプス情報を第1の要素の任意のポイントに関連付ける代わりに、第1の要素の任意のポイントに関連付けられたデプス情報を、デプスマップの空間において表現されるこのポイントの座標を使用して設定するために、第1の要素の中心に関連付けられたデプス情報に加えて使用される。
第1の情報は、たとえば、第1の要素の中心に関連付けられたデプス情報から、およびデプスマップの第2の要素の中心に関連付けられたデプス情報により設定される。第1の要素および第2の要素は、デプスマップ内へのシーンの表面要素の投射から生じる同一表面要素に属する。デプスマップの空間の横軸に沿ったデプスの変動を表す第1の情報を設定するために使用される第1の要素および第2の要素は、有利には、横軸に沿って隣接する。デプスマップの空間の縦軸に沿ったデプスの変動を表す第1の情報を設定するために使用される第1の要素および第2の要素は、有利には、縦軸に沿って隣接する。第1の情報は、有利には、第1の要素と第2の要素との間のデプスの差の、第1の要素と第2の要素との間の距離(たとえば、第1の要素の中心と第2の要素の中心との間の距離)に対する比に対応する。
別の例によると、第1の情報は、デプスマップに関連付けられたカメラ視野の空間内にシーンの表面要素を投射することにより得られた、第1の要素を含む表面要素の式を使用して、設定される。第1の情報は、この表面要素の傾斜に対応し、その式は、デプスマップの空間の横軸および/または縦軸に関して、デプスマップのカメラ視野の空間において表現される。
変形形態によると、1つまたは2つの第1の情報は、第1の要素におけるデプスの変動を表す傾斜角度の形態で表現される。
別の変形形態によると、第1の情報のこの(これらの)角度表現は、奇数べき関数で符号化される。
さらなる変形形態によると、第1の情報は、第1の要素に関連して、デプスマップに関連付けられたバッファに記憶される。
別の変形形態によると、シーンの画像は、画像に関連付けられた視点(すなわちカメラ視野)から可視であるシーンのフラグメントに関連付けられたピクセルを表示することによってレンダリングされる。画像の表示されたピクセルに関連付けたカラー情報(たとえばRGB情報)は、画像のピクセルに関連付けたフラグメントに関連付けられたカラー情報に対応する。画像のピクセルに関連付けられたフラグメントのデプスは、有利には、起点としてデプスマップの視点を有し検討されるフラグメントを終点として有する視方向に沿ったシーンに関連付けられたデプスマップ内へのフラグメントの投射のポイントに関連付けられたデプスと比較され、投射のポイントに関連付けたデプスは、投射のポイントを含むデプスマップの要素に関連付けられた第1の情報および第2の情報から取り出される。この比較は、(シーンの光源がデプスマップの視点に対応するときに)検討されるフラグメントが照明されるかどうかを決定することを可能にし、それは、フラグメントに関連付けられたカラー情報に対して、したがって、レンダリングされる画像のピクセルに関連付けられたカラー情報に対して影響を及ぼし得る。
ステップ81は、有利には、デプスマップの要素ごと、およびシーンの任意の画像に関連付けられたデプスマップごとに反復される。
もちろん、本発明は、先に説明された実施形態に限定されない。
特に、本発明は、デプスマップのコンテンツを強化するための方法に限定されず、この方法を実装する任意のデバイス、特に少なくとも1つのGPUを備える任意のデバイスにも及ぶ。基本的幾何学図形的配列の生成、および基本的幾何学図形的配列に割り当てられる指標値の決定に必要な計算の実装は、いずれもシェーダータイプマイクロプログラムでの実装に限定されず、任意のプログラムタイプ、たとえば、CPUタイプマイクロプロセッサによって実行され得るプログラムでの実装にも及ぶ。
本発明の利用は、ライブ利用に限定されず、任意の他の利用、たとえば、たとえば合成画像の表示のためのレコーディングスタジオにおけるポストプロダクション処理として知られる処理のための利用にも及ぶ。
本発明はまた、デプスマップの空間内のデプスマップの要素におけるデプスの変動を表すデプス情報を符号化するための方法(および構成されたデバイス)に関する。本発明はさらに、第1の要素の中心に関連付けられたデプス情報、ならびにデプスマップの横軸および/または縦軸に沿ったデプスの変動を表す追加のデプス情報に基づいて、デプスマップの第1の要素のポイントに関連付けられたデプス情報を決定するための方法およびデバイスに関する。
(微分係数とも呼ばれる)第1の情報を第1のパス(シャドウマップレンダリング)で符号化し、それらを第2のパス(シーンレンダリング)で復号化し、それらを使用してデプス比較を行うために、GPU(グラフィックプロセッサユニット)に存在するプログラマブルレンダリングパイプラインが利用される。本発明のいくつかの実施形態を組み合わせるプロセス全体のためのGPU実装は、以下のように動作する。
1.第1のパスが、たとえばデプス/シャドウマップを表す1つの32ビットレンダリングターゲット(1または2つのコンポーネント)におけるライトビュー(light view)からのシーンをレンダリングする。
2.頂点処理段階で、頂点シェーダーが、メッシュ要素(たとえば三角形)頂点をオブジェクト空間から光クリップ空間に変換するようにセットアップされる。
3.フラグメント処理段階で、フラグメントシェーダーがセットアップされる。フラグメントのデプスpzが、テクセルがラスター化されるために光クリップ空間(すなわち、デプス/シャドウマップの空間)で得られる。pzが、32ビットの最終値の上位16ビットに書き込まれる。
4.第1の情報(デプス微分係数dpz/dx及びdpz/dy)が計算される。デプス微分係数は、表面(たとえば三角形)平面式から計算される、または、ほとんどのGPU(dFdx(OpenGL)もしくはddx(DirectX))で使用可能な導関数から直接得られる。次いで、それらは、デプスバッファの2つの下位8ビットに最終値として符号化される。最終値は、デプス/シャドウマップに書き込まれる。
5.第2のパスは、カメラビューからのシーンをレンダリングする。デプス/シャドウマップは、GPUテクスチャユニットに結合される。
6.フラグメント処理段階で、フラグメントシェーダーがセットアップされる。ビューサンプルPが光空間(デプス/シャドウマップの空間)に投射されて、クリップ空間におけるそのデプスpz、それが属するシャドウマップ空間(px,py)およびテクセル(i,j)内のその投射位置を与える。
7.テクスチャ検索がシャドウマップにおいて行われて、記憶された値を取り出す。上位16ビットが読み取られて、2つの下位8ビット値からpzならびにdpz/dxおよびdpz/dyを取り出す。
8.次いで、P投射と一致する遮眼子(occluder)のデプスdzが取り出される。
9.dz<pzである場合、Pが影にされる。そうでない場合、それは影にされない。テスト結果が、後で使用される(持ち越される)ためにシャドウバッファに書き込まれる、または同じフラグメントシェーダーにおいて表面照明と組み合わされる。
本明細書に説明された実装は、たとえば、方法もしくはプロセス、装置、ソフトウェアプログラム、データストリーム、または信号で実装され得る。単一形態の実装の文脈でのみ論じられる(たとえば、方法またはデバイスとしてのみ論じられる)場合でも、論じられた特徴の実装は、他の形態(たとえばプログラム)で実装されてもよい。装置は、たとえば、適切なハードウェア、ソフトウェア、およびファームウェアで実装され得る。たとえば、方法は、たとえば、コンピュータ、マイクロプロセッサ、集積回路、またはプログラマブルロジックデバイスを含む、たとえば一般に処理デバイスと呼ばれるプロセッサなどの装置で実装され得る。プロセッサはまた、たとえば、スマートフォン、タブレット、コンピュータ、携帯電話、ポータブル/携帯情報端末(「PDA」)、およびエンドユーザ間の情報の通信を促進する他のデバイスのような通信デバイスを含む。
本明細書に説明された種々のプロセスおよび特徴の実装は、様々な異なる機器またはアプリケーション、特に、たとえば、データ符号化、データ復号、ビュー生成、テクスチャ処理、ならびに画像および関係付けられたテクスチャ情報および/またはデプス情報の他の処理に関連付けられた機器またはアプリケーションで実施され得る。そのような機器の例は、符号器、復号器、復号器からの出力を処理するポストプロセッサ、符号器に入力を提供するプリプロセッサ、ビデオコーダ、ビデオ復号器、ビデオコーデック、ウェブサーバ、セットトップボックス、ラップトップ、パーソナルコンピュータ、セル電話、PDA、および他の通信デバイスを含む。明らかに、機器は移動式であってよく、移動車両内に設置されてもよい。
加えて、方法は、命令がプロセッサによって実行されることにより実装されてよく、そのような命令(および/または実装により生成されるデータ値)は、プロセッサ可読媒体、たとえば、集積回路、ソフトウェアキャリアまたは他のストレージデバイス、たとえば、ハードディスク、コンパクトディスク(「CD」)、光ディスク(たとえば、ディジタル多用途ディスクもしくはディジタルビデオディスクとしばしば呼ばれるDVDなど)、ランダムアクセスメモリ(「RAM」)、または読出し専用メモリ(「ROM」)に記憶されてよい。命令は、プロセッサ可読媒体上に有形に具現されるアプリケーションプログラムを形成することができる。命令は、たとえば、ハードウェア、ファームウェア、ソフトウェア、または組み合わせであってよい。命令は、たとえば、オペレーティングシステム、別個のアプリケーション、または2つの組み合わせに見出され得る。したがって、プロセッサは、たとえば、プロセスを実行するように構成されたデバイスと、プロセスを実行するための命令を有する(ストレージデバイスなどの)プロセッサ可読媒体を含むデバイスとの両方として特徴付けられ得る。さらに、プロセッサ可読媒体は、命令に加えてまたは命令の代わりに、実装によって生成されたデータ値を記憶することができる。
当業者には明らかなように、実装は、たとえば記憶または送信され得る情報を搬送するようにフォーマットされた種々の信号を生成することができる。情報は、たとえば、方法を実行するための命令、または説明された実装の1つによって生成されたデータを含むことができる。たとえば、信号は、説明された実施形態のシンタックスを書くもしくは読み取るための規則をデータとして搬送する、または説明された実施形態によって書き込まれた実際のシンタックス値をデータとして搬送するようにフォーマットされ得る。そのような信号は、たとえば、(たとえば、スペクトルの無線周波数部分を使用して)電磁波として、またはベースバンド信号としてフォーマットされ得る。フォーマットすることは、たとえば、データストリームを符号化し、符号化されたデータストリームにより搬送波を変調することを含むことができる。信号が搬送する情報は、たとえば、アナログまたはディジタル情報とすることができる。信号は、知られているように、様々な異なる有線またはワイヤレスリンクを介して送信することができる。信号は、プロセッサ可読媒体上で記憶することができる。
多くの実装が説明されてきた。それでも、種々の修正が行われ得ることは理解されよう。たとえば、異なる実装の要素が組み合わされる、補完される、修正される、または除去されることで、他の実装を作成してもよい。加えて、他の構造およびプロセスが、開示されたそれらの代わりとされてもよく、その結果の実装が、少なくとも実質的に同じやり方で少なくとも実質的に同じ機能を実行して、開示された実装と少なくとも実質的に同じ結果を達成することは、当業者には理解されよう。したがって、これらおよび他の実装は本出願によって企図される。
本発明は、たとえば、PCもしくはポータブルタイプコンピュータまたはライブで画像を生成し表示する専用のゲーム機で実行され得るプログラムによるかどうかにかかわらず、ビデオゲームアプリケーションで使用することができる。図7に関して説明されたデバイス7は、有利には、キーボード、マウス、ジョイスティック、または、たとえば音声認識も可能なようなコマンドの導入のための任意の他のモードなどの対話手段が備えられる。

Claims (15)

  1. デプスマップ(10)の第1の要素(21)に関連付けられたコンテンツを強化するための方法であって、前記デプスマップ(10)は、視点(100)に従ってシーン(1)に関連付けられ、前記方法は、前記デプスマップの空間内の前記第1の要素(21)におけるデプスの変動を表す少なくとも第1の情報(51、52)を設定するステップ(81)を含む、前記方法。
  2. 前記少なくとも第1の情報(51、52)は、前記第1の要素(21)に関連付けられたデプス情報(50)から、および少なくとも第2の要素(22、23)に関連付けられたデプス情報から設定され、前記第1の要素および前記少なくとも第2の要素は、前記デプスマップ内に投射された前記シーンの同一表面要素に属する、請求項1に記載の方法。
  3. 前記第1の要素(21)および前記少なくとも第2の要素(22、23)は隣接する、請求項2に記載の方法。
  4. 前記少なくとも第1の情報(51、52)は、前記第1の要素(21)と前記少なくとも第2の要素(22)との間のデプスの差の、前記第1の要素(21)と前記少なくとも第2の要素(22)との間の距離(32)に対する比を計算することによって設定される、請求項2又は3に記載の方法。
  5. 前記少なくとも第1の情報は、前記デプスマップ(10)に関連付けられたカメラ視野(40)の前記空間内に投射された前記シーンの表面要素(41)の式から設定され、当該投射された表面要素(41)は、前記第1の要素を含む、請求項1に記載の方法。
  6. 前記少なくとも第1の情報は、前記第1の要素におけるデプスの前記変動を表す傾斜角度(60)の形態で表現される、請求項1乃至5のいずれかに記載の方法。
  7. 前記傾斜角度の形態で表現された前記少なくとも第1の情報は、奇数べき関数(61)で符号化される、請求項6に記載の方法。
  8. 1つの第1の情報が前記デプスマップの前記空間の次元ごとに設定される、請求項1乃至7のいずれかに記載の方法。
  9. 前記デプスマップ内の前記第1の要素に関連付けられた前記少なくとも第1の情報を記憶するステップをさらに含む、請求項1乃至8のいずれかに記載の方法。
  10. 前記第1の要素に関連付けられた前記コンテンツは、前記視点(100)と前記シーン(25)のフラグメントとの間のデプスを表す第2の情報(50)を含み、前記フラグメントは、前記第1の要素(21)を通過する視方向(210)に沿って前記視点(100)から可視の最も近いフラグメントに対応する、請求項1乃至9のいずれかに記載の方法。
  11. デプスマップの第1の要素に関連付けられたコンテンツを強化するように構成されたデバイス(7)であって、前記デプスマップは、視点に従ってシーンに関連付けられ、前記デバイスは、前記デプスマップの空間内の前記第1の要素におけるデプスの変動を表す少なくとも第1の情報を設定するように構成された少なくとも1つのプロセッサ(720)を備える、前記デバイス(7)。
  12. 前記少なくとも1つのプロセッサ(720)は、グラフィックプロセッサユニット(GPU)である、請求項11に記載のデバイス(7)。
  13. 前記少なくとも第1の情報は、前記第1の要素に関連付けられたデプス情報から、および少なくとも第2の要素に関連付けられたデプス情報から設定され、前記第1の要素および前記少なくとも第2の要素は、前記デプスマップ内に投射された前記シーンの同一表面要素に属する、請求項11又は12に記載のデバイス(7)。
  14. 前記少なくとも1つのプロセッサは、前記少なくとも第1の情報を、前記第1の要素におけるデプスの前記変動を表す傾斜角度の形態で表現し、前記傾斜角度の形態で表現された前記少なくとも第1の情報を、奇数べき関数で符号化するようにさらに構成される、請求項11乃至13のいずれかに記載のデバイス(7)。
  15. プログラムがコンピュータ上で実行されたとき、請求項1乃至10のいずれかに記載の方法を実行するための前記プログラムのコードの命令を含む、コンピュータプログラム製品。
JP2015557380A 2013-02-12 2014-02-07 デプスマップのコンテンツを強化するための方法およびデバイス Withdrawn JP2016510473A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13305164.9 2013-02-12
EP13305164 2013-02-12
EP13305792.7 2013-06-12
EP13305792 2013-06-12
PCT/EP2014/052396 WO2014124871A2 (en) 2013-02-12 2014-02-07 Method and device for enriching the content of a depth map

Publications (2)

Publication Number Publication Date
JP2016510473A true JP2016510473A (ja) 2016-04-07
JP2016510473A5 JP2016510473A5 (ja) 2017-02-16

Family

ID=50070560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015557380A Withdrawn JP2016510473A (ja) 2013-02-12 2014-02-07 デプスマップのコンテンツを強化するための方法およびデバイス

Country Status (6)

Country Link
US (1) US10510179B2 (ja)
EP (1) EP2956910A2 (ja)
JP (1) JP2016510473A (ja)
KR (1) KR20150117662A (ja)
CN (1) CN104981849A (ja)
WO (1) WO2014124871A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487578B1 (ja) * 2018-01-05 2019-03-20 株式会社スクウェア・エニックス プログラム、記録媒体、及び影描画方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102223064B1 (ko) * 2014-03-18 2021-03-04 삼성전자주식회사 영상 처리 장치 및 방법
US10169909B2 (en) * 2014-08-07 2019-01-01 Pixar Generating a volumetric projection for an object
EP3021286B1 (en) 2014-11-13 2017-09-27 Thomson Licensing Device and method to compute shadow in a 3D scene
US10055883B2 (en) * 2015-01-08 2018-08-21 Nvidia Corporation Frustum tests for sub-pixel shadows
US9412034B1 (en) * 2015-01-29 2016-08-09 Qualcomm Incorporated Occlusion handling for computer vision
KR102299575B1 (ko) * 2015-03-09 2021-09-07 삼성전자주식회사 위상 검출 픽셀들로부터 깊이 맵을 생성할 수 있는 이미지 신호 프로세서와 이를 포함하는 장치
US10372968B2 (en) * 2016-01-22 2019-08-06 Qualcomm Incorporated Object-focused active three-dimensional reconstruction
EP3249921A1 (en) * 2016-05-24 2017-11-29 Thomson Licensing Method, apparatus and stream for immersive video format
US20180032638A1 (en) * 2016-07-27 2018-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Surface Analysis Systems and Methods of Generating a Comparator Surface Reference Model of a Multi-Part Assembly Using the Same
EP3467782A1 (en) * 2017-10-06 2019-04-10 Thomson Licensing Method and device for generating points of a 3d scene

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH075388A (ja) * 1993-06-16 1995-01-10 Fujitsu Ltd 光走査装置
US20060209065A1 (en) * 2004-12-08 2006-09-21 Xgi Technology Inc. (Cayman) Method and apparatus for occlusion culling of graphic objects
KR101345364B1 (ko) 2006-02-27 2013-12-30 코닌클리케 필립스 엔.브이. 출력 영상 렌더링
US8269180B2 (en) * 2008-08-27 2012-09-18 Brookhaven Science Associates, Llc Method and apparatus for the measurement of signals from radiation sensors
US8743114B2 (en) * 2008-09-22 2014-06-03 Intel Corporation Methods and systems to determine conservative view cell occlusion
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data
JP6143747B2 (ja) 2011-06-24 2017-06-07 ソフトキネティック ソフトウェア 深度測定の品質の向上
CN102883175B (zh) * 2012-10-23 2015-06-17 青岛海信信芯科技有限公司 深度图提取、判断视频场景切换及深度图边缘优化方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6487578B1 (ja) * 2018-01-05 2019-03-20 株式会社スクウェア・エニックス プログラム、記録媒体、及び影描画方法
JP2019121193A (ja) * 2018-01-05 2019-07-22 株式会社スクウェア・エニックス プログラム、記録媒体、及び影描画方法

Also Published As

Publication number Publication date
EP2956910A2 (en) 2015-12-23
WO2014124871A2 (en) 2014-08-21
US20160005213A1 (en) 2016-01-07
CN104981849A (zh) 2015-10-14
KR20150117662A (ko) 2015-10-20
US10510179B2 (en) 2019-12-17
WO2014124871A3 (en) 2015-06-04

Similar Documents

Publication Publication Date Title
EP3673463B1 (en) Rendering an image from computer graphics using two rendering computing devices
JP2016510473A (ja) デプスマップのコンテンツを強化するための方法およびデバイス
US10339703B2 (en) Device and method to compute shadow in a 3D scene
US10776997B2 (en) Rendering an image from computer graphics using two rendering computing devices
US10636213B2 (en) Graphics processing systems
CA2866849C (en) Method for estimating the opacity level in a scene and corresponding device
US10614619B2 (en) Graphics processing systems
KR20170131246A (ko) 실제 객체 및 실제 객체의 가상 복제를 포함하는 장면의 이미지를 렌더링하기 위한 방법 및 디바이스
US10074211B2 (en) Method and device for establishing the frontier between objects of a scene in a depth map
EP3420537B1 (en) Single pass bounding volume hierarchy rasterization
KR102442488B1 (ko) 그래픽 처리 시스템 및 그래픽 프로세서
CN114758051A (zh) 一种图像渲染方法及其相关设备
EP2676245B1 (en) Method for estimation of occlusion in a virtual environment
US9390551B2 (en) Method for estimation of information representative of a pixel of a virtual object
US20140333611A1 (en) Method and device for visualizing contact(s) between objects of a virtual scene

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170111

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170328