JP2021530005A - 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 - Google Patents

現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 Download PDF

Info

Publication number
JP2021530005A
JP2021530005A JP2019521406A JP2019521406A JP2021530005A JP 2021530005 A JP2021530005 A JP 2021530005A JP 2019521406 A JP2019521406 A JP 2019521406A JP 2019521406 A JP2019521406 A JP 2019521406A JP 2021530005 A JP2021530005 A JP 2021530005A
Authority
JP
Japan
Prior art keywords
ray
projection
primary
intersection
rays
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019521406A
Other languages
English (en)
Other versions
JP7123041B2 (ja
Inventor
バカラシュ、リューヴェン
ハヴィブ、エラド
Original Assignee
アドシル リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アドシル リミテッド filed Critical アドシル リミテッド
Publication of JP2021530005A publication Critical patent/JP2021530005A/ja
Application granted granted Critical
Publication of JP7123041B2 publication Critical patent/JP7123041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本開示は、現実世界環境に混合された光線追跡拡張オブジェクトを生成する高速方法を説明する。先行技術のレイトレーシングにおける加速構造が、動的整列構造(DAS)の新しいデバイス、二次光線とシーン・ジオメトリとの間の交差を大規模な光線群で実行し、二次光線のコヒーレンス、高性能、及び低計算量を得るための手段によって置き換えられる。

Description

本発明は、計算量を低減してレイトレーシング(光線追跡)法を実行する新しく且つ改良された方法に関する。
拡張現実(AR)は、その要素がコンピュータ生成のグラフィックスによって拡張された物理的な現実世界環境のライブビューである。拡張オブジェクトに関する情報は、現実世界にオーバーレイされる。拡張は、従来はリアルタイムであって、環境的要素を伴う視覚背景である。高度なAR技術を用いて、ユーザの周囲の現実世界についての情報は、対話型であってデジタル的に操作可能である。ARはデジタルの世界の構成要素を人の知覚される現実世界に引き出すので、ユーザは、拡張オブジェクトの写実性のレベル及びそれらの現実環境との統合に依存して、拡張現実を体験し、対話する。
先行技術においては、ARで使用されるグラフィックスは従来のラスタ技術に基づいていた。しかし、ラスタグラフィックスは、品質と速度とのトレードオフに起因して、速度を支持して非常に平凡である。その視覚背景は、反射、屈折、カラーブリーディング、コースティクス、等のような写実性の必要な要素を欠く。先行技術においては、レイトレーシングコンピュータ生成のグラフィックスを使用することによって可能にさせる、高品質のコンピュータ生成のリアリズムが映画業界で見られる。
レイトレーシングは、光線を追跡し、それらの仮想オブジェクトとの遭遇の効果をシミュレートすることによって画像を生成するためのコンピュータグラフィックス技術である。レイトレーシングの背景にある考え方は、点間の可視性を解決することによって、光線の様々なタイプのジオメトリとの交差を計算するための数学的解決策を見つけることである。この技術は、高い視覚的リアリズムを生じさせることを可能にする。低価格帯のレイトレーシングにおいては、光源は、シーンにおける唯一の照明オブジェクトである。
より現実的なイメージングは、大域照明に基づく、経路追跡と呼ばれる高価格帯のレイトレーシングによって実現される。大域照明は、光源から直接来る光だけでなく、反射するか否かに関わらず、光がシーンにおいて他のサーフィスから返される後続の場合をも考慮する。
モンテカルロレイトレーシングと呼ばれる経路追跡は、可能性のある光路のサンプルをランダムに追跡することによって3Dシーンをレンダリングする。画像における任意の所与のピクセルを繰り返しサンプリングすることによって、最終的にサンプルの平均がレンダリング方程式の正しい解に収束し、それは、現存する最も物理的に正確な3Dグラフィックスレンダリング方法の1つになる。経路追跡は、現実に忠実であって、写真(例えばアバターの映画)と区別がつかない画像を生成することができる。視覚的品質は、レイトレーシングより高いが、計算コストがはるかに高い。
先行技術のレイトレーシングにおける最も時間を費やすタスクは、加速構造のトラバース、及び光線とポリゴンとの間の交差テストである。全ての単一の光線が、加速構造(例えば、Kツリー又はBVHツリー)に亘って横断し、交差する候補であるポリゴンを探索する。これらのトラバースは、時間を費やす大きいアクションになり、通常、画像生成時間の60%〜70%を必要とする。そして、検索に関連する全ての候補ポリゴンは、光線の経路に沿って最も早いヒットを決定するために、線−三角形交差テストを受ける必要がある。
先行技術のレイトレーシング法のレイアウトが図1に描写される。最初に、加速構造10が構築される必要がある。構築は、前処理ステップとしてなされ、単一の画像を生成するよりはるかに多くの時間を必要とする。一般的に、構築時間はシーンのサイズに依存する。シーンが大きいほど、構築時間は長くなる。シーンにおける全ての大きい変更が、加速構造の再構築を必要とする。メモリサイズは、通常、加速構造によって2倍になる。光線12の追跡は、各光線が光線と様々なシーンのオブジェクトとの間の交差を検索するために構造に亘って横断する場合の加速構造11の大規模なトラバースに基づく。結果として生じる交差点は、明るくされ、テクスチャ化され、陰影13を付けられ、画像ピクセルに集約される。
先行技術のレイトレーシングにおける加速構造の使用に関連する2つの大きい欠点がある。(i)それらは、シーンの変化のために繰り返し再構築される必要がある。(ii)これらの構造のトラバースは、時間を費やす。両方の不利益が、ARのリアルタイム要件と矛盾する。
従って、本発明の主な目的は、大域照明レイトレーシングの性能をリアルタイムまで加速し、それをARに適するようにすることである。
本発明の他の目的は、レイトレーシングの計算量を低減することである。
本発明の他の目的は、レイトレーシングの電力消費を低減することである。
本発明の別の目的は、消費者向け計算デバイスの処理レベルによる大域照明レイトレーシングを可能にすることである。
本発明の幾つかの実施形態は、拡張現実(AR)と仮想現実(VR)との両方に適用される。ARは、その要素がコンピュータ生成グラフィックスによって拡張される、物理的な現実世界環境のライブビューである。VRは、現実世界をシミュレートされたものに置き換える。拡張は、従来はリアルタイムであって、環境的要素を伴う視覚背景である。ユーザの体験及び対話が、AR及びVRにおけるリアリズムのレベルによって直接影響される。
先行技術においては、拡張オブジェクトのイメージングは、その高速性に起因して、従来のラスタグラフィックスによって生じる。高度なAR技術(例えば、コンピュータビジョン及びオブジェクト認識の追加)を用いて、ユーザの周囲の現実世界についての情報は、対話型になってデジタル的に操作可能になる。環境及びそのオブジェクトについての情報は、現実世界にオーバーレイされる。
しかし、通常のラスタグラフィックステクノロジは、画質及び現実世界環境との視覚背景において平凡である。所望の高品質のコンピュータ生成のリアリズムは、今日映画産業において見られることができ、大域照明レイトレーシング、すなわち経路追跡の使用によって可能にされる。残念なことに、それは非常に多い計算量のためにARには適合さず、それは長い生産時間を生じ、高価な計算ファームを要求する。
本発明は、計算量及び消費電力を低減し、消費者向け計算デバイスの処理レベルに適する、経路追跡をリアルタイムで実現する革新的な方法を教示する。本発明の態様は、選択されたオブジェクトに集中して、プリセット環境に現実的にオーバーレイされるオブジェクトの写実的な画像を生成することを可能にする。
本発明の実施形態においては、先行技術の加速構造が、新しく且つ新規なデバイス、すなわち動的整列構造(DAS)によって置き換えられる。DASは、大規模な光線群における二次光線とシーン・ジオメトリとの間の交差を実行するための手段であって、高速化及び計算量の低減をもたらす。
図2は、本発明の経路追跡の段階を示す。先行技術(図1)と比較した場合の主要な差は、加速構造がないことである。これらの構造は、DASデバイス21によって置き換えられる。再構成のための前処理はなく、また加速構造のトラバースもない。
DASは、既存のヒットポイントに関連する二次光線を搬送するために使用される光線の整列されたプロジェクションである。先行技術のように、単一のヒットポイント毎に(又は小さい一束の光線で)二次光線を個別に発する代わりに、出願人はまとめてそれを行い、コストを削減する。
類似の名称が類似の要素を表す添付の図面を参照しながら、本発明が、本明細書において非限定的な例としてのみ説明される。これらの図面は本発明の典型的な実施形態に関する情報を提供するにすぎず、従って範囲を限定すると見なされるべきではないことを理解されたい。
先行技術であって、レイトレーシングのブロック図である。 本発明のレイトレーシングのブロック図である。 先行技術であって、光線/オブジェクト交差の点において大域照明を生成する二次光線である。 DASの基本機構である。 ランダムに変化する方向に発せられた複数のDASプロジェクションである。 連続DASプロジェクションによってヒットポイントを生成する。 2つの三角形及び2つの一次HIPからなるオープニングシーンである。 HIPに向かって発せられたDAS光線の初期セグメントである。 DAS光線のメインセグメントは、HIPから発せられた二次光線を搬送する。 DASはHIPデータのみをレンダリングする。 DASはシーン・ジオメトリをレンダリングする。DAS光線の初期セグメントに沿ったオブジェクトは破棄される。 DASのフローチャートである。 単一のDASプロジェクションによって搬送される二次光線の様々な場合である。 半反射面の現実の机において立つ拡張オブジェクトである。 拡張オブジェクトの直接イメージングである。一次光線はカメラから発せられ、様々な方向に傾斜される。 拡張オブジェクトの直接イメージングである。二次光線は、遠近プロジェクションの複数のDAS発射によって生成される。 拡張オブジェクトの直接イメージングである。二次光線は、平行プロジェクションの複数のDAS発射によって生成され、より大きいデータのレンダリングを保存する。 拡張オブジェクトの直接画像を生成するフローチャートである。 拡張オブジェクトの反射イメージングである。一次光線は、反射領域に発せられ、複数回繰り返されて傾斜される。 拡張オブジェクトの反射イメージングである。DASプロジェクションによって搬送される二次光線は、一次HIPのクラスタを通してオブジェクトに発せられる。 拡張オブジェクトの反射イメージングである。複数のDASプロジェクションはランダムに傾斜される。 拡張オブジェクトの反射イメージングである。集約光エネルギーに対する二次光線の寄与は、BRDF関数に従う。 反射イメージングのフローチャートである。 その環境における一次光線の拡張オブジェクトのカラーブリーディング効果である。 その環境における二次光線の拡張オブジェクトのカラーブリーディング効果である。 カラーブリーディング効果を生成するフローチャートである。 ピクセルの原点においてサンプリングされた光値を収集する。 AR及びVRのためのハードウェアである。
本発明による装置の原理及び動作は、図面及び付随の説明を参照して理解されてもよく、異なる図面に現れる同様の構成要素は、同一の参照番号で示される。図面及び説明は、概念的なものにすぎない。実際には、単一の構成要素が、1つ以上の機能を実装することができ、或いは、各機能は、複数の構成要素及びデバイスによって実装されることができる。図面において一般的に説明及び例示される本発明の構成要素は、多種多様な異なる構成で配置及び設計されることができることが容易に理解されるであろう。この結果、図面に表されるような、本発明の装置、システム、及び方法の実施形態の以下のより詳細な説明は、主張されるように本発明の範囲を限定することが意図されるものではなく、単に本発明の実施形態を代表するものである。
特に記載されない限り、以下の考察から明らかなように、明細書の考察全体を通して、「処理」、「計算」、「算出」、「決定」、「生成」、又は「作成」、等のような用語を利用することは、コンピュータシステムのレジスタ及び/又はメモリ内の物理量、例えば電子量として表されるデータを、コンピューティングシステムのメモリ、レジスタ、又は他のこのような情報記憶デバイス、伝送デバイス若しくは表示デバイス内の物理量として同様に表される他のデータに操作及び/又は変換する、コンピュータ若しくはコンピューティングシステム、又はプロセッサ若しくは類似の電子コンピューティングデバイスのアクション及び/又はプロセスを参照することが理解される。
本発明の実施形態は、本明細書の動作を行うための、プロセッサ、コンピュータ、装置、システム、サブシステム、モジュール、ユニット、及びデバイスのような用語を(単一又は複数の形態で)使用する場合がある。これは、所望の目的のために具体的に構築されてもよく、又は、それは、コンピュータに記憶されたコンピュータプログラムによって選択的に作動又は再構成される汎用コンピュータを含んでもよい。本開示に具体的に関連する幾つかの技術用語が本明細書で画定される。
コンピュータグラフィックスパイプラインは、レイトレーシング及びレイキャスティングとは異なる、コンピュータ3Dレンダリング、3Dポリゴンレンダリングの最も一般的な形態を参照する。特に、レイキャスティングにおいては、光線が、カメラが存在する点で発生し、その光線がサーフェスに当たった場合には、光線が当たったサーフェスにおける点の色と照明が算出される。3Dポリゴンレンダリングにおいては逆のことが起こり、カメラの視野にある面積が算出され、そして、カメラの視野における全てのサーフェスの全ての部分から光線が作成され、カメラまで遡る。グラフィックスパイプラインは、通常、リアルタイムレンダリングで使用される。
プロジェクションをレンダリングすることは、3Dワイヤフレームモデルをコンピュータにおいてレンダリングする2D画像に自動的に変換する3Dコンピュータグラフィックスプロセスである。プロジェクションは、遠近、平行、逆、又は他の形状であることができる。
レンダリングターゲットは、フレームバッファ又はバックバッファの代わりに、3Dシーンを中間メモリバッファ又はレンダリングターゲットテクスチャ(RTT)にレンダリングすることを可能にする現代のグラフィックスプロセッシングユニット(GPU)の特徴である。そして、このRTTは、検索を行い、又は最終画像に効果を適用するために、ピクセルシェーダによって操作されることができる。
一次光線は、可視性を解決するために、すなわち一次光線がサーフィスと交差するか否かを見つけるために、カメラ又は眼からシーンに投射される、レイトレーシングにおける第1の世代の光線である。
レイトレーシングにおける二次光線は、それらの光線−ポリゴン交差点において一次光線から生じる。それらは、影、反射、屈折、等のようなものを計算するために使用される。本明細書においては、出願人は、第3位の光線、第4の世代、等のような、全ての連続した世代にも一括して用語を使用する。
大域照明は、3Dシーンにより現実的な照明を追加することが意味される、3Dコンピュータグラフィックスで使用される一群のアルゴリズムの総称であって、光源から直接来る光(直接照明)だけでなく、同じ光源からの光線が、反射性か否かに関わらず、シーンにおける他のサーフェスによって反射される後続の場合(間接照明)をも考慮する。
コンピュータグラフィックスにおけるカラーブリーディングは、近くのサーフィスからの間接光の反射によってオブジェクト又はサーフィスが着色される現象である。これは、シーンが完全な大域照明でレンダリングされた場合に現れる可視性の効果である。
グリッド、オクトツリー、バイナリ空間分割ツリー(BSPツリー)、kdツリー、BVH(バウンディングボリュームヒエラルキー)のような高速構造は、可視性を解決するためにレイトレーシングにおいて使用され、加速構造を有しない単純なレイトレーシングと比較して、速度及び効率においてレンダリング時間の改善を可能にする。
GPGPU(グラフィックスプロセッシングユニットにおける汎用コンピューティング)は、中央処理装置(CPU)によって伝統的に扱われる用途において計算を行うために、コンピュータグラフィックスのみのための計算を、通常、扱う、グラフィックスプロセッシングユニット(GPU)の使用である。
ARにおけるプリセットシーンは、リアルタイムの世界を置き換える。拡張オブジェクトを含むための前処理された環境シーンである。
オブジェクトは、プリミティブ(ポリゴン、三角形、ソリッド、等)、又はプリミティブからなる複雑なオブジェクトを表すことができる。
ヒットポイントは、光線がオブジェクトと交差する点である。HIPとも呼ばれる。
可視性−ユークリッド空間において一連の障害物が与えられる場合に、その空間における2つの点は、それらを結ぶ線分が任意の障害物と交差しない場合に互いに対して可視性であると言われる。
シーン−カメラが配置されてもよい世界空間における3Dモデル及び光源の集まりであって、3Dレンダリングのためのシーンを説明する。シーンモデルの要素は、ジオメトリックプリミティブ、つまり点又は頂点、線分又は稜線、ポリゴン又は面を含む。
クリッピングは、コンピュータグラフィックスの文脈においては、画定された関心領域内でレンダリング動作を選択的に有効又は無効にする方法である。
本明細書に提示されたプロセス/デバイス及びディスプレイは、他に具体的に記載されない限り、任意の特定のコンピュータ又は他の装置に本質的に関連しない。様々な汎用システムが、本明細書の教示によるプログラムと共に使用されてもよく、又は、それは、所望の方法を行うためのより専門的な装置を構築することが便利であることを証明してもよい。様々なこれらのシステムのための所望の構造は、以下の説明において現れるであろう。加えて、本発明の実施形態は、任意の特定のプログラミング言語を参照して説明されない。様々なプログラミング言語が、本明細書に説明されるような本発明の教示を実装するために使用されてもよいことが理解されるであろう。
先行技術から転用して、本発明の態様は、計算量の低減と高速化との両方においてレイトレーシングを実装する方法を教示する。本発明の一態様は、大域照明に基づく高品質のレイトレーシングである、経路追跡に関する。その優れた性能は、光線とシーンオブジェクトとの間の交差を解決するための異なる技術的アプローチに由来する。それは、既存のヒットポイントから放出される二次光線を搬送するために使用される平行光線のプロジェクションである動的整列構造(DAS)に基づく。DAS機構は、GPU(グラフィックスプロセッシングユニット)グラフィックスパイプライン又はCPU(中央処理装置)の何れかによって実装されることができる。機構は、先行技術における加速構造の高価なトラバースを置き換えて、従来のグラフィックス機構を使用することによって光線−三角形交差を解決することができる。
DAS機構 一実施形態においては、DAS機構は、大域照明に基づく経路追跡に適用される。大域照明(又は間接照明)は、光源から直接来る光だけでなく、鏡面反射、拡散反射、又は半反射性に関わらず、シーンにおけるサーフィスによって反射される光をも考慮する。図3は、所与のサーフィス点における周囲環境からの拡散相互反射のサンプリングを描写する。拡散サーフィスにおいて大域照明を達成するために、サンプリング光線は、ヒットポイント(HIP)33から発せられる必要がある。HIPは、光線(一次又はニ次)と三角形との間の先の遭遇の結果である。サンプリングは、半球31の境界内でランダムな方向に光線を発することによってなされる。半球は、その北極がサーフィスの法線と整列するように配向される。
DASの基本的機構が図4に示され、DASが遠近プロジェクションと関連することが示されるが、平行又は逆のような他のプロジェクションが同様に考えられる。DAS構造は、HIPのクラスタ、例えば、403、405、408を通過し、オブジェクトをターゲットにする光線のプロジェクションを含む。HIPに入射するDAS光線は、二次光線のための搬送波として使用される。例えば、HIP408に付随的に入射するDAS光線は、二次光線406を搬送する。この光線は、HIPの半球407内にある。HIP又は三角形に入射するDAS光線は、開始点400からなり、2つの交差点を有してもよく、第1はHIP408を有し、第2はシーンオブジェクト(三角形)409を有する。同じHIP408に関連する追加の二次光線が、追加のDAS構造によって独立して生成されることができ、同じ半球内で他の方向に追加の二次光線を搬送する。
本発明の一実施形態によれば、DASプロジェクションは、CPUソフトウェアグラフィックスパイプラインによって実装されることができるが、最も効率的なデバイスは、GPUハードウェアグラフィックスパイプラインである。この周知技術のコンピュータグラフィックスパイプラインは、3Dモデルをコンピュータが表示するものに変えるプロセスである。グラフィックスパイプラインは、2つのサブシステム、ジオメトリ及びラスタライズからなる。最初に、カメラ視野に従って、DAS錐台内の全てのオブジェクトが、ジオメトリサブシステムによって変換される。そして、ラスタサブシステムにおいて、光線/三角形交差点が、Zバッファリング機構によって選択される。例えば、図4におけるDAS光線402は、プロジェクションの原点400から発せられ、2つのオブジェクト、408及び409と交差する。これら2つのオブジェクトのいずれが選択されるかは、Zバッファリングを制御するAPIディレクティブ(Direct3D又はOpenGL)に依存する。
それらの下にある三角形を有する3つの既存のHIP405、408、及び403の例示的なクラスタが示される。HIP405、408の二次光線は、DAS構造によって推進される。例として、搬送波光線402は、HIP408に入射する。HIPとの遭遇から以降は、それは、HIPに関連する二次光線406となり、交差409を探索する。DASは、405及び408のようにそれらの半球がプロジェクションの方向に配向されるHIPにのみ関連するが、403には関連しない。DAS法は、数学的に以下のように表現される。
Tを、dレベルのツリーグラフとし、Vを、空間におけるジオメトリGの上部のその頂点とする。
レベルdにおけるV内の頂点であるVを画定する。
を、Vのクラスタへの分割とする。
d+1を見つけることによって、Tをd+1レベルに広げる。
dcの頂点を有するクラスタc∈Cを選択し、Vd+1cがGの上部のVdcにおける頂点のプロジェクションであるように、VdcからVd+1cへの一連のマッピングであるLを画定する。
Figure 2021530005

・Lは同じ入力からの一連のマッピングのセットであるので、任意の入力頂点のための複数のターゲット頂点が存在することに留意すべきである。
全ての頂点v∈Vdcを、
Figure 2021530005

における全ての可能なジオメトリg∈Gに投影する代わりに、
Figure 2021530005

における全てのクラスタc∈Cに全ての可能なジオメトリg∈Gを投影する。
・Rにおいては、高速マッピング(プロジェクション)を並行して達成するために、従来の3Dグラフィックスパイプライン(ラスタハードウェア)を利用することができる。
スループット/オーバーフィットにおけるC/Lを最適化して、
・クラスタ当たりの平均の最大頂点数(スループット)
・全ての頂点にフィットする(オーバーフィットする)ジオメトリの最小(離散)プロジェクション数
・前処理/実行時間制約
を有する。
は、物理的シナリオをシミュレートするために各v∈Vdcのための可能な分布セグメントを表す擬似ランダム出力を有するように選択される。
複数のDASプロジェクションが、僅かに異なる方向でシーン又はその一部に発せられ、各方向は、ランダムに取られることができる。結果として、大域照明のために、近隣の複数のサンプルが、各HIPにおいて取られることができる。これが図5において例示される。HIP507は、画像ピクセル500から発せられた、一次光線508によって作成された一次ヒットポイントである。3つの後続のDASプロジェクション−501、502、及び503が、HIP507を訪れる。各DASは、HIP507のために1つの二次光線を搬送する。3つの二次光線の各々は、環境から、すなわちサーフィス504、505、及び506からそれぞれ異なるサンプルを実現する。
連続DASプロジェクションによって生成されるHIPを利用するための様々な方法があってもよい。図6に示される一実施形態によれば、全ての新しく生成されたHIPがそれらのデータに寄与する。この例においては、4つの連続DASプロジェクションが使用される。601が、画像ピクセル600からの一次発射によって以前に生成された一次HIPであると仮定すると、その第1の後続HIP602は、第1のDASプロジェクションの生産物である。異なる方向を有する第2のDASプロジェクションは、HIPチャイルド603及び604を生成する。第3のDASプロジェクションは、HIP605、606、及び607を生成する。そして、第4のDASプロジェクションの結果として、1つのチャイルドHIP608が生成される。全てのHIPからの光サンプリングは平均化され、画像ピクセル600のためのレンダリング方程式の正しい解に収束される必要があり、例えば、608及び605は603に収束し、603は602に収束し、602は次に601に収束する。最後に、一次HIP601は、その全てのチャイルド602、604、及び607の集約サンプル値を収束し、結果が、ピクセル600に、他の一次HIPのうちのピクセルへの部分的寄与として入る。全ての収束のための正しいレンダリング方程式が、最終的には物理的に正確な画像を生成する。
二次光線は、図7a〜図7cに示されるように、シーンオブジェクトと交差することが意味される。図7aは、2つの三角形711、712、及び2つの一次HIP713、714からなる初期シーンを示す。図7bにおいては、DASプロジェクション721がHIPに向かって発せられる。HIP714は反対方向を向くので、それは現在のDASから除外される。プロジェクションと確実に整列したHIP713は二次光線を起動させる。更に図7cに示されるように、HIP713に関連する搬送波光線は、2つの部分、初期セグメント731及びメインセグメント732に分割される。初期セグメント731は、DAS原点からHIP713に延伸する。その機能は、HIP及びその深度を特定することである。深度ZHIPが見つかると、HIPから交差点733に向かうメインセグメントは、交差を検索する、二次光線のための搬送波の役割を果たす。それは、二次HIPを生成する、733においてオブジェクトに当たる。
本発明の一実施形態によれば、DASプロジェクションは、図8a及び図8bに例示されるように、GPUのZバッファリング機構を利用する。Zバッファリング機構は、常時HIPの前のオブジェクトを破棄する必要があり、HIP以降からのみオブジェクトの探索を開始する。それは、GPUのZバッファリング機構、例えば、OpenGLのグラフィックスライブラリの関数glDepthMaskの選択的使用に基づく。これは、2つの別個のレンダリングパスにおいてなされる。第1のパスにおいては、HIPは、シーンにおける唯一のオブジェクトとしてレンダリングされ、ジオメトリックデータを無視し、HIPデプスマスク(HIP depth mask)を生成する。第2のパスにおいては、HIPデプスマスクが、シーン・ジオメトリをレンダリングするために使用される。第1のパスは、図8aに示される。HIP811とオーバーレイする搬送波光線812は、2つのセグメントに分割され、2つのパスにおいて処理される。第1のパスの間にレンダリングされた初期セグメントは、カメラ813からHIPまで延伸する。HIPの深度値ZHIPは、HIPデプスマスク810に登録される。深度値は、後の使用のために、第2のパスの間に、HIPへの途中の全てのオブジェクトを除外するために保持される。第2のパス(図8b)においては、ジオメトリックデータは、深度ZHIP(811)において開始してレンダリングされ、例えば、三角形825は無視される。メインセグメント、二次光線の搬送波は、823において三角形に当たる。第2のパスの結果は、レンダリングターゲット820に記憶される。HIPを逃す光線は完全に破棄され、全体として初期セグメントと見なされる。レンダリングターゲットが完成すると、DAS搬送波光線のu、v座標においてレンダリングターゲットを検査することによって、正確な光線/三角形交差点823が見つけられる。交差の三角形は、色、光、法線、材料、等のような重要なデータを実現する。
図8cにおけるDASのフローチャートは、DAS機構を生成して使用する方法を要約する。DASプロジェクションは、HIPのための二次光線を生成するために、オブジェクト(例えば、拡張オブジェクト)又はサブシーンをターゲットにし、HIPのクラスタを通過する。DASは2回発せられる。1回目は、HIPデータのみに発せられ、シーンのジオメトリックデータを無視し、HIPデプスマスクを生成する(831)。2回目は、同一のDASプロジェクションが発せられる(832)。この回は、シーンのジオメトリデータがレンダリングされ、HIPデータを無視する。デプスマスク810は、二次光線の開始点に用いられる。二次光線は、DASプロジェクションにおいて推進し、ジオメトリックデータとの交差を探索する。レンダリング結果、レンダリングターゲット、3Dサブシーンの2Dプロジェクションは、基本的に、二次光線とシーンのジオメトリックデータとの間の全ての交差点における集合である。特定のHIPに直接関連する交差点が、HIPの座標u、vと一致する、レンダリングターゲットにおける座標u’、v’を検索することによって見つけられることができる。交差点における色値及び光値が、HIPにフィードバックされ、大域照明のサンプルを実現する(833)。最後に、交差点は、次世代のHIPとしてHIPリポジトリに記憶される(834)。
二次光線の様々な場合が図9に示され、全てが単一のDASプロジェクションによって搬送される。光線900は、2つのセグメントからなる。カメラ909からHIP903まで延伸する初期セグメントは、三角形906を破棄し、一方、メインセグメントは、交差点905において三角形907に遭遇する。光線902の二次セグメントはオブジェクトに当たらない。光線901は、一次HIPに遭遇せず、従って、それは、その全体において初期セグメントと見なされ、三角形908を無視する。
本発明のDAS機構は、他の分野の中で、ARにおいて実装可能である。その実施形態のうちの1つは、シーンにおける1つ以上のオブジェクトのレンダリング、及び拡張オブジェクトと現実環境との間の完全な統合に焦点を合わせた、局所経路追跡を可能にする。図10は、半反射面107の現実の机に立つ拡張オブジェクト、仏像101の例を示す。像の写実的な外観を生成するために必要とされるものは、オブジェクト101の画像だけではなく、その反射102でもある。拡張オブジェクトがその現実環境に及ぼす場合がある影響は、プリセット環境を変更する反射、影、及びカラーブリーディングをもたらす。一方、拡張オブジェクトにおける環境の影響は、オブジェクト自体の照明及び反射をもたらす場合がある。
本発明の一実施形態によれば、オブジェクトの画像及び環境内のオブジェクトの反射が、2つの別個のタスクによって生成され、統合された結果が、画像ピクセルに供給される。
拡張オブジェクトの直接イメージング 拡張オブジェクトの基本的画像は、オブジェクトのサーフィスを覆うまさに一次HIPから再構築されることができる。しかし、オブジェクトにおいて反射された環境のような画像における大域照明効果のために、オブジェクトからその環境に発せられる二次光線が要求される。拡張オブジェクト110のレンダリングタスクが、図11に示される。簡単にするために、それは2D図面において説明される。カメラ113は、拡張オブジェクトに一次光線114を発し、オブジェクトとの交差を探索する。これらの交差点がHIPになり、大域照明のための二次光線の開始点として使用されることが意味される。
一次光線の発射は、各々が僅かな方向の変化を伴って繰り返されて、画像ピクセルにおけるマルチサンプリングが達成される。方向の変化は、画像における不要なパターンを防ぐためにランダムになされる。マルチサンプリングは、アンチエイリアス処理された画像品質に貢献する。図11においては、3つの一次発射115、116、及び117が示される。
シーンにおける拡張オブジェクトの忠実で統合された外観が、大域照明によって達成される。大域照明に関連する環境は、一次HIPからシーンの関連部分に向けて発せられた二次光線によってサンプリングされる。オブジェクトが反射性の場合には、シーンの関連する部分は、オブジェクトにおける反射によるカメラからの可視性の部分である。
例えば、このような関連する部分は、オブジェクトにおけるその反射がカメラ127から見られることができるので、図12aのサブシーン123になることができる。
二次光線は、図12aのような遠近プロジェクション又は図12bのような平行プロジェクションの何れかのDAS構造によって生成される。図12aにおいては、DASプロジェクションは、一次HIP(例えば128)を通過し、サブシーン123をターゲットにする。
全ての連続DASプロジェクションは同じサブシーン123をターゲットにするので、このサブシーンはフルシーンから切り出されることができ、低減された領域内でのレンダリング動作を選択的に可能にし、この結果、レンダリングプロセスを最小限にする。
複数のDASプロジェクションの各々は、僅かに異なる視点から異なる方向にランダムに生成され、各HIPにおいて複数の二次光線を生成する。ランダム性の使用が、画像における不要なパターンの出現を防ぐ。二次光線は、HIPのための大域照明をサンプリングし(図3、31)、オブジェクトと環境との間を統合する。サンプリングされた照明は、オブジェクトの材料及びその鏡面性又は拡散性のレベルに応じて画像に影響を与え、例えば、オブジェクトが反射性又は部分的に反射性の場合には、オブジェクトにおける環境の反射又はまさに背景照明量をもたらし、拡散性の場合には、環境に対するオブジェクトの反応を作成する。
DASのプロジェクションの数が多いほど、大域照明のカバーが向上する。しかし、プロジェクションの数が多くすると、性能が低下する場合がある。従って、画質と性能との間にはトレードオフがある。
拡張オブジェクトの直接画像を生成する方法が、図12cのフローチャートに要約される。最初に、複数の一次プロジェクションが、一次HIPのクラスタを生成するために、拡張オブジェクトにカメラ(目、視点)から発せられる(1231)。そして、二次光線によってターゲットにされるシーンの部分が画定されるべきであり、場合によりサブシーンとして切り取られるべきであり(1232)、DASプロジェクションのための基準点が選択されたサブシーンに従って設定される必要がある(1236)。そして、複数のDASプロジェクションによって生成された二次光線が関連するサブシーンに発せられる(1233)。DASプロジェクションの結果は、決定されたサブシーンのレンダリングターゲットテクスチャである。二次光線と決定されたサブシーンとの間の交差点のための探索は、関連する一次ヒットポイント及びレンダリングターゲットテクスチャの座標を一致させることによってなされる(1237)。
各一次HIPに、その二次光線と遭遇する三角形との間の対応する交差点の光値が供給される(1234)。上記の手順は、複数のサブシーンが必要とされる場合に繰り返すことができる。そして、最後に、交差点が新世代のHIPとしてHIPリポジトリに追加される(1235)。全ての一次ヒットポイントから集約された、色値及び光値の処理されたサンプルが、画像のピクセルに収束され、3次元シーンの影響を受ける拡張オブジェクトのフル画像を作成する。
拡張オブジェクトの反射 環境アイテムにおけるオブジェクトの画像の反射は、カメラからシーンにおけるサーフィスに光線を辿り、そして、拡張オブジェクトに向かって跳ね返ることによって達成される。光沢のあるサーフィス又はタイルにおける反射は、3Dレンダリングの写実的な効果を高める。反射の程度は、サーフィスの反射率(材料のBRDF)に依存する。
最初に、拡張オブジェクトを反射する場合がある現実のシーンにおける反射面又は半反射面(若しくはアイテム)が識別される必要がある。そして、出願人は、オブジェクトが反射されることが意図されるサーフィス又はその一部に一次光線を発し、一次HIPを生成する。これらのHIPから、出願人は、拡張オブジェクトをターゲットにしてサンプリングする二次光線を発する。反射を生成するこの方法は、図13a及び図13bに例示される。意図された反射領域をカバーする一次HIPは、カメラ133から画像スクリーン130を通って反射領域134に向かって発せられる一次光線によって作成される。サーフィス132における反射領域134の位置及び境界は、カメラの位置、拡張オブジェクト110の距離及びサイズ、並びにスネルの法則による主方向131の考慮に従って決定される。画像ピクセルにおけるマルチサンプリングのために、一次発射が複数回繰り返される。画像の各ピクセルが複数のサンプルを得るように、各連続回、一次プロジェクションは主方向からランダムに僅かに外れる。反射領域134のサーフィスは、高密度の一次HIPのアレイによって覆われるようになる。マルチサンプリングのランダム性は、結果として生じる画像における不要なパターンを防ぐ。
図13bは、二次光線による反射画像の生成を説明する。サーフィス132における拡張オブジェクト110の反射は、オブジェクトに二次光線を発することによって集められた一次HIPにおけるサンプリングされたデータから再構成される。出願人は、サーフィス132におけるカメラ133の反射であるジオメトリック点136を、複数のDASプロジェクションのための基準点として使用する。各プロジェクションは、基準点136からランダムに外れる異なる点から発せられる。
図13bに示されるDAS135は、拡張オブジェクト110の中心を向いている軸線139に沿って向けられた基準点136から始まる。DASは、全てが一次HIP(例えば137)において開始して拡張オブジェクトをターゲットにする、二次光線138を搬送する。
HIPにおいてBRDF関数のスペクトルサンプリングを行うために、複数のDASプロジェクションは、基準DASプロジェクション(基準点において開始し、拡張オブジェクトの中心に向けられたプロジェクションの軸線を有するもの)からランダムに外れる。基準DASからの傾斜は、図14aに示されるように、ランダムになされて基準点142及び中心軸線145から僅かにはずれる。3つのDASプロジェクションが示される。
基準DASが正確に基準点142において始まり、その軸線145が中心方向を取ると仮定すると、2つの他のDASプロジェクションは近くの点141及び143において開始し、それらの軸線144及び146は中心方向145から外れる。例として、出願人は、HIP140を選択し、それから3つのニ次光線144、145、及び146が発せられ、各々が異なるDASによって搬送される。
基準DASからのDAS二次光線の外れと、その集約された光エネルギーへの寄与との間の関係が図14bに示される。それは、サーフィスの材料132のBRDF関数147と強く関連する。3つの二次光線144、145、及び146の各々は、異なる方向に同じHIPから発せられ、図3の半球によって境界が定められる。結果として、そのサンプリングされたデータは、BRDF関数に従って、集約された光エネルギーに寄与する。二次光線145が正確なスネル方向に進むと仮定すると、そして、それがBRDF関数147のピークにおいて最大の寄与をもたらす。二次光線144及び145は、ピークからの距離におけるBRDF値に依存して、より小さい寄与を有する。
拡張オブジェクトの反射画像を生成する方法が、図14cのフローチャートに要約される。最初に、拡張オブジェクトが反射するべきである現実のシーンにおける領域が決定される(1431)。そして、複数の一次プロジェクションが反射領域にカメラから発せられ、一次HIPのクラスタを生成する(1432)。次に、DASプロジェクションのための基準点としての反射されたカメラの位置、及び拡張オブジェクトに向けられた中心軸線が、算出される必要がある(1433)。そして、DASによって生成される二次光線はオブジェクトに向かって発せられる。複数のDASプロジェクションはランダムに傾斜され、基準DASから外れる(1434)。次に、交差点においてサンプリングされた光値は、それらのそれぞれのHIPの原点に供給される(1435)。最後に、交差点が新世代のHIPとしてHIPリポジトリに追加される(1436)。これらのHIPは、更なる世代の二次光線を生じさせるために役立つことができる。
カラーブリーディングは、近くのサーフィスからの間接光の反射によってオブジェクト又はサーフィスが着色される現象である。あるサーフィスに到達する照明が光源からまさに直接来るだけでなく、光を反射する他のサーフィスからも来るという意味で、これは大域照明アルゴリズムである。カラーブリーディングは、視点に依存せず、全ての視点のために有用である。AR又はVRにおけるカラーブリーディング効果は、拡張オブジェクトの直ぐ近くで生じる。本発明の一実施形態によるブリーディング効果を生成する例が図15aに例示される。基板152において立つ、拡張オブジェクト154は、現実の基板152においてカラーブリーディング効果を作成することになる。最初に、出願人は、カラーブリーディングが出現する拡張オブジェクトの中心の周りにカラーブリーディングパッチの境界を画定する。パッチのサイズは、関係する材料、距離、及び光量に依存する。そして、出願人は、拡張オブジェクトの不存在の状態で、パッチ155にカメラ153から一次光線を発する。パッチをカバーする一次HIPのクラスタが作成される。一次発射は、各回、主方向151から僅かに外れて、複数回繰り返される。主方向156は、カメラからオブジェクトの立ち位置の中心に向かう。
図15bは二次光線の使用を例示する。カラーブリーディング効果は、一次HIPからオブジェクトに向かって発せられる二次光線によってオブジェクトをサンプリングすることによって再構築される。二次光線は、DASプロジェクションによって生成される。DASプロジェクションは、拡張オブジェクトの反射又は直接イメージングの場合とは異なり、逆プロジェクション156の形状を得る。各回、主方向から僅かに外れて、複数のDASプロジェクションがなされる。正しいレンダリング方程式が使用されることを仮定すると、オブジェクトのサーフィスのサンプルが、基板から取得され、基板におけるエネルギー量の算出を可能にする。
カラーブリーディングを生成する方法が、図15cのフローチャートに要約される。最初に、シーンにおけるカラーブリードパッチの位置及びサイズが画定される(1531)。そして、複数の一次プロジェクションが、一次HIPのクラスタを生成するために、カラーブリーディングパッチにカメラから発せられる(1532)。次に、DASプロジェクションの中心における基準点が算出され(1533)、同様に、逆プロジェクションの要求される形状が算出される(1534)。そして、二次光線が、各々がDASプロジェクションの中心からランダムに外れる複数のDASプロジェクションによって発さられ(1535)、交差点の光値が、一次HIPに供給される(1536)。カラーブリーディングにおいては、これが唯一の世代のHIPである。
光値の収集 HIPにおける全てのサンプルの値は、物理的に正確な結果のための正しいレンダリング方程式によって処理される必要がある。考慮されるパラメータは、サーフェスの材料、シーンのジオメトリ、半球のアクティブ領域、及びその他である。特定の画像ピクセルのために、ピクセルからの一次発射によって生成された全てのHIP、及びそれらの全ての二次後続要素の光の寄与は、画像のためのソースピクセルに集約され、処理され、収束される必要がある。図16に示されるように、オブジェクトからの及びその環境からのサンプリングは、画像ピクセル164に収束される。ピクセルは、拡張オブジェクトからのサーフィスにおける一次HIP165から入力を受け取り、次にその連続した世代から値を収集する。ピクセルは、その上、反射HIP161及びその連続世代から入力を受け取る。165及び161の処理結果は重み付けされ、そして画像ピクセル164に集められる。
実装 本発明の核心はDAS機構である。経路追跡において実装される場合に、それは二次光線を生成し、それらのシーンオブジェクトとの交差を位置付けるが、先行技術の加速構造の使用を除外する。従来のラスタグラフィックスパイプラインに基づくDAS機構は、GPUハードウェアパイプライン又はCPUソフトウェアパイプラインの何れかによって実装可能である。GPUの並列構造によって、汎用CPUよりグラフィックスパイプラインが効率的である。GPUは、グラフィックスパイプラインを加速するように設計された特殊用途の電子回路である。CPUがシーケンシャルシリアル処理に焦点を合わせた少数のコアで構成される場合に、GPUは、マルチタスク用に設計された何千もの小さいコアを搭載する。グラフィックスプロセッサには、主に統合型とディスクリートの2種類がある。DASは、システムにおける別個の構成要素(ディスクリートGPU)又はCPUダイにおける組み込みGPU(統合型GPU)の何れかによって利用されることができる。統合型GPUは、組み込みシステム、携帯電話、パーソナルコンピュータ、ワークステーション、及びゲーム機において使用される。
上記で詳細に説明されたように、プリセットシーン内で拡張オブジェクト及びそれらの視覚背景を作成するコンピューティングタスクは、大部分がグラフィックスパイプラインに基づく。これらのタスクのために、GPUの使用は大きい利点である。大域照明のサンプリング値を収集し、これらの値をレンダリング方程式に従って処理し、その結果を画像ピクセルに収束させるという追加のタスクがまたある。従来の処理と関連する収集タスクは、CPU又はGPGPUの何れかによって実装されることができる。図17に示されるように、ユーザの視覚装置171に関連する追加のタスクがまたある。拡張現実のために、それらは、着用者が見るものと並行して又は見るものに情報を追加するウェアラブルコンピュータメガネである。通常、これは、光学ヘッドマウントディスプレイ(OHMD)又は透明ヘッドアップディスプレイ(HUD)若しくは投影されたデジタル画像を反射する機能を有するARオーバーレイを有する組み込み型無線眼鏡を介して達成され、それを通してユーザが見ることを可能にする。仮想現実のために、視覚装置171は、着用者のために仮想現実を提供する仮想現実ヘッドセットを表すことができる。VRヘッドセットは、コンピュータゲームで広く使用されるが、それらはまた、シミュレータ及びトレーナーを含む他の用途で使用される。それらは、立体的なヘッドマウントディスプレイ(各目に別々の画像を提供する)、ステレオサウンド、及びヘッドモーショントラッキングセンサを備える。いずれにしても、構成要素171は、通常、CPUによって実装されるAPIソフトウェアによってコンピューティングプラットフォームにインターフェースで接続される必要がある。
その結果、本発明の実施形態は、図17に一般的に示されるように、CPUとGPUとの組み合わせ実装を要求する。GPUは、ディスクリートグラフィックス、統合型グラフィックス、又は両方の組み合わせ(ディスクリートグラフィックスと協力する統合型グラフィックス)を表してもよい。
統合型グラフィックスは、GPUがCPUダイに統合され、プロセッサとメモリを共有することを意味する。統合型GPUはシステムRAMに依存するので、それらは、それらのディスクリート対応部品の計算能力を有せず、それらは、それら独自のカードに含まれ、それら独自のメモリ、VRAMを搭載する。統合型GPUは、VRAMとCPUコアとの間のディスクリートグラフィックスカードと比較して、システムRAMからのより低いメモリ帯域幅を有する。この帯域幅は、メモリバスと呼ばれるものであって、性能を制限する可能性がある。また、GPUは極めてメモリを消費するので、統合型プロセッシングは、最小限度のビデオメモリを有し、又は専用のビデオメモリを有さないので、相対的に遅いシステムRAMのためにCPUと競合する場合がある。最高のグラフィックス性能を可能にするためには、ディスクリートグラフィックスチップが、統合型GPUより優れる。
一方で、マルチコアチップにおけるグラフィックススコアは、ビッグデータを交換するためにCPUコアと良好に協働することができるので、同じRAMメモリを共有することがまた利益になることができる。イメージングオブジェクト、反射、カラーブリーディングの純粋なグラフィックスタスクは、CPUコアによるレンダリング方程式のために収集及び算出される必要がある、光値のビッグデータを生じさせる。
しかし、ディスクリートGPUの性能上の利点にもかかわらず、そのより良好な電力効率、手頃な価格、可搬性、及び汎用性のために、拡張現実、仮想現実、及びコンピュータゲームのような用途における本発明の実装のために統合型GPUを使用することが望ましい。マルチコアCPUチップの構成要素としての統合型GPUは、組み込みシステム、携帯電話、タブレット、及びゲーム機において使用される。
ディスクリートGPU又は統合型GPUを使用することに加えて、また、タスクに依存して、協働し且つ交互に行うディスクリートGPU及び統合型GPUを有するハイブリッドシステムを使用する代替手段がある。

Claims (93)

  1. レイトレーシングのためのグラフィックスパイプライン機構を利用して、3次元シーンにおいて拡張オブジェクトを作成するための方法であって、
    a)前記拡張オブジェクトに一次レンダリングプロジェクションを発し、一次ヒットポイントのクラスタを生成するステップと、
    b)二次光線によってターゲットにされるサブシーン空間を決定するステップと、
    c)二次レンダリングプロジェクションのための基準点を設定するステップと、
    d)各回の場合に、
    1)前記基準点の近傍から前記一次ヒットポイントのクラスタを通して二次レンダリングプロジェクションを発し、前記決定されたサブシーンのレンダリングターゲットテクスチャを生成し、
    2)前記二次光線の前記サブシーンとの交差点を探索し、
    3)次世代の二次光線のために前記交差点を保存し、
    4)前記交差点において光値をサンプリングし、
    5)前記一次ヒットポイントに前記サンプリングされた値をフィードバックする
    ことを複数回繰り返すステップであって、各回において、前記二次レンダリングプロジェクションを傾斜させる、ステップと、
    e)前記一次ヒットポイントにおいて集約値を処理するステップと、
    f)前記処理結果を画像ピクセルに収束させるステップと
    を含む方法。
  2. 前記一次レンダリングプロジェクションは、前記グラフィックスパイプラインによってなされる、請求項1に記載の方法。
  3. 少なくとも1つのサブシーンが、前記3次元シーンの一部として選択される、請求項1に記載の方法。
  4. 各サブシーンが、別個の一連の二次光線によってターゲットにされる、請求項3に記載の方法。
  5. 異なる基準点が、各サブシーンのために設定される、請求項3に記載の方法。
  6. 前記二次レンダリングプロジェクションのシフトはランダムになされる、請求項1に記載の方法。
  7. 前記二次レンダリングプロジェクションは遠近形状である、請求項1に記載の方法。
  8. 前記二次レンダリングプロジェクションは平行形状である、請求項1に記載の方法。
  9. 前記二次レンダリングプロジェクションの結果は、前記決定されたサブシーンのレンダリングターゲットテクスチャである、請求項1に記載の方法。
  10. 前記二次光線と前記決定されたサブシーンとの間の交差の探索が、前記一次ヒットポイントと前記レンダリングターゲットテクスチャとの座標を一致させることによってなされる、請求項1に記載の方法。
  11. 前記保存された二次光線の交差点は、前記次世代の二次光線のための一次ヒットポイントのクラスタとして機能することができる、請求項1に記載の方法。
  12. 全ての前記一次ヒットポイントから集約された前記処理された色値及び光値のサンプルは前記画像ピクセルに収束され、前記3次元シーンの影響を受ける前記拡張オブジェクトのフル画像を作成する、請求項1に記載の方法。
  13. グラフィックスパイプラインを利用して、3次元シーンにおける拡張オブジェクトをレイトレーシングするためのシステムであって、前記システムは、
    メモリを有する少なくとも1つのグラフィックスプロセッサと、
    メモリを有する少なくとも1つの汎用プロセッサと、
    前記3次元シーンのジオメトリックデータベースと、
    レンダリングターゲットメモリと
    を備え、実行時に、
    a)グラフィックスプロセッサは、拡張オブジェクトに一次レンダリングプロジェクションを発し、一次ヒットポイントのクラスタを生成し、
    b)サブシーン空間が、二次光線によってターゲットにされるように決定され、
    c)二次レンダリングプロジェクションのための基準点が設定され、
    d)二次レンダリングプロジェクションは、各回において傾斜して、複数回繰り返され、各回の場合に、
    1)二次光線が、前記二次レンダリングプロジェクションを利用して生成され、前記二次レンダリングプロジェクションは、前記一次ヒットポイントのクラスタを通して前記基準点の近傍から発せられ、前記サブシーンのレンダリングターゲットテクスチャを生成し、
    2)前記二次光線の前記サブシーンとの交差点が探索され、
    3)前記交差点は、次世代の二次光線のために保存され、
    4)光値が、前記交差点においてサンプリングされ、
    5)前記サンプリングされた光値は、前記一次ヒットポイントにフィードバックされ、
    e)前記サンプリングされた光値は、前記一次ヒットポイントのために集約されて処理され、
    f)前記サンプリングされた光値の処理結果は、画像ピクセルに収束される
    システム。
  14. 前記一次レンダリングプロジェクションは、前記グラフィックスパイプラインによってなされる、請求項13に記載のシステム。
  15. 少なくとも1つのサブシーンは、前記3次元シーンの一部として選択される、請求項13に記載のシステム。
  16. 各サブシーンは、別個の一連の二次光線によってターゲットにされる、請求項15に記載のシステム。
  17. 異なる基準点が、各サブセットのために設定される、請求項15のシステム。
  18. 前記二次レンダリングプロジェクションは傾斜される、請求項13に記載のシステム。
  19. 前記二次レンダリングプロジェクションは遠近形状である、請求項13に記載のシステム。
  20. 前記二次レンダリングプロジェクションは平行形状である、請求項13に記載のシステム。
  21. 前記二次レンダリングプロジェクションの結果は、前記サブシーンのレンダリングターゲットテクスチャである、請求項13に記載のシステム。
  22. 前記二次光線と前記決定されたサブシーンとの間の交差の探索が、前記一次ヒットポイントと前記レンダリングターゲットテクスチャとの座標を一致させることによってなされる、請求項13に記載のシステム。
  23. 前記保存された二次光線の交差点は、前記次世代の二次光線のためのヒットポイントのクラスタとして機能することができる、請求項13に記載のシステム。
  24. 全ての前記一次ヒットポイントから集約された前記処理された光値のサンプルは、前記3次元シーンの影響を受ける前記拡張オブジェクトのフル画像の一部として、前記画像ピクセルに収束される、請求項13に記載のシステム。
  25. 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有するディスクリートGPUである、請求項13に記載のシステム。
  26. 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する統合型GPUである、請求項13に記載のシステム。
  27. 前記グラフィックスプロセッサは、少なくとも1つの統合型GPUと少なくとも1つのディスクリートGPUとのハイブリッドグラフィックスシステムであって、全てがハードウェアグラフィックスパイプラインを有する、請求項13に記載のシステム。
  28. 前記汎用プロセッサは、複数のプロセッシングコアを有するマルチコアCPUである、請求項13に記載のシステム。
  29. グラフィックスパイプラインを利用して、3次元シーンのレイトレーシングにおける二次光線とオブジェクトとの間の高速交差のためのコンピュータベースの方法であって、
    a)既存のヒットポイントのクラスタに、前記既存のヒットポイントの深度を取得するために、光線の第1のプロジェクションを発するステップと、
    b)二次光線を作成するために、前記取得された深度を利用して、前記既存のヒットポイントのクラスタを通る前記光線のプロジェクションを繰り返すステップと、
    c)前記二次光線で、前記3次元シーン又はその一部をレンダリングし、ジオメトリックオブジェクトとの前記交差をレンダリングターゲットに記憶するステップと、
    d)既存のヒットポイントの各々を関連する二次光線と前記レンダリングターゲットとの交差と一致させるステップと、
    e)前記二次光線と前記レンダリングターゲットとの前記交差の点においてオブジェクトの識別を位置付けるステップと
    を含む方法。
  30. 前記既存のヒットポイントは、一次又は二次ヒットポイントである、請求項29に記載の方法。
  31. 前記第1のプロジェクションは、既存のヒットポイントのみをレンダリングし、前記3次元シーンの前記ジオメトリックオブジェクトを無視する、請求項29に記載の方法。
  32. Zバッファリング機構が使用される、請求項31に記載の方法。
  33. 既存のヒットポイントに遭遇するプロジェクションの前記光線は、2つのセグメントに分割される、請求項29に記載の方法。
  34. 前記2つのセグメント間の分割点は、光線が既存のヒットポイントに遭遇する場所である、請求項33に記載の方法。
  35. 二次光線が第2のセグメントを含む、請求項33に記載の方法。
  36. 第1のセグメントの範囲内の全てのジオメトリオブジェクトが破棄される、請求項33に記載の方法。
  37. 既存のヒットポイントに遭遇しない前記第1のプロジェクションの光線は、二次光線にならない、請求項29に記載の方法。
  38. 二次光線は、前記3次元シーンのジオメトリックオブジェクトをレンダリングする、請求項29に記載の方法。
  39. 前記二次光線と前記シーンの前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記レンダリングターゲットに記憶される、請求項29に記載の方法。
  40. 前記二次光線と前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記既存のヒットポイントを助長する、請求項29に記載の方法。
  41. 既存のヒットポイントをレンダリングターゲットにおける対応する交差点と一致させるステップは、座標を一致させることによってなされる、請求項29に記載の方法。
  42. 前記交差の点において前記オブジェクトの識別を位置付けるステップは、前記シーンのジオメトリックデータベースを参照することによってなされる、請求項29に記載の方法。
  43. 前記交差の点は、次世代の既存のヒットポイントとして使用されることができる、請求項29に記載の方法。
  44. グラフィックスパイプラインを利用して、3次元シーンのレイトレーシングにおける二次光線とオブジェクトとの間の高速交差のためのコンピュータベースのシステムであって、前記システムは、
    メモリを有する少なくとも1つのグラフィックスプロセッサと、
    メモリを有する少なくとも1つの汎用プロセッサと、
    前記シーンのジオメトリックデータベースと、
    レンダリングターゲットメモリと
    を備え、実行時に、
    a)グラフィックスプロセッサは、既存のヒットポイントのクラスタに、前記既存のヒットポイントの深度マップを取得するために、光線の第1のプロジェクションを発し、
    b)グラフィックスプロセッサは、二次光線を作成するために、前記取得された深度マップを利用して、前記既存のヒットポイントのクラスタを通して光線の第2のプロジェクションを発し、
    c)グラフィックスプロセッサは、前記二次光線で前記3次元シーン又はその一部をレンダリングし、二次光線のジオメトリックオブジェクトとの前記交差をレンダリングターゲットメモリに記憶し、
    d)既存のヒットポイントは、関連する二次光線と前記レンダリングターゲットとの交差の点と一致し、
    e)二次光線の前記レンダリングターゲットとの前記交差の点に表されるオブジェクトの識別が位置付けられる
    システム。
  45. 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する少なくとも1つのディスクリートGPUである、請求項44に記載のシステム。
  46. 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する少なくとも1つの統合型GPUである、請求項44に記載のシステム。
  47. 前記グラフィックスプロセッサは、少なくとも1つの統合型GPUと少なくとも1つのディスクリートGPUとのハイブリッドグラフィックスシステムであって、全てがハードウェアグラフィックスパイプラインを有する、請求項44に記載のシステム。
  48. 前記汎用プロセッサは、複数のプロセッシングコアを有するマルチコアCPUである、請求項44に記載のシステム。
  49. 前記既存のヒットポイントは、一次又は二次ヒットポイントである、請求項44に記載のシステム。
  50. 前記第1のプロジェクションは、既存のヒットポイントのみをレンダリングし、前記3次元シーンの前記ジオメトリックオブジェクトを無視する、請求項44に記載のシステム。
  51. 前記既存のヒットポイントの前記深度マップの取得は、前記シーンの前記ジオメトリックオブジェクトを無視することによってなされる、請求項44に記載のシステム。
  52. 前記深度マップの取得は、Zバッファリング機構によって実装される、請求項44に記載のシステム。
  53. 既存のヒットポイントに遭遇するプロジェクションの前記光線は、2つのセグメントに分割される、請求項44に記載のシステム。
  54. 前記2つのセグメント間の分割点は、光線が既存のヒットポイントに遭遇する場所である、請求項44に記載のシステム。
  55. 二次光線が第2のセグメントを含む、請求項44に記載のシステム。
  56. 第1のセグメントの範囲内の全てのジオメトリオブジェクトが破棄される、請求項44に記載のシステム。
  57. 既存のヒットポイントに遭遇しない前記第1のプロジェクションの光線は、二次光線にならない、請求項44に記載のシステム。
  58. 二次光線は、前記3次元シーンのジオメトリックオブジェクトをレンダリングする、請求項44に記載のシステム。
  59. 前記二次光線と前記シーンの前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記レンダリングターゲットメモリに記憶される、請求項44に記載のシステム。
  60. 前記二次光線と前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記既存のヒットポイントを助長する、請求項44に記載のシステム。
  61. 既存のヒットポイントを関連する交差と一致させ、前記交差において前記オブジェクトを識別するタスクは、前記システムのグラフィックスプロセッシングユニット又は汎用プロセッシングユニットの何れかによって行われることができる、請求項44に記載のシステム。
  62. 既存のヒットポイントをレンダリングターゲットにおける対応する交差点と一致させることは、座標を一致させることによってなされる、請求項44に記載のシステム。
  63. 前記交差の点において前記オブジェクトの識別を位置付けることは、前記シーンの前記ジオメトリックデータベースを参照することによってなされる、請求項44に記載のシステム。
  64. 非一次光線からのレイトレーシングにおいて二次光線を生じさせるためのコンピュータベースの方法であって、前記方法は、
    一次光線が発せられた後に3次元シーンに追加の光線を発するステップ
    を含み、前記シーンは、
    一次光線によって以前に生成された既存のヒットポイントのクラスタと、
    前記シーンのジオメトリックデータを含むジオメトリオブジェクトと
    からなり、
    前記追加の光線と既存のヒットポイントとの間の交差において、二次光線が前記追加の光線から生じて、各生じた二次光線は、
    交差の既存のヒットポイントにおいて発生し、
    前記交差の既存のヒットポイントに関連するようになり、
    常にその元の発射方向を保持し、
    その関連する既存のヒットポイントの前方に位置付けられたジオメトリックオブジェクトとの交差を探索するために使用される
    方法。
  65. 前記追加の光線は、カメラ又は光源から発せられない、請求項64に記載の方法。
  66. 前記既存のヒットポイントは、一次光線とジオメトリックオブジェクトとの間の交差の結果である、請求項64に記載の方法。
  67. 前記追加の光線は、2回の後続のプロジェクションにおいて発せられる、請求項64に記載の方法。
  68. 追加の光線と既存のヒットポイントとの間の交差は、前記既存のヒットポイントのクラスタに追加の光線の第1のプロジェクションを発することによって生じる、請求項64に記載の方法。
  69. 前記投影された追加の光線は、二次光線のための搬送波として使用される、請求項64に記載の方法。
  70. 二次光線とジオメトリックオブジェクトとの間の交差は、前記追加の光線の第2のプロジェクションの間に生じる、請求項64に記載の方法。
  71. 前記追加の光線の前記第2のプロジェクションは、前記シーンのジオメトリックデータに発せられる、請求項70に記載の方法。
  72. 追加の光線から生じたニ次光線と既存のヒットポイントとの間の関連付けは、前記光線のジオメトリックオブジェクトとの交差の結果が前記既存のヒットポイントに関連することを意味する、請求項64に記載の方法。
  73. 非一次光線からのレイトレーシングにおいて二次光線を生じさせるためのシステムであって、前記システムは、
    メモリを有する少なくとも1つのグラフィックスプロセッサと、
    メモリを有する少なくとも1つの汎用プロセッサと、
    一次光線によって以前に生成された既存のヒットポイントのクラスタと、
    前記シーンのジオメトリックデータを含むジオメトリオブジェクトと
    を備え、追加の光線が前記既存のヒットポイントのクラスタに発せられ、それらの交差の点において二次光線を生じさせて、各生じた二次光線は、
    交差の既存のヒットポイントにおいて発生し、
    前記交差の既存のヒットポイントに関連するようになり、
    常にその元の発射方向を保持し、
    その関連する既存のヒットポイントの前方に位置付けられたジオメトリックオブジェクトとの交差を探索するために使用される、
    システム。
  74. 前記追加の光線は、2回の後続のプロジェクションにおいて発せられる、請求項71に記載のシステム。
  75. 非一次光線と既存のヒットポイントとの間の交差は、前記既存のヒットポイントのクラスタに追加の光線の第1のプロジェクションを発することによって生じる、請求項71に記載のシステム。
  76. 投影された追加の光線は、二次光線のための搬送波として使用される、請求項71に記載のシステム。
  77. 二次光線とジオメトリックオブジェクトとの間の交差は、前記追加の光線のプロジェクションの間に生じる、請求項71に記載のシステム。
  78. 前記投影された追加の光線は、前記シーンのジオメトリックデータに発せられる、請求項77に記載のシステム。
  79. 追加の光線から生じた二次光線と既存のヒットポイントとの間の関連付けは、前記光線のジオメトリックオブジェクトとの交差の結果が前記既存のヒットポイントに関連することを意味する、請求項71に記載のシステム。
  80. グラフィックスパイプラインを利用して、拡張オブジェクトの光線追跡反射を現実世界環境の画像に高速に生成するためのコンピュータベースの方法であって、現実世界環境の画像空間において、
    a.拡張オブジェクトの反射を作成するための領域を識別するステップと、
    b.カメラからの一次光線のプロジェクションを前記識別された領域に発し、一次ヒットポイントのクラスタを生成するステップと、
    c.前記一次ヒットポイントのクラスタを通して前記拡張オブジェクトに二次光線のプロジェクションを発し、それによってレンダリングターゲットテクスチャがもたらされるステップと、
    d.前記レンダリングターゲットテクスチャから、二次光線と拡張オブジェクトとの間の交差の点を明らかにしてサンプリングするステップと、
    e.前記交差点における前記サンプリングされた光値をそれらのそれぞれの一次ヒットポイントに供給するステップと
    を含む方法。
  81. 前記現実世界の画像における前記反射領域は、前記拡張オブジェクトを反射し得る反射面又は半反射面において識別される、請求項80に記載の方法。
  82. 前記反射領域の位置及び境界は、カメラの位置、前記拡張オブジェクトの距離及びサイズ、並びに主方向の考慮に従って決定される、請求項80に記載の方法。
  83. 前記発せられた一次光線のプロジェクションは、グラフィックスププロセッシングユニットのハードウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
  84. 前記発せられた一次光線のプロジェクションは、ソフトウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
  85. 前記一次光線のプロジェクションは、複数回繰り返される、請求項80に記載の方法。
  86. 前記複数の一次光線のプロジェクションは、互いから外れている、請求項85に記載の方法。
  87. 各連続回において、前記一次プロジェクションは、主方向から外れている、請求項85に記載の方法。
  88. 前記画像の各ピクセルは、複数のサンプルを得る、請求項80に記載の方法。
  89. 前記二次光線は、前記一次ヒットポイントにおいて始まる、請求項80に記載の方法。
  90. 前記二次光線のプロジェクションは、GPUのハードウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
  91. 前記二次光線のプロジェクションは、GPUのZバッファリング機構を利用する、請求項90に記載の方法。
  92. 前記二次光線のプロジェクションは、ソフトウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
  93. 二次光線と拡張オブジェクトとの間の前記交差点は、新世代の一次ヒットポイントと見なされる、請求項80に記載の方法。
JP2019521406A 2018-05-21 2018-05-21 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 Active JP7123041B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IL2018/050549 WO2019224804A1 (en) 2018-05-21 2018-05-21 Fast generation of ray traced reflections of virtual objects in real world environment

Publications (2)

Publication Number Publication Date
JP2021530005A true JP2021530005A (ja) 2021-11-04
JP7123041B2 JP7123041B2 (ja) 2022-08-22

Family

ID=68617216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019521406A Active JP7123041B2 (ja) 2018-05-21 2018-05-21 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成

Country Status (3)

Country Link
JP (1) JP7123041B2 (ja)
CN (1) CN110832549B (ja)
WO (1) WO2019224804A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967369B (zh) * 2021-04-20 2024-06-25 北京天空卫士网络安全技术有限公司 一种光线展示方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299080A (ja) * 2006-04-28 2007-11-15 Sgi Japan Ltd 画像生成方法及び画像生成装置
JP2010134919A (ja) * 2008-12-05 2010-06-17 Internatl Business Mach Corp <Ibm> アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6844981B2 (en) * 2002-09-25 2005-01-18 Koninklijke Philips Electronics N.V. Non-symmetrical light stop
US20070242239A1 (en) * 2006-04-12 2007-10-18 Arthur Berman Method and Apparatus for Placing Light Modifying Elements in a Projection Lens
CN102243074B (zh) * 2010-05-13 2014-06-18 中国科学院遥感应用研究所 基于光线追踪技术的航空遥感成像几何变形仿真方法
CN102982575B (zh) * 2012-11-29 2015-05-06 杭州挪云科技有限公司 一种基于光线跟踪的毛发渲染方法
US9483865B2 (en) * 2012-12-26 2016-11-01 Adshir Ltd. Ray shooting method utilizing geometrical stencils
CN103279974A (zh) * 2013-05-15 2013-09-04 中国科学院软件研究所 一种高精度高分辨率卫星成像模拟引擎及实现方法
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
JP6646659B2 (ja) * 2014-06-14 2020-02-14 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想および拡張現実を作成する方法およびシステム
CN104183007B (zh) * 2014-08-12 2017-02-15 中国科学院软件研究所 一种基于光线追踪器的薄膜干涉效果绘制方法
CN104700448B (zh) * 2015-03-23 2017-06-20 山东大学 一种基于梯度的自适应光子映射优化算法
CN104700447B (zh) * 2015-04-01 2017-04-12 山东大学 基于Intel众核架构的光线追踪并行优化方法
CN107665501A (zh) * 2016-07-29 2018-02-06 北京大学 一种实时变焦光线追踪渲染引擎

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299080A (ja) * 2006-04-28 2007-11-15 Sgi Japan Ltd 画像生成方法及び画像生成装置
JP2010134919A (ja) * 2008-12-05 2010-06-17 Internatl Business Mach Corp <Ibm> アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ARTUR LIRA DOS SANTOS, DIEGO LEMOS, ETC.: "Real Time Ray Tracing for Augmented Reality", 2012 14THE AYMPOSIUM ON VIRTUAL AND AUGMENTED REALITY, JPN6022013008, May 2012 (2012-05-01), US, ISSN: 0004740937 *

Also Published As

Publication number Publication date
CN110832549A (zh) 2020-02-21
CN110832549B (zh) 2023-06-27
JP7123041B2 (ja) 2022-08-22
WO2019224804A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
US10332304B1 (en) System for fast intersections in ray tracing
US11017582B2 (en) Method for fast generation of path traced reflections on a semi-reflective surface
US11481955B2 (en) System for photo-realistic reflections in augmented reality
US10950030B2 (en) Specular reflections in hybrid ray tracing
US20040181382A1 (en) Visualizing the surface of a liquid
US10410401B1 (en) Spawning secondary rays in ray tracing from non primary rays
US11120610B2 (en) Coherent secondary rays for reflections in hybrid ray tracing
US12008704B2 (en) System for photo-realistic reflections in augmented reality
EP4085428A2 (en) Real-time, software-based hybrid ray tracing for battery-powered computing devices
JP7123041B2 (ja) 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7123041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350