JP2021530005A - 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 - Google Patents
現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 Download PDFInfo
- Publication number
- JP2021530005A JP2021530005A JP2019521406A JP2019521406A JP2021530005A JP 2021530005 A JP2021530005 A JP 2021530005A JP 2019521406 A JP2019521406 A JP 2019521406A JP 2019521406 A JP2019521406 A JP 2019521406A JP 2021530005 A JP2021530005 A JP 2021530005A
- Authority
- JP
- Japan
- Prior art keywords
- ray
- projection
- primary
- intersection
- rays
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 76
- 238000009877 rendering Methods 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 20
- 230000007246 mechanism Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 9
- 238000010304 firing Methods 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 2
- 238000005286 illumination Methods 0.000 description 31
- 230000000740 bleeding effect Effects 0.000 description 18
- 238000001513 hot isostatic pressing Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 239000003518 caustics Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
レベルdにおけるV内の頂点であるVdを画定する。
Cdを、Vdのクラスタへの分割とする。
Vd+1を見つけることによって、Tをd+1レベルに広げる。
Vdcの頂点を有するクラスタc∈Cdを選択し、Vd+1cがGの上部のVdcにおける頂点のプロジェクションであるように、VdcからVd+1cへの一連のマッピングであるLcを画定する。
・Lcは同じ入力からの一連のマッピングのセットであるので、任意の入力頂点のための複数のターゲット頂点が存在することに留意すべきである。
全ての頂点v∈Vdcを、
における全ての可能なジオメトリg∈Gに投影する代わりに、
における全てのクラスタc∈Cdに全ての可能なジオメトリg∈Gを投影する。
・R3においては、高速マッピング(プロジェクション)を並行して達成するために、従来の3Dグラフィックスパイプライン(ラスタハードウェア)を利用することができる。
スループット/オーバーフィットにおけるCd/Lcを最適化して、
・クラスタ当たりの平均の最大頂点数(スループット)
・全ての頂点にフィットする(オーバーフィットする)ジオメトリの最小(離散)プロジェクション数
・前処理/実行時間制約
を有する。
Lcは、物理的シナリオをシミュレートするために各v∈Vdcのための可能な分布セグメントを表す擬似ランダム出力を有するように選択される。
Claims (93)
- レイトレーシングのためのグラフィックスパイプライン機構を利用して、3次元シーンにおいて拡張オブジェクトを作成するための方法であって、
a)前記拡張オブジェクトに一次レンダリングプロジェクションを発し、一次ヒットポイントのクラスタを生成するステップと、
b)二次光線によってターゲットにされるサブシーン空間を決定するステップと、
c)二次レンダリングプロジェクションのための基準点を設定するステップと、
d)各回の場合に、
1)前記基準点の近傍から前記一次ヒットポイントのクラスタを通して二次レンダリングプロジェクションを発し、前記決定されたサブシーンのレンダリングターゲットテクスチャを生成し、
2)前記二次光線の前記サブシーンとの交差点を探索し、
3)次世代の二次光線のために前記交差点を保存し、
4)前記交差点において光値をサンプリングし、
5)前記一次ヒットポイントに前記サンプリングされた値をフィードバックする
ことを複数回繰り返すステップであって、各回において、前記二次レンダリングプロジェクションを傾斜させる、ステップと、
e)前記一次ヒットポイントにおいて集約値を処理するステップと、
f)前記処理結果を画像ピクセルに収束させるステップと
を含む方法。 - 前記一次レンダリングプロジェクションは、前記グラフィックスパイプラインによってなされる、請求項1に記載の方法。
- 少なくとも1つのサブシーンが、前記3次元シーンの一部として選択される、請求項1に記載の方法。
- 各サブシーンが、別個の一連の二次光線によってターゲットにされる、請求項3に記載の方法。
- 異なる基準点が、各サブシーンのために設定される、請求項3に記載の方法。
- 前記二次レンダリングプロジェクションのシフトはランダムになされる、請求項1に記載の方法。
- 前記二次レンダリングプロジェクションは遠近形状である、請求項1に記載の方法。
- 前記二次レンダリングプロジェクションは平行形状である、請求項1に記載の方法。
- 前記二次レンダリングプロジェクションの結果は、前記決定されたサブシーンのレンダリングターゲットテクスチャである、請求項1に記載の方法。
- 前記二次光線と前記決定されたサブシーンとの間の交差の探索が、前記一次ヒットポイントと前記レンダリングターゲットテクスチャとの座標を一致させることによってなされる、請求項1に記載の方法。
- 前記保存された二次光線の交差点は、前記次世代の二次光線のための一次ヒットポイントのクラスタとして機能することができる、請求項1に記載の方法。
- 全ての前記一次ヒットポイントから集約された前記処理された色値及び光値のサンプルは前記画像ピクセルに収束され、前記3次元シーンの影響を受ける前記拡張オブジェクトのフル画像を作成する、請求項1に記載の方法。
- グラフィックスパイプラインを利用して、3次元シーンにおける拡張オブジェクトをレイトレーシングするためのシステムであって、前記システムは、
メモリを有する少なくとも1つのグラフィックスプロセッサと、
メモリを有する少なくとも1つの汎用プロセッサと、
前記3次元シーンのジオメトリックデータベースと、
レンダリングターゲットメモリと
を備え、実行時に、
a)グラフィックスプロセッサは、拡張オブジェクトに一次レンダリングプロジェクションを発し、一次ヒットポイントのクラスタを生成し、
b)サブシーン空間が、二次光線によってターゲットにされるように決定され、
c)二次レンダリングプロジェクションのための基準点が設定され、
d)二次レンダリングプロジェクションは、各回において傾斜して、複数回繰り返され、各回の場合に、
1)二次光線が、前記二次レンダリングプロジェクションを利用して生成され、前記二次レンダリングプロジェクションは、前記一次ヒットポイントのクラスタを通して前記基準点の近傍から発せられ、前記サブシーンのレンダリングターゲットテクスチャを生成し、
2)前記二次光線の前記サブシーンとの交差点が探索され、
3)前記交差点は、次世代の二次光線のために保存され、
4)光値が、前記交差点においてサンプリングされ、
5)前記サンプリングされた光値は、前記一次ヒットポイントにフィードバックされ、
e)前記サンプリングされた光値は、前記一次ヒットポイントのために集約されて処理され、
f)前記サンプリングされた光値の処理結果は、画像ピクセルに収束される
システム。 - 前記一次レンダリングプロジェクションは、前記グラフィックスパイプラインによってなされる、請求項13に記載のシステム。
- 少なくとも1つのサブシーンは、前記3次元シーンの一部として選択される、請求項13に記載のシステム。
- 各サブシーンは、別個の一連の二次光線によってターゲットにされる、請求項15に記載のシステム。
- 異なる基準点が、各サブセットのために設定される、請求項15のシステム。
- 前記二次レンダリングプロジェクションは傾斜される、請求項13に記載のシステム。
- 前記二次レンダリングプロジェクションは遠近形状である、請求項13に記載のシステム。
- 前記二次レンダリングプロジェクションは平行形状である、請求項13に記載のシステム。
- 前記二次レンダリングプロジェクションの結果は、前記サブシーンのレンダリングターゲットテクスチャである、請求項13に記載のシステム。
- 前記二次光線と前記決定されたサブシーンとの間の交差の探索が、前記一次ヒットポイントと前記レンダリングターゲットテクスチャとの座標を一致させることによってなされる、請求項13に記載のシステム。
- 前記保存された二次光線の交差点は、前記次世代の二次光線のためのヒットポイントのクラスタとして機能することができる、請求項13に記載のシステム。
- 全ての前記一次ヒットポイントから集約された前記処理された光値のサンプルは、前記3次元シーンの影響を受ける前記拡張オブジェクトのフル画像の一部として、前記画像ピクセルに収束される、請求項13に記載のシステム。
- 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有するディスクリートGPUである、請求項13に記載のシステム。
- 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する統合型GPUである、請求項13に記載のシステム。
- 前記グラフィックスプロセッサは、少なくとも1つの統合型GPUと少なくとも1つのディスクリートGPUとのハイブリッドグラフィックスシステムであって、全てがハードウェアグラフィックスパイプラインを有する、請求項13に記載のシステム。
- 前記汎用プロセッサは、複数のプロセッシングコアを有するマルチコアCPUである、請求項13に記載のシステム。
- グラフィックスパイプラインを利用して、3次元シーンのレイトレーシングにおける二次光線とオブジェクトとの間の高速交差のためのコンピュータベースの方法であって、
a)既存のヒットポイントのクラスタに、前記既存のヒットポイントの深度を取得するために、光線の第1のプロジェクションを発するステップと、
b)二次光線を作成するために、前記取得された深度を利用して、前記既存のヒットポイントのクラスタを通る前記光線のプロジェクションを繰り返すステップと、
c)前記二次光線で、前記3次元シーン又はその一部をレンダリングし、ジオメトリックオブジェクトとの前記交差をレンダリングターゲットに記憶するステップと、
d)既存のヒットポイントの各々を関連する二次光線と前記レンダリングターゲットとの交差と一致させるステップと、
e)前記二次光線と前記レンダリングターゲットとの前記交差の点においてオブジェクトの識別を位置付けるステップと
を含む方法。 - 前記既存のヒットポイントは、一次又は二次ヒットポイントである、請求項29に記載の方法。
- 前記第1のプロジェクションは、既存のヒットポイントのみをレンダリングし、前記3次元シーンの前記ジオメトリックオブジェクトを無視する、請求項29に記載の方法。
- Zバッファリング機構が使用される、請求項31に記載の方法。
- 既存のヒットポイントに遭遇するプロジェクションの前記光線は、2つのセグメントに分割される、請求項29に記載の方法。
- 前記2つのセグメント間の分割点は、光線が既存のヒットポイントに遭遇する場所である、請求項33に記載の方法。
- 二次光線が第2のセグメントを含む、請求項33に記載の方法。
- 第1のセグメントの範囲内の全てのジオメトリオブジェクトが破棄される、請求項33に記載の方法。
- 既存のヒットポイントに遭遇しない前記第1のプロジェクションの光線は、二次光線にならない、請求項29に記載の方法。
- 二次光線は、前記3次元シーンのジオメトリックオブジェクトをレンダリングする、請求項29に記載の方法。
- 前記二次光線と前記シーンの前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記レンダリングターゲットに記憶される、請求項29に記載の方法。
- 前記二次光線と前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記既存のヒットポイントを助長する、請求項29に記載の方法。
- 既存のヒットポイントをレンダリングターゲットにおける対応する交差点と一致させるステップは、座標を一致させることによってなされる、請求項29に記載の方法。
- 前記交差の点において前記オブジェクトの識別を位置付けるステップは、前記シーンのジオメトリックデータベースを参照することによってなされる、請求項29に記載の方法。
- 前記交差の点は、次世代の既存のヒットポイントとして使用されることができる、請求項29に記載の方法。
- グラフィックスパイプラインを利用して、3次元シーンのレイトレーシングにおける二次光線とオブジェクトとの間の高速交差のためのコンピュータベースのシステムであって、前記システムは、
メモリを有する少なくとも1つのグラフィックスプロセッサと、
メモリを有する少なくとも1つの汎用プロセッサと、
前記シーンのジオメトリックデータベースと、
レンダリングターゲットメモリと
を備え、実行時に、
a)グラフィックスプロセッサは、既存のヒットポイントのクラスタに、前記既存のヒットポイントの深度マップを取得するために、光線の第1のプロジェクションを発し、
b)グラフィックスプロセッサは、二次光線を作成するために、前記取得された深度マップを利用して、前記既存のヒットポイントのクラスタを通して光線の第2のプロジェクションを発し、
c)グラフィックスプロセッサは、前記二次光線で前記3次元シーン又はその一部をレンダリングし、二次光線のジオメトリックオブジェクトとの前記交差をレンダリングターゲットメモリに記憶し、
d)既存のヒットポイントは、関連する二次光線と前記レンダリングターゲットとの交差の点と一致し、
e)二次光線の前記レンダリングターゲットとの前記交差の点に表されるオブジェクトの識別が位置付けられる
システム。 - 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する少なくとも1つのディスクリートGPUである、請求項44に記載のシステム。
- 前記グラフィックスプロセッサは、ハードウェアグラフィックスパイプラインを有する少なくとも1つの統合型GPUである、請求項44に記載のシステム。
- 前記グラフィックスプロセッサは、少なくとも1つの統合型GPUと少なくとも1つのディスクリートGPUとのハイブリッドグラフィックスシステムであって、全てがハードウェアグラフィックスパイプラインを有する、請求項44に記載のシステム。
- 前記汎用プロセッサは、複数のプロセッシングコアを有するマルチコアCPUである、請求項44に記載のシステム。
- 前記既存のヒットポイントは、一次又は二次ヒットポイントである、請求項44に記載のシステム。
- 前記第1のプロジェクションは、既存のヒットポイントのみをレンダリングし、前記3次元シーンの前記ジオメトリックオブジェクトを無視する、請求項44に記載のシステム。
- 前記既存のヒットポイントの前記深度マップの取得は、前記シーンの前記ジオメトリックオブジェクトを無視することによってなされる、請求項44に記載のシステム。
- 前記深度マップの取得は、Zバッファリング機構によって実装される、請求項44に記載のシステム。
- 既存のヒットポイントに遭遇するプロジェクションの前記光線は、2つのセグメントに分割される、請求項44に記載のシステム。
- 前記2つのセグメント間の分割点は、光線が既存のヒットポイントに遭遇する場所である、請求項44に記載のシステム。
- 二次光線が第2のセグメントを含む、請求項44に記載のシステム。
- 第1のセグメントの範囲内の全てのジオメトリオブジェクトが破棄される、請求項44に記載のシステム。
- 既存のヒットポイントに遭遇しない前記第1のプロジェクションの光線は、二次光線にならない、請求項44に記載のシステム。
- 二次光線は、前記3次元シーンのジオメトリックオブジェクトをレンダリングする、請求項44に記載のシステム。
- 前記二次光線と前記シーンの前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記レンダリングターゲットメモリに記憶される、請求項44に記載のシステム。
- 前記二次光線と前記ジオメトリックオブジェクトとの間の全ての前記交差点は、前記既存のヒットポイントを助長する、請求項44に記載のシステム。
- 既存のヒットポイントを関連する交差と一致させ、前記交差において前記オブジェクトを識別するタスクは、前記システムのグラフィックスプロセッシングユニット又は汎用プロセッシングユニットの何れかによって行われることができる、請求項44に記載のシステム。
- 既存のヒットポイントをレンダリングターゲットにおける対応する交差点と一致させることは、座標を一致させることによってなされる、請求項44に記載のシステム。
- 前記交差の点において前記オブジェクトの識別を位置付けることは、前記シーンの前記ジオメトリックデータベースを参照することによってなされる、請求項44に記載のシステム。
- 非一次光線からのレイトレーシングにおいて二次光線を生じさせるためのコンピュータベースの方法であって、前記方法は、
一次光線が発せられた後に3次元シーンに追加の光線を発するステップ
を含み、前記シーンは、
一次光線によって以前に生成された既存のヒットポイントのクラスタと、
前記シーンのジオメトリックデータを含むジオメトリオブジェクトと
からなり、
前記追加の光線と既存のヒットポイントとの間の交差において、二次光線が前記追加の光線から生じて、各生じた二次光線は、
交差の既存のヒットポイントにおいて発生し、
前記交差の既存のヒットポイントに関連するようになり、
常にその元の発射方向を保持し、
その関連する既存のヒットポイントの前方に位置付けられたジオメトリックオブジェクトとの交差を探索するために使用される
方法。 - 前記追加の光線は、カメラ又は光源から発せられない、請求項64に記載の方法。
- 前記既存のヒットポイントは、一次光線とジオメトリックオブジェクトとの間の交差の結果である、請求項64に記載の方法。
- 前記追加の光線は、2回の後続のプロジェクションにおいて発せられる、請求項64に記載の方法。
- 追加の光線と既存のヒットポイントとの間の交差は、前記既存のヒットポイントのクラスタに追加の光線の第1のプロジェクションを発することによって生じる、請求項64に記載の方法。
- 前記投影された追加の光線は、二次光線のための搬送波として使用される、請求項64に記載の方法。
- 二次光線とジオメトリックオブジェクトとの間の交差は、前記追加の光線の第2のプロジェクションの間に生じる、請求項64に記載の方法。
- 前記追加の光線の前記第2のプロジェクションは、前記シーンのジオメトリックデータに発せられる、請求項70に記載の方法。
- 追加の光線から生じたニ次光線と既存のヒットポイントとの間の関連付けは、前記光線のジオメトリックオブジェクトとの交差の結果が前記既存のヒットポイントに関連することを意味する、請求項64に記載の方法。
- 非一次光線からのレイトレーシングにおいて二次光線を生じさせるためのシステムであって、前記システムは、
メモリを有する少なくとも1つのグラフィックスプロセッサと、
メモリを有する少なくとも1つの汎用プロセッサと、
一次光線によって以前に生成された既存のヒットポイントのクラスタと、
前記シーンのジオメトリックデータを含むジオメトリオブジェクトと
を備え、追加の光線が前記既存のヒットポイントのクラスタに発せられ、それらの交差の点において二次光線を生じさせて、各生じた二次光線は、
交差の既存のヒットポイントにおいて発生し、
前記交差の既存のヒットポイントに関連するようになり、
常にその元の発射方向を保持し、
その関連する既存のヒットポイントの前方に位置付けられたジオメトリックオブジェクトとの交差を探索するために使用される、
システム。 - 前記追加の光線は、2回の後続のプロジェクションにおいて発せられる、請求項71に記載のシステム。
- 非一次光線と既存のヒットポイントとの間の交差は、前記既存のヒットポイントのクラスタに追加の光線の第1のプロジェクションを発することによって生じる、請求項71に記載のシステム。
- 投影された追加の光線は、二次光線のための搬送波として使用される、請求項71に記載のシステム。
- 二次光線とジオメトリックオブジェクトとの間の交差は、前記追加の光線のプロジェクションの間に生じる、請求項71に記載のシステム。
- 前記投影された追加の光線は、前記シーンのジオメトリックデータに発せられる、請求項77に記載のシステム。
- 追加の光線から生じた二次光線と既存のヒットポイントとの間の関連付けは、前記光線のジオメトリックオブジェクトとの交差の結果が前記既存のヒットポイントに関連することを意味する、請求項71に記載のシステム。
- グラフィックスパイプラインを利用して、拡張オブジェクトの光線追跡反射を現実世界環境の画像に高速に生成するためのコンピュータベースの方法であって、現実世界環境の画像空間において、
a.拡張オブジェクトの反射を作成するための領域を識別するステップと、
b.カメラからの一次光線のプロジェクションを前記識別された領域に発し、一次ヒットポイントのクラスタを生成するステップと、
c.前記一次ヒットポイントのクラスタを通して前記拡張オブジェクトに二次光線のプロジェクションを発し、それによってレンダリングターゲットテクスチャがもたらされるステップと、
d.前記レンダリングターゲットテクスチャから、二次光線と拡張オブジェクトとの間の交差の点を明らかにしてサンプリングするステップと、
e.前記交差点における前記サンプリングされた光値をそれらのそれぞれの一次ヒットポイントに供給するステップと
を含む方法。 - 前記現実世界の画像における前記反射領域は、前記拡張オブジェクトを反射し得る反射面又は半反射面において識別される、請求項80に記載の方法。
- 前記反射領域の位置及び境界は、カメラの位置、前記拡張オブジェクトの距離及びサイズ、並びに主方向の考慮に従って決定される、請求項80に記載の方法。
- 前記発せられた一次光線のプロジェクションは、グラフィックスププロセッシングユニットのハードウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
- 前記発せられた一次光線のプロジェクションは、ソフトウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
- 前記一次光線のプロジェクションは、複数回繰り返される、請求項80に記載の方法。
- 前記複数の一次光線のプロジェクションは、互いから外れている、請求項85に記載の方法。
- 各連続回において、前記一次プロジェクションは、主方向から外れている、請求項85に記載の方法。
- 前記画像の各ピクセルは、複数のサンプルを得る、請求項80に記載の方法。
- 前記二次光線は、前記一次ヒットポイントにおいて始まる、請求項80に記載の方法。
- 前記二次光線のプロジェクションは、GPUのハードウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
- 前記二次光線のプロジェクションは、GPUのZバッファリング機構を利用する、請求項90に記載の方法。
- 前記二次光線のプロジェクションは、ソフトウェアグラフィックスパイプラインによって実装される、請求項80に記載の方法。
- 二次光線と拡張オブジェクトとの間の前記交差点は、新世代の一次ヒットポイントと見なされる、請求項80に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/IL2018/050549 WO2019224804A1 (en) | 2018-05-21 | 2018-05-21 | Fast generation of ray traced reflections of virtual objects in real world environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530005A true JP2021530005A (ja) | 2021-11-04 |
JP7123041B2 JP7123041B2 (ja) | 2022-08-22 |
Family
ID=68617216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019521406A Active JP7123041B2 (ja) | 2018-05-21 | 2018-05-21 | 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7123041B2 (ja) |
CN (1) | CN110832549B (ja) |
WO (1) | WO2019224804A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967369B (zh) * | 2021-04-20 | 2024-06-25 | 北京天空卫士网络安全技术有限公司 | 一种光线展示方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299080A (ja) * | 2006-04-28 | 2007-11-15 | Sgi Japan Ltd | 画像生成方法及び画像生成装置 |
JP2010134919A (ja) * | 2008-12-05 | 2010-06-17 | Internatl Business Mach Corp <Ibm> | アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム |
JP2013003848A (ja) * | 2011-06-16 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | 仮想物体表示装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6844981B2 (en) * | 2002-09-25 | 2005-01-18 | Koninklijke Philips Electronics N.V. | Non-symmetrical light stop |
US20070242239A1 (en) * | 2006-04-12 | 2007-10-18 | Arthur Berman | Method and Apparatus for Placing Light Modifying Elements in a Projection Lens |
CN102243074B (zh) * | 2010-05-13 | 2014-06-18 | 中国科学院遥感应用研究所 | 基于光线追踪技术的航空遥感成像几何变形仿真方法 |
CN102982575B (zh) * | 2012-11-29 | 2015-05-06 | 杭州挪云科技有限公司 | 一种基于光线跟踪的毛发渲染方法 |
US9483865B2 (en) * | 2012-12-26 | 2016-11-01 | Adshir Ltd. | Ray shooting method utilizing geometrical stencils |
CN103279974A (zh) * | 2013-05-15 | 2013-09-04 | 中国科学院软件研究所 | 一种高精度高分辨率卫星成像模拟引擎及实现方法 |
CN106133796B (zh) * | 2014-03-25 | 2019-07-16 | 苹果公司 | 用于在真实环境的视图中表示虚拟对象的方法和系统 |
JP6646659B2 (ja) * | 2014-06-14 | 2020-02-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想および拡張現実を作成する方法およびシステム |
CN104183007B (zh) * | 2014-08-12 | 2017-02-15 | 中国科学院软件研究所 | 一种基于光线追踪器的薄膜干涉效果绘制方法 |
CN104700448B (zh) * | 2015-03-23 | 2017-06-20 | 山东大学 | 一种基于梯度的自适应光子映射优化算法 |
CN104700447B (zh) * | 2015-04-01 | 2017-04-12 | 山东大学 | 基于Intel众核架构的光线追踪并行优化方法 |
CN107665501A (zh) * | 2016-07-29 | 2018-02-06 | 北京大学 | 一种实时变焦光线追踪渲染引擎 |
-
2018
- 2018-05-21 JP JP2019521406A patent/JP7123041B2/ja active Active
- 2018-05-21 CN CN201880004190.0A patent/CN110832549B/zh active Active
- 2018-05-21 WO PCT/IL2018/050549 patent/WO2019224804A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299080A (ja) * | 2006-04-28 | 2007-11-15 | Sgi Japan Ltd | 画像生成方法及び画像生成装置 |
JP2010134919A (ja) * | 2008-12-05 | 2010-06-17 | Internatl Business Mach Corp <Ibm> | アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム |
JP2013003848A (ja) * | 2011-06-16 | 2013-01-07 | Nippon Telegr & Teleph Corp <Ntt> | 仮想物体表示装置 |
Non-Patent Citations (1)
Title |
---|
ARTUR LIRA DOS SANTOS, DIEGO LEMOS, ETC.: "Real Time Ray Tracing for Augmented Reality", 2012 14THE AYMPOSIUM ON VIRTUAL AND AUGMENTED REALITY, JPN6022013008, May 2012 (2012-05-01), US, ISSN: 0004740937 * |
Also Published As
Publication number | Publication date |
---|---|
CN110832549A (zh) | 2020-02-21 |
CN110832549B (zh) | 2023-06-27 |
JP7123041B2 (ja) | 2022-08-22 |
WO2019224804A1 (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10332304B1 (en) | System for fast intersections in ray tracing | |
US11017582B2 (en) | Method for fast generation of path traced reflections on a semi-reflective surface | |
US11481955B2 (en) | System for photo-realistic reflections in augmented reality | |
US10950030B2 (en) | Specular reflections in hybrid ray tracing | |
US20040181382A1 (en) | Visualizing the surface of a liquid | |
US10410401B1 (en) | Spawning secondary rays in ray tracing from non primary rays | |
US11120610B2 (en) | Coherent secondary rays for reflections in hybrid ray tracing | |
US12008704B2 (en) | System for photo-realistic reflections in augmented reality | |
EP4085428A2 (en) | Real-time, software-based hybrid ray tracing for battery-powered computing devices | |
JP7123041B2 (ja) | 現実世界環境における仮想オブジェクトの光線追跡反射の高速生成 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220809 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7123041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |