JP2020198066A - 拡張現実アプリケーション用システム及び方法 - Google Patents

拡張現実アプリケーション用システム及び方法 Download PDF

Info

Publication number
JP2020198066A
JP2020198066A JP2019149170A JP2019149170A JP2020198066A JP 2020198066 A JP2020198066 A JP 2020198066A JP 2019149170 A JP2019149170 A JP 2019149170A JP 2019149170 A JP2019149170 A JP 2019149170A JP 2020198066 A JP2020198066 A JP 2020198066A
Authority
JP
Japan
Prior art keywords
virtual
image
shadow
augmented reality
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019149170A
Other languages
English (en)
Other versions
JP7089495B2 (ja
Inventor
ベダード レナウド
Bedard Renaud
ベダード レナウド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eidos Interactive Corp
Original Assignee
Eidos Interactive Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidos Interactive Corp filed Critical Eidos Interactive Corp
Publication of JP2020198066A publication Critical patent/JP2020198066A/ja
Application granted granted Critical
Publication of JP7089495B2 publication Critical patent/JP7089495B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map

Abstract

【課題】画像内の実世界表面上にバーチャル影をレンダリングする拡張現実アプリケーション用システム及び方法を提供する。【解決手段】カメラを有するコンピュータ装置上で実行される拡張現実アプリケーションは、場面の画像を取得し、実世界表面を検出する。実世界表面上に透明な閉塞バーチャル平面をレンダリングする。バーチャルオブジェクトに関するテクスチャがシャドウバッファに書き込まれ、透明な閉塞バーチャル平面上に投影される。【選択図】図10

Description

開示は、拡張現実(AR)アプリケーションの分野に関するものである。特に、本開示は、モバイルARアプリケーションにおいて、透明な閉塞したAR平面上にバーチャル影をレンダリングする方法及びシステムに関する。
拡張現実(AR)は、コンピュータが生成したバーチャル映像を実世界のユーザ視野上に重ねることを目的とした一連の技術である。スマートフォンなどのモバイル装置におけるグローバル位置検知システム(GPS)、デジタルコンパス及び加速度計の使用の広がりはモバイルARアプリケーションの成長に繋がっている。そうしたモバイル装置はパーソナルコンピュータよりも遙かに低い処理能力しか持たない一方で、その携帯性がモバイルARアプリケーションの急増の媒介となってきた。
モバイル技術の知識が成長するにつれ、多くのモバイルARアプリケーションは、単純にバーチャル素子を実世界場面に重ねることから、バーチャル及び実世界オブジェクト間でリアルタイム視覚及び聴覚の相互作用を導入する機能を提供するようになっている。こうしたことから、モバイルARアプリケーションには、バーチャル及び実世界素子を継ぎ目のなく混在させる要請が増大している。
そうした相互作用の実際は、実世界オブジェクト上へのバーチャル影及び、実世界の面でバーチャルオブジェクトを閉塞するシミュレーションなど、バーチャルビジュアル素子を置くことが含まれる。閉塞するシミュレーションを行う一つの技術は、場面の中で検知された実世界の表面上に、透明な(該表面を)閉塞するAR平面を生成することである。この技術は閉塞するにはいいが、影をレンダリングするには多くの技術的な欠点がある。
特に、影をレンダリングする技術にはシャドウマッピングがあるが、これはシャドウマップに、影をつけるもの(シャドウキャスター)としての不透明なオブジェクトを全て書き込まなければならない(即ち、関連する光源の視点からの深度マップ)。各光源について、各描かれたピクセルの深さが、シャドウマップ内に格納された深さに対してテストされ、ピクセルが影領域にあるか否かを決定する必要がある。その結果、影を透明な閉塞するAR平面につける試みは、二つの最適とはいえない結果の一つを生じる。一つは、シャドウキャスターが複数の表面(即ち、透明な閉塞するAR平面及び光源の視点から見て、AR平面の後ろにある表面)に影をつけるか、又は透明な閉塞するAR平面それ自体が、光源の視点から見て、AR平面の後ろにある表面に影をつけるかである。両方とも、リアルではない3D影特性となり、バーチャル及び実世界オブジェクトのシームレスな一体化を困難なものとする。
バーチャル及び実世界素子の混ざり合いが増え、既知の方法の欠点と結びついて、透明な閉塞するAR平面上にバーチャル影をレンダリングする方法及びシステムに対する必要性が生じる。それは、3Dバーチャルオブジェクトが実世界オブジェクトの場面に混ざる時、リアルな特性を持つことである。
本発明の第1の観点は、カメラを持ったコンピュータ装置上で動作する拡張現実アプリケーションを用いて、実世界表面上にバーチャル影をレンダリングする方法を提供するものである。本方法は、カメラを用いて1場面の画像を撮り、該画像中で実世界表面を検出するステップを有する。本方法は、また、その実世界表面の幾何学形状を取得し、該取得した幾何学形状を用いて、実世界表面上に透明な閉塞バーチャル平面をレンダリングするステップを有する。本方法は、更に、画像用のバーチャルディレクショナルライト(a virtual directional light)を生成するステップを有し、バーチャルディレクショナルライトは場面の空間内の1点から放射状に伸びる光である。ある実施例では、空間内の1点とは該空間の天頂である。この実施例では、バーチャルディレクショナルライトによる影付けは該場面内の全てのオブジェクト直上に影をつけることとなる。他の実施例では、空間内の1点は、最も強い、実世界の光源を配置することで決定される。また他の実施例では、空間内の1点は、場面内の他の点であるかもしれない。本方法は、更に、生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込み、シャドウバッファに書き込まれたテクスチャを、画像内の透明な閉塞バーチャル平面上に投影するステップを含む。
本発明の更なる視点は、カメラを持ったコンピュータ装置上で動作する拡張現実アプリケーションを用いて、画像の実世界表面上にバーチャル影をレンダリングするシステムを提供するものである。本システムは処理体(a processing entity)を有し、該処理体は、カメラを用いて1場面の画像を撮り、該画像中で実世界表面を検出し、該実世界表面の幾何学形状を取得するように構成されている。本処理体は、更に、該取得した幾何学形状を用いて、実世界表面上に透明な閉塞バーチャル平面をレンダリングするように構成される。本処理体は、更に、画像用のバーチャルディレクショナルライト(a virtual directional light)を生成するように構成されるが、バーチャルディレクショナルライトは場面の空間内の1点から放射状に伸びる光である。前記処理体は、更に、生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込み、シャドウバッファに書き込まれたテクスチャを、画像内の透明な閉塞バーチャル平面上に投影するように構成される。
本発明の更なる視点は、プロセッサが実行可能な指示が格納されたプロセッサ可読格納媒体であり、該指示は、プロセッサにより実行されると、プロセッサとカメラを持ったコンピュータ装置に、拡張現実アプリケーションを実行させることができる。拡張現実アプリケーションは、カメラを用いて1場面の画像を撮り、該画像中で実世界表面を検出し、該実世界表面の幾何学形状を取得するように構成されている。拡張現実アプリケーションは、更に、該取得した幾何学形状を用いて、実世界表面上に透明な閉塞バーチャル平面をレンダリングするように構成される。拡張現実アプリケーションは、更に、画像用のバーチャルディレクショナルライト(a virtual directional light)を生成するように構成されるが、バーチャルディレクショナルライトは場面の空間内の1点から放射状に伸びる光である。更に、拡張現実アプリケーションは、生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込ように構成されている。拡張現実アプリケーションは、更に、シャドウバッファに書き込まれたテクスチャを、画像内の透明な閉塞バーチャル平面上に投影するように構成される。
本発明の、これらの観点及び他の観点は、添付した図面と共に本発明の実施例の記述を参照することで、当業者にとって明らかとなる。
図1は、モバイルARアプリケーションで撮った場面を示すもので、実世界のテーブルのテーブル上表面及び実世界の床表面があり、それらはAR平面でカバーされている図。 図2は、モバイルARアプリケーションで撮られた一連の場面であり、バーチャルキャラクターが実世界のテーブルで閉塞されている図。 図3は、従来技術を用いて、バーチャルオブジェクトが透明なAR平面及びAR平面の下に位置する表面のそれぞれにバーチャル影を投影している状態を示す図。 図4は、従来技術を用いて、バーチャルオブジェクトが透明なAR平面にバーチャル影を投影しており、透明なAR平面が、該AR平面の下に位置するバーチャル表面にバーチャル影を投影している状態を示す図。 図5は、本発明の実施例により、バーチャルオブジェクトが透明なAR平面上にバーチャル影を投影している状態を示す図。 図6は、本発明の実施例により、バーチャルキャラクターが実世界の表面にレンダリングされ、バーチャル影が投影されている場面を示す図。 図7は、バーチャルキャラクターが、周囲の閉塞なく、実世界の表面にレンダリングされている場面を示す図。 図8は、バーチャルキャラクターが、本発明の実施例により、周囲を閉塞して、実世界の表面にレンダリングされている場面を示す図。 図9は、本発明の実施例により、領域効果の深さで閉塞をレンダリングする場面を示す図。 図10は、本発明の実施例により、透明なAR平面上に影をレンダリングする際のステップを示すフローチャート。
添付した図面は、非限定的な実施例を示すものであり、限定的なものではない。
図1に、モバイルARアプリケーションで撮った場面100を示す。ある実施例では、モバイルARアプリケーションは、スマートフォン(図示せず)やタブレット(図示せず)などのモバイル機器で実行される。場面100は、実世界のテーブル上表面103を有する実世界のテーブル102及び実世界の床表面101を有する。この例では、床表面101はモバイルARアプリケーションで検知され、テーブル上表面103もまたモバイルARアプリケーションで検知されている。AR平面がテーブル上表面103及び床表面上にそれぞれ生成される。特に、AR平面104がテーブル上表面103の上に、AR平面101が床表面の上に生成されている。
図2に、モバイル機器(図示せず)のスクリーン200〜200上で示される一連の場面であり、バーチャルキャラクター202及びバーチャルオブジェクト203が実世界のテーブル天板201により徐々に閉塞されてゆく情景を示している。この効果は、AR平面をテーブル天板201上にレンダリングして(図1に示すように)、シェーダーでAR平面を視覚的に透明にするが、AR平面を場面用のZバッファに、それで閉塞することが出来るように書き込んでおくことで生成される。ここで、シェーダーはコンピュータプログラム、モジュール又はアルゴリズムであり、オブジェクトの3D表面特性をどのようにレンダリングし、モバイルARアプリケーション内でオブジェクトとの光の相互作用をどのようにするかを決定している。
平面を視覚的に透明にするシェーダーを使用して視覚的に透明なAR平面をレンダリングすると、該AR平面の後ろにある他のバーチャルオブジェクトのレンダリングを阻止し、実世界の表面がバーチャルオブジェクトを視野から除外する錯覚を生成する効果がある。「閉塞」AR平面をレンダリングする際に、Zバッファへの書き込みとターゲットの色のレンダリングプロセスは、分離することができる。従って、Zバッファへの通常の書き込みを行う間に、色の書き込みを放棄することで、閉塞AR平面を完全に透明にし、しかも影を受けるようにすることが可能となる。
こうした透明な閉塞AR平面を、影を受ける表面として使用するに場合、技術的な問題が生じる。図3に示すように、従来のシャドウマッピング技術を使用すると、シャドウキャスター(即ち、バーチャルオブジェクト301)が影を複数の表面に投影してしまう。図3に示すように、影304が、透明な閉塞AR平面303上に、そして影305が床平面302上に投影されている。これは、従来のシャドウマッピング技術が、シャドウマップ上へのシャドウキャスターとして考えられる全ての不透明なオブジェクトを描くこととなっており(即ち、pre-passをレンダリング)、シャドウマップに格納される深さに対して各描かれたピクセルの深さをテストし、そのピクセルラインが影領域にあるか否を決定する(即ち、メインレンダリングパス)こととしているからである。特に、この技術を用いて影が二重になるのは、図3の透明な閉塞AR平面がシャドウマップに記載されておらず、床平面302がシャドウマップに記載されているからである。これからもわかるように、3Dバーチャルオブジェクトと実世界オブジェクトの混合した場面は非現実的な特性を持つこととなる。
この問題への一つの対処法は、透明な閉塞AR平面をシャドウマップに書くことである。この方法は、図4の場面400で示すような新たな問題を生じさせる。特に、透明な閉塞AR平面404をシャドウマップに書くと、それがシャドウキャスターとなってしまう点である。これにより、影404がバーチャルオブジェクト401により透明な閉塞AR平面403上に正しく投影されるが、影405も透明な閉塞AR平面404により床平面402上に投影されることとなる。これからもわかるように、この場合も、3Dバーチャルオブジェクトと実世界オブジェクトの混合した場面は非現実的な特性を持つこととなる。
ここで述べる方法及びシステムは、こうした問題を解決することが出来、例えば図5に示すように、図5の場面500は影504がバーチャルオブジェクト501により透明な閉塞AR平面503上に投影されるが、床平面502には、バーチャルオブジェクト501及び透明な閉塞AR平面503からの影は投影されていない。これは現実的な特性を持った場面を作ることが出来、図10に示す方法1000を用いて達成することができる。
図10に示すように、いくつかの実施例では、方法1000は第1ステップ1001を有し、そこでは、モバイルARアプリケーションは常に実世界環境を追跡して実世界の表面を検出する。表面がステップ1002で検出されるまで、この方法は実世界環境を追跡して実世界の表面を検出することを続ける。図1に示すように、表面103がステップ1002で検出されると、モバイルARアプリケーションはステップ1003で表面103の幾何学形状を取得する。言い換えと、ARアプリケーションが閉塞AR平面104を生成する。次いで、ステップ1004で、閉塞AR平面は、前述したように、例えば透明にレンダリングされる。こうして閉塞AR平面104が透明となる一方で、他のバーチャルオブジェクトからの影を投影されることが出来るようになる。
ステップ1005では、グレースケールシャドウバッファを生成して、バーチャルオブジェクト501の表現を、光源からの遠近法で引き出す。特に、ARアプリケーションは実世界で太陽光線のように作用するバーチャルディレクショナルライトを生成し(又は室内環境での最も強い光源)、この光源をシャドウキャスティング用に使用する。なお、従来のシャドウマッピング技術もこの方法と共に使用可能であることは、当業者にとって自明である。
バーチャルオブジェクト501の表現が一旦、シャドウバッファに書き込まれると、ARアプリケーションはステップ1006で最も近い影投影表面503上にシャドウバッファ内に書き込まれたテクスチャを投影する。これは、例えば、テクスチャ画像を場面上に投影することのできる、投影テクスチャマッピング(projective texture mapping)法を使用する。この方法は、よく知られた方法である(例えば、Unity TechnologiesTMのthe Projector component)。特に、ARアプリケーションは、場面500に影504を描画するために乗算ブレンド(multiplicative blending)を使用する。図5に示すように、ある実施例では、ARアプリケーションはバーチャル影及び透明な閉塞AR平面の頂点位置の環境光も採取し、影の色がバーチャル場面から来る環境光により着色されるようにする。これは不自然な黒い影を避けるために有効である。非限定的な実施例では、この採取は、Unity TechnologiesTMのthe Light Probe system を使用して行うことが出来る。ある実施例では、影の色への着色は、シャドウプロジェクターをレンダリングする時に影の色に環境色を加えることで行うことが出来、これによりまっ黒の代わりにベースラインカラーを影に与えることが出来る。
上記した方法は、既知の方法に対して多くの利点を与える。例えば、上記したように、この方法では、複数の重なった表面上に影を投影することが無く、透明な平面が影を作ることもない。また、本方法は、透明な閉塞AR平面上の一つの影をレンダリングし、閉塞AR平面は影を作らない。
更に、シャドウバッファのパーツは、透明な閉塞AR平面上にそのまま描かれるので(即ち、シャドウバッファ内に書き込まれると、単に深さ値の比較に使用されるだけでなく)、それらを投影/描画する前に、影をぼかすことが可能となる(図5に示すように)。これにより、シャドウマッピング技術によってソフトな影を生成する場合に比して、演算の煩わしさ無く、よりソフトな外見の影を生成することが出来ることが、わかる。
更に、ARアプリケーションは全てのシャドウキャスティングオブジェクトを別個に扱うことが出来、それぞれのオブジェクトを任意の時点でアップデートすることができ、パフォーマンスの向上に寄与し得る。例えば前のフレームからのシャドウバッファを簡単に使用することが出来、それはシャドウキャスティングオブジェクトの位置に束縛されない(即ち、オブジェクトが移動したら、影はシャドウバッファを書き換えること無く移動することができる)。
図6は、透明なAR平面(図示せず)上にレンダリングされたバーチャルキャラクター602からの影603を示す場面であり、透明なAR平面は上述した方法を用いて実世界テーブル601の頂点に重ねられている。その結果、図からもわかるように、バーチャルオブジェクト602により実世界の表面601上に投影されたバーチャル影603が出来ている。
ここで述べた本方法及びシステムの他の利点は、当業者にとって自明である。例えば、場面のZバッファによる透明な閉塞AR平面は、規則的なバーチャル幾何形状が多いので、必要な複数のスクリーンスペース効果に関するデータを供給し、バーチャルオブジェクトと実世界の物理表面との相互関連をリアルなものとすることが出来る。
例えば、ある実施例では、ARアプリケーションはAR平面からの深さデータを、a Screen-Space Ambient Occlusion (SSAO) post-processing passのために使用している。SSAOは、場面内で各ピクセルをどれだけ環境光にリアルタイムで露出させるかを概算するためのよく知られたコンピュータグラフィックアルゴリズムである。例えば、図7に、実世界の表面701上にバーチャルキャラクター702をレンダリングした場面であるが、アンビエントオクルージョン(ambient occlusion)はなされていない。また、図8は、アンビエントオクルージョン803、804で、同じバーチャルキャラクター802がレンダリングされた場面800である。図7及び図8を比較すれば分かるが、アンビエントオクルージョンは、オブジェクトが交わる場所でシェーディングを掛けて、広がっているクレバス、クラック又は全体的に閉塞された平面から排除された光の効果をシミュレートしている。これにより、例えば、テーブルとキャラクター間の視覚的な交わりがよりリアルなものとなり、モバイルARアプリケーションのユーザを喜ばす。
図9に、本方法の別の利点を述べる。特に、ここで述べた方法を用いることで、場面900でフィールドエフェクトの深さをレンダリングすることが可能となる。特に、フィールドの深さとは、画像内で焦点が合っている、最も近いオブジェクトと最も遠いオブジェクト間の距離である。
コンピュータグラフィックの用語で、フィールドエフェクトの深さを生成することは、「カラーバッファ」(即ち、レンダリングされた画像)及びZバッファ入力を用いるフルスクリーンポストプロセスエフェクト(a full-screen post-process effect)である。このプロセスは、画像の可変サイズでのぼかしを、ピクセルの深さと所定のバーチャル焦点面間の相違によって生じる混乱のバーチャルサークルの大きさを効果的に変更しつつ行うことができる。透明な閉塞AR平面がZバッファに書き込まれているので、バーチャル焦点面からの距離の機能として着実にぼかしを行うことができる。
図9に示す場合、一旦、透明なAR平面が地面にレンダリングされると、フィールドのバーチャル深さ外でレンダリングされているバーチャルキャラクター904をぼかすばかりか、透明なAR平面それ自体も着実にぼかすことが出来、それはバーチャル焦点面から更に遠い。
その結果、上記した開示によるフィールドエフェクトの深さは、物理カメラの焦点面を真似ている。これらの効果は、通常レンダリングされたバーチャルオブジェクトにだけ作用するが、再びAR平面がZバッファへ書き込むことで、ARアプリケーションは全場面に効果を広げることが出来、ある実世界の表面及びバーチャル表面に焦点が合い、他のものもぼかされる。
記述及び図面は、本発明の原則の単なる表示である。当業者は、ここに明確に述べられていない、又は示されていない多様な変形を行って、本発明の原則を具現化することが出来るが、それらは添付した請求項に規定されるように、その範囲内である。
更に、ここに挙げた全ての例は、読者に本発明の原則を理解してもらうための助けであり、特に語られた例や条件は無条件でそう解釈されるべきものである。例えば、本発明の実施例は、床、テーブル及びバーチャルオブジェクト及びキャラクターを有する場面を参照して述べられた。しかし、本発明は、実世界のオブジェクト及び表面と他のバーチャルオブジェクトとの別の組み合わせからなる場面も当然使用可能である。
当然、本発明の原則、視点、実施例を語る全ての文言、及び例は均等の範囲である。
更に、モバイル装置に言及した前述の記述は、当業者にとっては、多様な方法のステップが多数の計算装置によりなし得ることは自明であり、それらの装置には、ビデオカメラ、デジタルカメラ、赤外線カメラ、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、スマートフォン、スマートウオッチ又は他のウエアラブルなものが含まれる。ここで、ある実施例では、プログラム格納装置、例えば,デジタルデータ格納媒体をカバーする形となっている。それは、装置又はコンピュータ可読及びエンコード機械実行可能又はコンピュータ実行可能な指示プログラムである。ここで、前記指示は上記した方法の全て又はいくつかのステップを実行する。実施例は、上記した方法のステップを実行するようにプログラムされたコンピュータを含む。
ここで述べた実施例のどの特徴も、いくつかの実施例で議論した他の実施例の特徴と組み合わせることができる。ある実施例の運転に必要な追加的な素子は述べられていないか、図示されていないが、これは当業者の思想の範囲内のことである。更に、ある実施例は、ここで特に開示されていない素子がなくてもよく、また無くても機能する。

Claims (29)

  1. カメラを有するコンピュータ装置上で実行される拡張現実アプリケーションを使って、画像内の実世界表面上にバーチャル影をレンダリングする方法であって、
    該方法は、以下のステップを有する、
    前記カメラを用いて場面の画像を取得する、
    前記画像中の実世界表面を検出する、
    該実世界表面の幾何学形状を取得する、
    得られた幾何学形状を利用して、前記実世界表面上に透明な閉塞バーチャル平面をレンダリングする。
    画像用のバーチャルディレクショナルライトを生成するが、該バーチャルディレクショナルライトは前記場面の空間内の1点から放射状に光を発する、
    生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込む、
    前記シャドウバッファに書き込まれたテクスチャを、画像内の前記透明な閉塞バーチャル平面上に投影する。
  2. 請求項1記載の方法であって、前記透明な閉塞バーチャル平面をレンダリングするステップは、更に、以下のステップを有する、
    前記バーチャル平面のレンダリング時に、色を無効化してバーチャル平面をレンダリングして書き込む、
    該バーチャル平面を前記画像のZバッファに書き込む。
  3. 請求項1又は2記載の方法であって、前記コンピュータ装置は、モバイル装置である。
  4. 請求項3記載の方法であって、前記モバイル装置は、スマートフォン又はタブレットである。
  5. 請求項1乃至4の内、いずれか1項記載の方法であって、前記バーチャルオブジェクトは、ゲームキャラクターであり、前記拡張現実アプリケーションは拡張現実ビデオゲームである。
  6. 請求項1乃至5の内、いずれか1項記載の方法であって、前記レンダリングは、シェーダーを用いて行う。
  7. 請求項1乃至6の内、いずれか1項記載の方法であって、前記シャドウバッファに書き込まれたテクスチャを、前記透明な閉塞バーチャル平面上に投影するステップは、投影テクスチャマッピング(projective texture mapping)を含む。
  8. 請求項7記載の方法であって、前記シャドウバッファに書き込まれたテクスチャを、前記透明な閉塞バーチャル平面上に投影するステップは、乗算ブレンド(multiplicative blending)を使用することで、前記画像に影を描くことを含む。
  9. 請求項1乃至8の内、いずれか1項記載の方法であって、該方法は、更に、バーチャル影及び透明閉塞AR平面の頂点位置で環境光を採取するステップを有し、前記投影ステップは、更に、前記採取された環境光のレベルを用いて、前記バーチャル影を着色するステップを含む。
  10. 請求項1乃至9の内、いずれか1項記載の方法であって、該方法は、更に、前記シャドウバッファに書き込まれたバーチャル影をぼかすステップを有する。
  11. 請求項1乃至10の内、いずれか1項記載の方法であって、該方法は、更に、バーチャルオブジェクトと透明な閉塞バーチャル平面間のアンビエントオクルージョンを生成するために、前記画像をポストプロセス(post-processing)するステップを含む。
  12. 請求項1乃至11の内、いずれか1項記載の方法であって、該方法は、更に、前記画像をポストプロセスして、カメラに対する深さ(Z値)に基づいて、透明な閉塞バーチャル平面のピクセルを部分的にぼかすことで、フィールドエフェクトの深さを生成するようにするステップを含む。
  13. 請求項1乃至12の内、いずれか1項記載の方法であって、前記場面内の空間の1点は、最も強い実世界の光源を配置することで決定される。
  14. 請求項1乃至12の内、いずれか1項記載の方法であって、前記場面内の空間の1点は、天頂である。
  15. カメラを持ったコンピュータ装置上で動作する拡張現実アプリケーションを用いて、画像の実世界表面上にバーチャル影をレンダリングするシステムであって、
    該システムは、処理体を有し、該処理体は、
    カメラを用いて1場面の画像を撮り、
    該画像中で実世界表面を検出し、
    該実世界表面の幾何学形状を取得し、
    得られた幾何学形状を利用して、前記実世界表面上に透明な閉塞バーチャル平面をレンダリングする。
    画像用のバーチャルディレクショナルライトを生成するが、該バーチャルディレクショナルライトは前記場面の空間内の1点から放射状に光を発する、
    生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込む、
    前記シャドウバッファに書き込まれたテクスチャを、画像内の前記透明な閉塞バーチャル平面上に投影するように構成されている。
  16. プロセッサが実行可能な指示が格納されたプロセッサ可読格納媒体であり、該指示は、プロセッサにより実行されると、プロセッサとカメラを持ったコンピュータ装置に、拡張現実アプリケーションを実行させることができ、
    前記拡張現実アプリケーションは、
    カメラを用いて1場面の画像を撮り、
    該画像中で実世界表面を検出し、
    該実世界表面の幾何学形状を取得し、
    得られた幾何学形状を利用して、前記実世界表面上に透明な閉塞バーチャル平面をレンダリングする、
    画像用のバーチャルディレクショナルライトを生成するが、該バーチャルディレクショナルライトは前記場面の空間内の1点から放射状に光を発する、
    生成されたバーチャルディレクショナルライト光源を使って、バーチャルオブジェクトに関連するテクスチャをシャドウバッファに書き込む、
    前記シャドウバッファに書き込まれたテクスチャを、画像内の前記透明な閉塞バーチャル平面上に投影するように構成されている。
  17. 請求項16記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションにおける、前記透明な閉塞バーチャル平面のレンダリングは、
    前記バーチャル平面のレンダリング時に、色を無効化してバーチャル平面をレンダリングして書き込む、及び、
    該バーチャル平面を前記画像のZバッファに書き込むことを含む。
  18. 請求項16又は17記載のプロセッサ可読格納媒体であって、前記コンピュータ装置は、モバイル装置である。
  19. 請求項18記載のプロセッサ可読格納媒体であって、前記モバイル装置は、スマートフォン又はタブレットである。
  20. 請求項16乃至19の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記バーチャルオブジェクトは、ゲームキャラクターであり、前記拡張現実アプリケーションは拡張現実ビデオゲームである。
  21. 請求項16乃至20の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、シェーダーを用いてレンダリングを行うように構成されている。
  22. 請求項16乃至21の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、前記シャドウバッファに書き込まれたテクスチャの、前記画像内の透明な閉塞バーチャル平面上への投影は、投影テクスチャマッピング(projective texture mapping)を使用して行うように構成されている。
  23. 請求項22項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、更に、前記シャドウバッファに書き込まれたテクスチャを、前記画像内の透明な閉塞バーチャル平面上へ投影する際は、前記影を前記画像内に乗算ブレンド(multiplicative blending)を使用して書き込むように構成されている。
  24. 請求項16乃至23の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、更に、バーチャル影及び透明閉塞AR平面の頂点位置で環境光を採取し、前記採取された環境光のレベルを用いて、前記バーチャル影を着色するように構成されている。
  25. 請求項16乃至24の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、更に、前記シャドウバッファに書き込まれたバーチャル影をぼかすように構成されている。
  26. 請求項16乃至25の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、更に、バーチャルオブジェクトと透明な閉塞バーチャル平面間のアンビエントオクルージョンを生成するために、前記画像をポストプロセス(post-processing)するように構成されている。
  27. 請求項16乃至26の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記拡張現実アプリケーションは、更に、前記画像をポストプロセスして、カメラに対する深さ(Z値)に基づいて、透明な閉塞バーチャル平面のピクセルを部分的にぼかすことで、フィールドエフェクトの深さを生成するように構成されている。
  28. 請求項16乃至27の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記場面内の空間の1点は、最も強い実世界の光源を配置することで決定される。
  29. 請求項16乃至27の内、いずれか1項記載のプロセッサ可読格納媒体であって、前記場面内の空間の1点は、天頂である。
JP2019149170A 2019-06-03 2019-08-15 拡張現実アプリケーション用システム及び方法 Active JP7089495B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CA3045133 2019-06-03
CA3045133A CA3045133C (en) 2019-06-03 2019-06-03 Systems and methods for augmented reality applications

Publications (2)

Publication Number Publication Date
JP2020198066A true JP2020198066A (ja) 2020-12-10
JP7089495B2 JP7089495B2 (ja) 2022-06-22

Family

ID=73550327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149170A Active JP7089495B2 (ja) 2019-06-03 2019-08-15 拡張現実アプリケーション用システム及び方法

Country Status (3)

Country Link
US (1) US10891796B2 (ja)
JP (1) JP7089495B2 (ja)
CA (1) CA3045133C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11961184B2 (en) 2021-09-17 2024-04-16 Samsung Electronics Co., Ltd. System and method for scene reconstruction with plane and surface reconstruction

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11471773B2 (en) * 2019-08-01 2022-10-18 Krikey, Inc. Occlusion in mobile client rendered augmented reality environments
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN112700528B (zh) * 2020-12-21 2022-08-12 南京理工大学 一种用于头戴增强现实设备的虚拟物体阴影渲染方法
CN114385289B (zh) * 2021-12-23 2024-01-23 北京字跳网络技术有限公司 一种渲染显示方法、装置、计算机设备及存储介质
EP4258220A1 (en) * 2022-04-07 2023-10-11 Beijing Xiaomi Mobile Software Co., Ltd. Rendering of augmented reality (ar) content

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259853A (ja) * 1999-03-08 2000-09-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置及び記録媒体
JP2002197486A (ja) * 2000-12-22 2002-07-12 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2007141082A (ja) * 2005-11-21 2007-06-07 Namco Bandai Games Inc プログラム、テクスチャデータ構造、情報記憶媒体及び画像生成システム
JP2008152749A (ja) * 2006-12-14 2008-07-03 Shijin Kogyo Sakushinkai 3d画像のセルフシャドウを発生させるに必要な情報を予め記憶する装置、方法、アプリケーションプログラムおよびコンピュータ読取り可能媒体
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2010134919A (ja) * 2008-12-05 2010-06-17 Internatl Business Mach Corp <Ibm> アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム
JP2015084150A (ja) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015185176A (ja) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム
WO2019033859A1 (zh) * 2017-08-18 2019-02-21 腾讯科技(深圳)有限公司 模拟光照的渲染方法及终端
US20190102934A1 (en) * 2017-10-04 2019-04-04 Google Llc Shadows for inserted content

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3527196B2 (ja) * 2000-11-16 2004-05-17 株式会社ソニー・コンピュータエンタテインメント テクスチャ描画方法、エンタテインメント装置および記録媒体
US6876362B1 (en) * 2002-07-10 2005-04-05 Nvidia Corporation Omnidirectional shadow texture mapping
US20110285736A1 (en) * 2010-05-21 2011-11-24 Kilgard Mark J Decomposing cubic bèzier segments for tessellation-free stencil filling
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
US9530244B2 (en) * 2014-11-11 2016-12-27 Intergraph Corporation Method and apparatus for shadow estimation and spreading
US20160155261A1 (en) * 2014-11-26 2016-06-02 Bevelity LLC Rendering and Lightmap Calculation Methods
GB2546811B (en) * 2016-02-01 2020-04-15 Imagination Tech Ltd Frustum rendering
US10748332B2 (en) * 2017-03-15 2020-08-18 Nvidia Corporation Hybrid frustum traced shadows systems and methods
US10475248B1 (en) * 2018-06-08 2019-11-12 Microsoft Technology Licensing, Llc Real-time compositing in mixed reality

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259853A (ja) * 1999-03-08 2000-09-22 Sony Computer Entertainment Inc 画像処理方法、画像処理装置及び記録媒体
JP2002197486A (ja) * 2000-12-22 2002-07-12 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP2007141082A (ja) * 2005-11-21 2007-06-07 Namco Bandai Games Inc プログラム、テクスチャデータ構造、情報記憶媒体及び画像生成システム
JP2008152749A (ja) * 2006-12-14 2008-07-03 Shijin Kogyo Sakushinkai 3d画像のセルフシャドウを発生させるに必要な情報を予め記憶する装置、方法、アプリケーションプログラムおよびコンピュータ読取り可能媒体
JP2009163610A (ja) * 2008-01-09 2009-07-23 Canon Inc 画像処理装置及び画像処理方法
JP2010134919A (ja) * 2008-12-05 2010-06-17 Internatl Business Mach Corp <Ibm> アンビエント・オクルージョンを使用する写実的画像処理のためのシステム、方法、およびプログラム
JP2015084150A (ja) * 2013-10-25 2015-04-30 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2015185176A (ja) * 2014-03-25 2015-10-22 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 現実環境の視野におけるバーチャルオブジェクトを表現方法及びシステム
WO2019033859A1 (zh) * 2017-08-18 2019-02-21 腾讯科技(深圳)有限公司 模拟光照的渲染方法及终端
US20190102934A1 (en) * 2017-10-04 2019-04-04 Google Llc Shadows for inserted content

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANDREAS POMI AND PHILIPP SLUSALLEK: "Interactive Mixed Reality Rendering in a Distributed Ray Tracing Framework", IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY ISMAR 2004, STUDENT COLLOQUIUM, JPN7021004045, 2005, ISSN: 0004604515 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11961184B2 (en) 2021-09-17 2024-04-16 Samsung Electronics Co., Ltd. System and method for scene reconstruction with plane and surface reconstruction

Also Published As

Publication number Publication date
JP7089495B2 (ja) 2022-06-22
CA3045133A1 (en) 2020-12-03
US20200380790A1 (en) 2020-12-03
CA3045133C (en) 2023-03-21
US10891796B2 (en) 2021-01-12

Similar Documents

Publication Publication Date Title
JP7089495B2 (ja) 拡張現実アプリケーション用システム及び方法
US11694392B2 (en) Environment synthesis for lighting an object
JP5531093B2 (ja) コンピュータグラフィックスでオブジェクトにシャドウを付ける方法
Haller et al. A real-time shadow approach for an augmented reality application using shadow volumes
CN107306332B (zh) 闭塞直接视图增强现实系统、计算设备及方法
CN111968215B (zh) 一种体积光渲染方法、装置、电子设备及存储介质
JP2006053694A (ja) 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
US9183654B2 (en) Live editing and integrated control of image-based lighting of 3D models
US11238572B2 (en) Device and method for dynamic range expansion in a virtual reality scene
Dos Santos et al. Real time ray tracing for augmented reality
US11810248B2 (en) Method for processing image data to provide for soft shadow effects using shadow depth information
US11328437B2 (en) Method for emulating defocus of sharp rendered images
US20230230311A1 (en) Rendering Method and Apparatus, and Device
Dong et al. Real-time re-textured geometry modeling using Microsoft HoloLens
Schwandt et al. Glossy reflections for mixed reality environments on mobile devices
Dai et al. Interactive mixed reality rendering on holographic pyramid
Kunert et al. An efficient diminished reality approach using real-time surface reconstruction
JP7387029B2 (ja) ソフトレイヤ化および深度認識インペインティングを用いた単画像3d写真技術
Grosch PanoAR: Interactive augmentation of omni-directional images with consistent lighting
US8970626B2 (en) System, method, and computer program product for adding computer-generated scene elements into a representation of a real-world scene, using path tracing
US20220076382A1 (en) Method for Applying a Vignette Effect to Rendered Images
US11810241B2 (en) Systems and methods for ray traced contact shadows
Alfakhori et al. Occlusion screening using 3d city models as a reference database for mobile ar-applications
CN111968214B (zh) 一种体积云渲染方法、装置、电子设备及存储介质
US20220215512A1 (en) Method for Emulating Defocus of Sharp Rendered Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220610

R150 Certificate of patent or registration of utility model

Ref document number: 7089495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350