JP6272687B2 - Construction of augmented reality environment with pre-calculated lighting - Google Patents

Construction of augmented reality environment with pre-calculated lighting Download PDF

Info

Publication number
JP6272687B2
JP6272687B2 JP2013261856A JP2013261856A JP6272687B2 JP 6272687 B2 JP6272687 B2 JP 6272687B2 JP 2013261856 A JP2013261856 A JP 2013261856A JP 2013261856 A JP2013261856 A JP 2013261856A JP 6272687 B2 JP6272687 B2 JP 6272687B2
Authority
JP
Japan
Prior art keywords
augmented reality
reality image
modular
lighting
virtual structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013261856A
Other languages
Japanese (ja)
Other versions
JP2015118574A5 (en
JP2015118574A (en
Inventor
ジョナサン・スティード
アーロン・クラウス
マイク・スカヴェッゼ
ウェイ・ジャーン
アーサー・トムリン
トニー・アンブラス
ブライアン・マウント
スティーヴン・ラッタ
ライアン・ヘイスティングス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Priority to JP2013261856A priority Critical patent/JP6272687B2/en
Publication of JP2015118574A publication Critical patent/JP2015118574A/en
Publication of JP2015118574A5 publication Critical patent/JP2015118574A5/ja
Application granted granted Critical
Publication of JP6272687B2 publication Critical patent/JP6272687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

[0001] バーチャルビデオゲーム環境などの仮想環境にリアルな照明と影を付加することは、計算処理上、コストが高くなることがある。それ故に、照明効果にかかるレンダリング時間は、ビデオゲームのプレイ中に使用するには容認しがたいほどに長くなり得る。例えば、リアルな照明(例えば大域照明)と影をエンコードするテクスチャマップ(「ライトマップ」)を仮想環境上に作成することは、その計算に数時間、あるいは数日を要することさえある。したがって、仮想環境のためのそのような照明効果は、一般に、ゲームのプレイ中にリアルタイムで計算されるのではなく、その仮想環境の開発の際に事前計算される。   [0001] Adding realistic lighting and shadows to a virtual environment such as a virtual video game environment may be costly in terms of computational processing. Therefore, the rendering time for lighting effects can be unacceptably long for use during video game play. For example, creating realistic lighting (eg, global lighting) and texture maps (“light maps”) that encode shadows in a virtual environment can take hours or even days to calculate. Thus, such lighting effects for a virtual environment are generally precomputed during the development of the virtual environment, rather than being calculated in real time during game play.

[0002] 動的照明及び付影処理は、より高速に計算されることができる。しかしながら、動的照明の視覚的な品質は、事前計算された照明効果の視覚的な品質よりもずっと低い場合がある。更に、動的照明は、実行時にかなりのリソースを使用することがある。   [0002] Dynamic lighting and shadow processing can be calculated at higher speed. However, the visual quality of dynamic lighting may be much lower than the visual quality of pre-calculated lighting effects. Furthermore, dynamic lighting can use significant resources at runtime.

[0003] 大域照明効果を有した拡張現実環境を効率的に構築することに関連する様々な実施態様が開示される。例えば、開示される1つの実施態様は、ディスプレイデバイスを介して拡張現実画像を表示する方法を提供する。当該方法は、前記ディスプレイデバイスの局所的な環境の画像を撮影した画像データを受け取るステップと、前記画像データを介して前記局所的な環境の物理的特徴物を識別するステップとを含む。当該方法は、更に、前記物理的特徴物の上にユーザーの視点から見て前記物理的特徴物と空間的に位置合わせした状態で表示するための、仮想構造の拡張現実画像を構築するステップであって、前記拡張現実画像は、前記仮想構造の特徴を形成するように隣接位置に配列された複数のモジュール型仮想構造セグメントを含み、それぞれのモジュール型仮想構造セグメントは、事前計算された照明効果を備える、ステップと、前記拡張現実画像を前記ディスプレイデバイスへ出力するステップとを含む。   [0003] Various embodiments are disclosed that relate to efficiently building an augmented reality environment with global lighting effects. For example, one disclosed embodiment provides a method for displaying an augmented reality image via a display device. The method includes receiving image data taken of an image of a local environment of the display device, and identifying physical features of the local environment via the image data. The method further includes the step of constructing an augmented reality image of a virtual structure for display on the physical feature in a state spatially aligned with the physical feature as seen from the user's viewpoint. The augmented reality image includes a plurality of modular virtual structure segments arranged in adjacent positions so as to form a feature of the virtual structure, each modular virtual structure segment having a pre-computed lighting effect And outputting the augmented reality image to the display device.

[0004] この概要は、詳細な説明において更に後述される概念からの選抜を簡略な形で導入するために提供される。この概要は、請求された主題の主要な特徴又は本質的な特徴を特定することを意図したものではなく、また、請求された主題の有効範囲を限定するのに用いられることを意図したものでもない。更にまた、請求された主題は、この開示のいずれかの部分に述べられたいくつかの、又は全ての欠点を解決する具体例には限定されない。   [0004] This summary is provided to introduce a selection of concepts in a simplified form that are further described below in the detailed description. This summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Absent. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.

図1は、例示的な使用環境におけるシースルー・ディスプレイデバイスの例示的な実施態様を示す。FIG. 1 illustrates an exemplary implementation of a see-through display device in an exemplary use environment. 図2は、図1の例示的な使用環境における拡張現実画像の一実施態様を示す。FIG. 2 illustrates one embodiment of an augmented reality image in the exemplary use environment of FIG. 図3は、モジュール型仮想構造セグメントのセットの例示的な実施態様を示す。FIG. 3 illustrates an exemplary implementation of a set of modular virtual structure segments. 図4は、モジュール型仮想構造セグメントの一部分に対して適用された事前計算された照明効果の模式的な描写を示す。FIG. 4 shows a schematic depiction of pre-calculated lighting effects applied to a portion of a modular virtual structure segment. 図5Aは、図2の拡張現実画像への動的点照明効果の追加を示す。FIG. 5A shows the addition of a dynamic point lighting effect to the augmented reality image of FIG. 図5Bは、事前計算された照明効果を有するモジュール型仮想構造セグメントの一部分上の動的点照明効果の一例を示す。FIG. 5B shows an example of a dynamic point lighting effect on a portion of a modular virtual structure segment having a pre-calculated lighting effect. 図6は、検出された物理的環境にフィットした仮想環境を構築するための方法の一実施態様を表しているフロー図を示す。FIG. 6 shows a flow diagram representing one embodiment of a method for building a virtual environment that fits a detected physical environment. 図7は、シースルー・ディスプレイデバイスの例示的な実施態様のブロック図を示す。FIG. 7 shows a block diagram of an exemplary embodiment of a see-through display device. 図8は、コンピューティングシステムの例示的な実施態様のブロック図を示す。FIG. 8 shows a block diagram of an exemplary implementation of a computing system.

[0013] 上述されたように、仮想環境のためのリアルな照明効果は、一般に仮想環境が構築された後に事前計算されて、その後、例えばその仮想環境のライトマップとして記憶される。そのような仮想環境は、通常、ユーザーの周囲には適応していない固定の幾何学的構造によって作られている。   [0013] As described above, realistic lighting effects for a virtual environment are generally pre-calculated after the virtual environment is constructed and then stored, for example, as a light map of the virtual environment. Such a virtual environment is usually created by a fixed geometric structure that is not adapted around the user.

[0014] 対照的に、拡張現実表示システムは、仮想的な画像をユーザーの周囲に適応させるように構成されることができる。例えば、拡張現実のビデオゲームは、ゲーム内の仮想的な構造物を、ユーザーの物理的環境の対応する物理的な構造物にフィットさせることができる。このように、拡張現実の画像オブジェクトの幾何学的配置は、ユーザーの物理的環境に基づいて変化し得る。   [0014] In contrast, an augmented reality display system can be configured to adapt a virtual image around the user. For example, an augmented reality video game can fit a virtual structure in the game to a corresponding physical structure in the user's physical environment. In this way, the geometrical arrangement of augmented reality image objects can vary based on the physical environment of the user.

[0015] 拡張現実環境の物理的環境へのフィッティングはリアルタイムの使用の間に行われるので、もし環境を作成した後に高品質な照明効果がその環境に適用されるのなら、その照明の計算処理もその時に行われることになる。しかしながら、もし拡張現実環境のためのそのような照明効果が、拡張現実画像を物理的環境にフィットさせた後に計算されるとしたら、ユーザーは、リアルな照明効果を適用することの計算処理上のコストのせいで、照明効果を計算するために用いられる特定のコンピューティングシステムに応じて、拡張現実体験をプレイするのに数時間から数日待たなければならないかもしれない。このことは、容認しがたいほどに遅いユーザー体験をもたらし得る。更に、物理的環境の有り様は、そのような長い時間遅れの間に変化するかもしれない。このことは、現実世界と仮想世界の間の不整合を招来する可能性があり、この不整合は、拡張現実体験に著しい影響を及ぼし得る。   [0015] Since the fitting of the augmented reality environment to the physical environment is performed during real-time use, if a high quality lighting effect is applied to the environment after the environment is created, the lighting calculation process Will be done at that time. However, if such a lighting effect for an augmented reality environment is calculated after fitting the augmented reality image to the physical environment, the user is computationally involved in applying a realistic lighting effect. Due to the cost, depending on the particular computing system used to calculate the lighting effects, it may be necessary to wait hours to days to play the augmented reality experience. This can lead to an unacceptably slow user experience. In addition, the physical environment may change during such long time delays. This can lead to inconsistencies between the real world and the virtual world, which can have a significant impact on the augmented reality experience.

[0016] 1つのとり得る解決策として、拡張現実環境のための事前計算された照明効果の代わりに、動的照明が使用されることができる。しかしながら、上述されたように、動的照明は、事前計算された照明よりも低品質である場合があり、したがって、それほど良好なユーザー体験を提供しないかもしれない。更に、動的照明は実行時に計算処理上のコストが高い場合があり、そのことは、他の映像やゲームプレイなど、体験の別側面に対する計算バジェットを減らしてしまうかもしれない。   [0016] As one possible solution, dynamic lighting can be used instead of pre-calculated lighting effects for augmented reality environments. However, as described above, dynamic lighting may be of lower quality than pre-calculated lighting and therefore may not provide a much better user experience. In addition, dynamic lighting may be computationally expensive at runtime, which may reduce the computational budget for other aspects of the experience, such as other videos and gameplay.

[0017] したがって、高品質な事前計算された照明効果を有する、局所的な物理的環境の幾何学的構造にフィットした拡張現実環境の効率的な構築に関連する実施態様が、本明細書で開示される。簡潔には、開示される実施態様は、拡張現実画像のための仮想構造を形成するように互いに隣接して配列されることのできるモジュール型仮想構造セグメントを利用し、ここで、このモジュール型仮想構造セグメントは、高品質な事前計算された照明効果を備える。それぞれのモジュール型仮想構造セグメントについて照明効果が事前計算されているので、モジュール型仮想構造セグメントによって構築される仮想構造に照明効果が含まれることになるだろう。更に、いくつかの実施態様では、局所的な照明特性が検出されて、モジュール型仮想構造セグメントの見た目を調整するのに用いられることができる。そのような局所的な照明特性の例には、限定ではないが、当該局所的な物理的環境における色特性及び光源の位置が含まれることができる。   [0017] Accordingly, embodiments relating to the efficient construction of augmented reality environments fitted with local physical environment geometries having high quality pre-computed lighting effects are described herein. Disclosed. Briefly, the disclosed embodiments utilize modular virtual structure segments that can be arranged adjacent to each other to form a virtual structure for augmented reality images, where the modular virtual structure The structural segment comprises a high quality pre-calculated lighting effect. Since the lighting effect is pre-calculated for each modular virtual structure segment, the virtual structure constructed by the modular virtual structure segment will include the lighting effect. Further, in some embodiments, local illumination characteristics can be detected and used to adjust the appearance of the modular virtual structure segment. Examples of such local lighting characteristics may include, but are not limited to, color characteristics and light source positions in the local physical environment.

[0018] 図1は、拡張現実表示システムのための使用環境100の、リビングルームの形の例示的な実施態様を示す。シースルー・ディスプレイデバイス104を通してリビングルームを眺めているユーザー102が示されている。図1はまた、当該ユーザーの視野103も表しており、この視野103は、シースルー・ディスプレイデバイス104を通して視認可能な環境の一部分、したがってシースルー・ディスプレイデバイス104を介して表示された画像により拡張されることができる当該環境の一部分を表す。いくつかの実施態様では、ユーザーの視野103は、ユーザーの実際の視界と実質的に同一の広がりをもつことができ、一方、他の実施態様では、ユーザーの視野103は、ユーザーの実際の視界のより小さな一部分を占めることができる。   [0018] FIG. 1 illustrates an exemplary implementation in the form of a living room of a use environment 100 for an augmented reality display system. A user 102 looking at a living room through a see-through display device 104 is shown. FIG. 1 also represents the user's field of view 103, which is expanded by a portion of the environment that is viewable through the see-through display device 104, and thus the image displayed through the see-through display device 104. Represents a portion of the environment that can. In some implementations, the user's field of view 103 can be substantially coextensive with the user's actual field of view, while in other embodiments, the user's field of view 103 can be the user's actual field of view. Can occupy a smaller part of

[0019] 以下でより詳細に説明されるように、シースルー・ディスプレイデバイス104は、使用環境100を表す画像データ(例えば、カラー/グレイスケール画像、深度画像/点群データ/メッシュデータ等)をユーザーが当該環境を移動する際に取得するように構成された、1又は複数の外向きイメージセンサー(例えば、2次元カメラ及び/又は深度カメラ)を備えることができる。この画像データは、環境のレイアウト、及び天井106や壁108など環境の構造的特徴、それに加えて他の特徴に関する情報を得るために用いられることができる。   [0019] As described in more detail below, the see-through display device 104 provides image data (eg, color / grayscale images, depth images / point cloud data / mesh data, etc.) representing the usage environment 100 to the user. Can include one or more outward-facing image sensors (e.g., a two-dimensional camera and / or a depth camera) configured to acquire as the user moves through the environment. This image data can be used to obtain information about the layout of the environment and structural features of the environment, such as the ceiling 106 and walls 108, as well as other features.

[0020] シースルー・ディスプレイデバイス104は、更に、表示した仮想オブジェクトを当該デバイスを通して見える物理的な物体の上にオーバーレイして、拡張現実画像を作り出すように構成される。例えば、図2を参照すると、仮想的な間柱202、まぐさ204等の仮想的な部屋の骨組み構造200がユーザーの壁にオーバーレイとして表示された、例示的な拡張現実画像が描かれている。配管206、電線管/ケーブル等の基盤設備の画像も、任意の他の適切な仮想構造に加えて表示されることができる。類似の構造(不図示)が、天井に関して同様に表示されることができる。更に、家具や部屋内の他の非構造的な物体に対応する画像が、部屋の中の何もない空間を占めるように表示されることができる。拡張現実環境をより完全に図示するために、図2に描かれた拡張現実の画像は図1に示されたユーザーの視野には限定されていない、ということが認識されるだろう。   [0020] The see-through display device 104 is further configured to overlay the displayed virtual object on top of a physical object visible through the device to create an augmented reality image. For example, referring to FIG. 2, an exemplary augmented reality image is depicted in which a virtual room framework structure 200, such as a virtual stud 202, lintel 204, etc., is displayed as an overlay on the user's wall. Images of infrastructure such as pipes 206, conduits / cables can also be displayed in addition to any other suitable virtual structure. A similar structure (not shown) can be similarly displayed for the ceiling. Furthermore, images corresponding to furniture and other unstructured objects in the room can be displayed to occupy an empty space in the room. To more fully illustrate the augmented reality environment, it will be appreciated that the augmented reality image depicted in FIG. 2 is not limited to the user's field of view illustrated in FIG.

[0021] 図2の仮想的な壁の骨組み構造は、その下にある物理的構造(例えば壁108)に幾何学的にフィットしている。それぞれのユーザーの局所的な物理的環境は異なるであろうから、各プレーヤーの局所的な物理的環境に対する全体としての仮想的構造は、事前にデザインされるのではなく、当該局所的な物理的環境の画像データ(例えば、ステレオ深度画像データ、構造化照明画像データ、飛行時間画像データ、又は他の深度画像データ)を取得した時に構築される。よって、もしその仮想的構造を構築した後に大域照明効果が当該仮想的構造に適用されるとしたら、プレーヤーは、活動がプレイ可能となる前に好ましからざるほど長い時間待つことを強いられるかもしれず、また、ゲーム中に環境を変化させる(例えば、違う部屋へ歩いていく)ことを制限されるかもしれない。何故なら、新たな環境への照明の作り込みと適用には、不適当に長い時間期間がかかる場合があるからである。   [0021] The virtual wall framing structure of FIG. 2 is geometrically fitted to the underlying physical structure (eg, wall 108). Since each user's local physical environment will be different, the overall virtual structure for each player's local physical environment is not pre-designed, but rather the local physical environment. Built when environmental image data (eg, stereo depth image data, structured illumination image data, time-of-flight image data, or other depth image data) is acquired. Thus, if a global lighting effect is applied to the virtual structure after building the virtual structure, the player may be forced to wait an undesirably long time before the activity can be played, Also, changing the environment during the game (for example, walking to a different room) may be restricted. This is because the creation and application of lighting to a new environment may take an inappropriately long time period.

[0022] したがって、上述されたように、仮想構造200は事前計算された照明効果を有するモジュール型仮想構造セグメントのセットから組み立てられ、このモジュール型仮想構造セグメントのインスタンスが、互いに隣接して配列され、一体的な仮想構造の見た目を形作るように加工(例えば、回転、拡大縮小等)されることができる。図3は、間柱セグメント302、継手配管付き間柱セグメント304、水平配管付き間柱セグメント306、一対のドアフレームセグメント308、310、及び一対の窓フレームセグメント312、314を含むモジュール型仮想構造セグメントのセット300の例示的な実施態様を示す。図2を参照すると、仮想構造200は、セット300から選択されて各特定インスタンスの配置に基づいて拡大縮小、回転、分断、変形、及び/又は他の方法で適切に加工された、仮想的な壁のセグメントのインスタンスから完全に構築されることができる、ということが注目されるだろう。   [0022] Accordingly, as described above, the virtual structure 200 is assembled from a set of modular virtual structure segments having a precomputed lighting effect, and instances of the modular virtual structure segments are arranged adjacent to each other. Can be processed (eg, rotated, scaled, etc.) to shape the appearance of an integral virtual structure. FIG. 3 illustrates a set 300 of modular virtual structure segments including a stud column segment 302, a stud column 304 with joint piping, a stud column 306 with horizontal piping, a pair of door frame segments 308, 310, and a pair of window frame segments 312, 314. An exemplary embodiment of is shown. Referring to FIG. 2, the virtual structure 200 is a virtual structure selected from the set 300 and scaled, rotated, split, deformed, and / or otherwise appropriately processed based on the placement of each particular instance. It will be noted that it can be built entirely from instances of wall segments.

[0023] 図3にはモジュール型仮想構造セグメントの比較的単純なセットが描かれているが、モジュール型仮想構造セグメントのセットは、任意の所望される複雑さを持つ任意の適切な数及び選択のセグメントを有してよい、ということが理解されるだろう。更に、事前計算された照明を有するモジュール型仮想構造セグメントのセットは、壁にフィットした仮想構造以外の、限定ではないが天井にフィットした仮想構造を含む任意の他の所望の物理的特徴物にフィットする任意の他の適切な構造と、それに加えて例えば家具、壁掛け、植物、エクステリア物品、カウンター用天板、バー用天板等の非構造的な特徴物とを作り上げるのに用いられてよい、ということが理解されるだろう。例えば、事前照明されたモジュール型仮想構造セグメントは、事前照明された仮想的なソファ、机、テレビ、鏡、及び物理的環境において普通に見つかるが異なった物理的環境では異なる形状及び/又は見た目を有することのある他の物体を含むことができる。あるインスタンスにおけるそのような物体のそのような仮想構造セグメントは、単一の「セグメント」からなってもよく、その結果1つの仮想構造要素が、隣のセグメントと必ずしも組み合わされずに、所望の物理的構造物にフィットするようにサイズ変更、回転、及び他の方法で加工されることとなる、ということが理解されるだろう。加えて、物理的環境の中の何もない空間が当該環境の物理的特徴物とみなされてよく、部屋又は他の使用環境内の空間の非占有部分に仮想オブジェクトを構築するようにモジュール型仮想構造セグメントが配列されることができる、ということが理解されるだろう。   [0023] Although FIG. 3 depicts a relatively simple set of modular virtual structure segments, the set of modular virtual structure segments can be any suitable number and choice with any desired complexity. It will be understood that there may be a number of segments. In addition, the set of modular virtual structure segments with pre-calculated lighting can be applied to any other desired physical feature, including but not limited to a virtual structure that fits the ceiling, other than a virtual structure that fits the wall. May be used to create any other suitable structure to fit, plus non-structural features such as furniture, wall hangings, plants, exterior articles, counter tops, bar tops, etc. Will be understood. For example, pre-illuminated modular virtual structure segments are commonly found in pre-illuminated virtual sofas, desks, televisions, mirrors, and physical environments but differ in shape and / or appearance in different physical environments. It can include other objects that it may have. Such a virtual structure segment of such an object in an instance may consist of a single “segment” so that one virtual structure element is not necessarily combined with the adjacent segment, but the desired physical It will be understood that it will be resized, rotated and otherwise processed to fit the structure. In addition, an empty space in the physical environment may be considered a physical feature of the environment, and is modular so that virtual objects are built in unoccupied parts of the space in a room or other use environment. It will be appreciated that virtual structure segments can be arranged.

[0024] いくつかのモジュール型仮想構造セグメントは、セグメントに結合されることのできる他のセグメントのセットを制限する接続性制約条件を含むことができる。例えば、図3において、それぞれの窓セグメントとドアセグメントは、一方の側(例えば窓/ドアの側)では間柱セグメント302でなく別の窓セグメント又はドアセグメントに結合されることができ、さもなければセグメントは間違って嵌ることになろう。更に、継手配管304と水平配管306のセグメントは、相補的な配管部分を持ったセグメントに結合される状態に制限されてよい。これらの接続性制約条件は例示の目的のために説明され、任意の他の適切な接続性制約条件が用いられてよい、ということが理解されるだろう。   [0024] Some modular virtual structure segments can include connectivity constraints that restrict the set of other segments that can be coupled to the segment. For example, in FIG. 3, each window segment and door segment can be coupled on one side (eg, the window / door side) to another window segment or door segment instead of the stud segment 302, otherwise. Segments will fit incorrectly. Further, the segments of the joint pipe 304 and the horizontal pipe 306 may be limited to a state where the joint pipe 304 and the horizontal pipe 306 are coupled to a segment having a complementary pipe portion. It will be appreciated that these connectivity constraints are described for exemplary purposes and that any other suitable connectivity constraints may be used.

[0025] 任意の適切な事前計算された照明効果が、モジュール型仮想構造セグメントに適用されることができる。例えば、いくつかの実施態様では、モジュール型仮想構造セグメントのセットは、環境内の物理的な照明の位置にかかわらず、あらゆる局所的な照明環境における使用を意図されることができる。そのような実施態様では、指向性のある照明効果が利用されることができる。これの例が、仮想的な間柱セグメントの一部分400に入射する指向性を持った照明として図4に示されている。適用される仮想照明は、任意の適切な方向を有してよい。例えば、水平に敷設されたピースに関しては、照明は水平軸に対して直角であってよく、一方垂直に敷設されたピースに関しては、照明は垂直軸に対して直角であってよい。加えて、水平と垂直の両方に敷設されたモジュールのピースに関しては、照明は両方の軸に対して直角であってよい。このことによって、当該セグメントに対して事前計算された影と照明が、必ず各セグメントに共通の照明特性を有するようにすることができ、したがって、隣のセグメントが合わさる場所で視差及び/又は他の不連続性が現れるのを防止することができる。図4の実施態様では、指向性を持った照明は、垂直面に対しておよそ45度の角度で照射されているように示されているが、これは例示の目的のために提示されており、任意の他の適切な角度が用いられてよい、ということが理解されるだろう。   [0025] Any suitable pre-computed lighting effect can be applied to the modular virtual structure segment. For example, in some implementations, the set of modular virtual structure segments can be intended for use in any local lighting environment, regardless of the location of physical lighting in the environment. In such an embodiment, a directional lighting effect can be utilized. An example of this is shown in FIG. 4 as directional illumination incident on a portion 400 of a virtual stud segment. The applied virtual illumination may have any suitable direction. For example, for horizontally laid pieces, the illumination may be perpendicular to the horizontal axis, while for vertically laid pieces, the illumination may be perpendicular to the vertical axis. In addition, for module pieces laid both horizontally and vertically, the illumination may be perpendicular to both axes. This ensures that the pre-computed shadows and lighting for that segment always have a common lighting characteristic for each segment, and thus the parallax and / or other It is possible to prevent the discontinuity from appearing. In the embodiment of FIG. 4, the directional illumination is shown as being illuminated at an angle of approximately 45 degrees relative to the vertical plane, but this is presented for illustrative purposes. It will be appreciated that any other suitable angle may be used.

[0026] 他の実施態様では、モジュール型仮想構造セグメントのセットは、特定の照明特性、例えば単一の頭上点光源、壁際のランプ等と共に使用されるように構成されることができる。そのような実施態様では、照明効果を事前計算するのに任意の適切な種類の仮想照明が用いられることができる。いかなる場合にも、照明効果を事前計算した後に、それに関連するモジュール型仮想構造セグメントにより組み立てられた仮想構造の画像がリアルな照明効果を有するように、その計算されたライトマップがモジュール型仮想構造セグメントと共に高水準の情報で保存されることができる。   [0026] In other implementations, the set of modular virtual structure segments can be configured to be used with specific lighting characteristics, such as a single overhead point light source, a wall lamp, and the like. In such embodiments, any suitable type of virtual lighting can be used to pre-calculate the lighting effects. In any case, after pre-calculating the lighting effect, the calculated light map has a modular virtual structure so that the image of the virtual structure assembled by its associated modular virtual structure segment has a realistic lighting effect. It can be stored with a high level of information along with the segment.

[0027] モジュール型仮想構造セグメントに対して任意の適切な種類の照明情報が記憶されることができる。例えば、事前計算された照明効果は、ライトマップ、キューブマップ、球面調和関数(例えば事前計算された放射輝度伝達関数)として、及び/又は任意の他の適切な形で記憶されることができる。事前計算された放射輝度伝達関数の使用は、例えば、使用環境における物理的な照明の検出位置に基づいて、図5Aに仮想点光源500により描かれているように物理的環境における物理的な照明の位置に仮想的な点照明を適用することによって、仮想オブジェクト上にリアルな照明と影が生成されることを可能にするだろう。図5Bは、図4に示された間柱の一部分の見映えが図5Aの仮想点光源に基づいてどのように調整され得るかの一例を示す。加えて、手続き的又は動的照明がリアルタイムで適用されてもよい(例えば、拡張現実画像に表示された動的な仮想オブジェクトから生じる光)。   [0027] Any suitable type of lighting information may be stored for the modular virtual structure segment. For example, pre-calculated lighting effects can be stored as light maps, cube maps, spherical harmonics (eg, pre-calculated radiance transfer functions), and / or in any other suitable form. The use of the pre-calculated radiance transfer function may be based on physical illumination in the physical environment as depicted by the virtual point light source 500 in FIG. 5A, for example, based on the detected location of the physical illumination in the environment of use. Applying virtual point lighting to the location of the object will allow realistic lighting and shadows to be generated on the virtual object. FIG. 5B shows an example of how the appearance of a portion of the stud shown in FIG. 4 can be adjusted based on the virtual point light source of FIG. 5A. In addition, procedural or dynamic lighting may be applied in real time (eg, light arising from dynamic virtual objects displayed in augmented reality images).

[0028] モジュール型仮想構造セグメントの見た目を他の方法で調整するために、局所的な物理的照明特性が用いられることもできる。例えば、モジュール型仮想構造セグメントの事前計算された照明効果は、白色光の照射に基づいて計算されることができる。次いで、特定の物理的環境に対して仮想的な画像を作り上げる際に、シースルー・ディスプレイデバイスによって取得された画像データから当該物理的環境における物理的な照明の色特性が分析されることができ、仮想照明が局所的な物理的照明によりぴったりと合うように、その決定された色特性(例えば、色相、彩度、反射率)が仮想照明効果に適用されることができる。このようにして、事前照明された仮想的な壁/天井のセグメント、事前照明された仮想的な家具、及び任意の他の適切な事前照明された仮想オブジェクトの表示されたインスタンスが、物理的環境の見た目によりぴったりと合うことができる。   [0028] Local physical lighting characteristics can also be used to adjust the appearance of the modular virtual structure segment in other ways. For example, the pre-calculated lighting effect of the modular virtual structure segment can be calculated based on white light illumination. Then, in creating a virtual image for a particular physical environment, the color characteristics of the physical lighting in the physical environment can be analyzed from the image data acquired by the see-through display device, The determined color characteristics (eg, hue, saturation, reflectance) can be applied to the virtual lighting effect so that the virtual lighting more closely matches the local physical lighting. In this way, displayed instances of pre-illuminated virtual wall / ceiling segments, pre-illuminated virtual furniture, and any other suitable pre-illuminated virtual objects are represented in the physical environment. You can fit more closely with the appearance of.

[0029] 図6は、モジュール型仮想構造セグメントのインスタンスを検出された物理的構造物に適用することによって拡張現実環境を構築するための方法600の一実施態様を示す。方法600は、602において、シースルー・ディスプレイデバイスの局所的な環境の画像を撮影した画像データを受け取るステップを含む。画像データは、限定ではないが深度画像604及び/又は2次元画像を含む任意の適切なデータを含んでよく、シースルー・ディスプレイデバイス上の、又はシースルー・ディスプレイデバイスの外部の画像センサーから受け取られることができる。深度画像データは、限定ではないがステレオ撮像システム、飛行時間撮像システム、及び構造化照明撮像システムを含む、任意の適切な深度撮像システムから受け取られることができる。   [0029] FIG. 6 illustrates one embodiment of a method 600 for building an augmented reality environment by applying an instance of a modular virtual structure segment to a detected physical structure. The method 600 includes, at 602, receiving image data that captures an image of a local environment of a see-through display device. The image data may include any suitable data including, but not limited to, a depth image 604 and / or a two-dimensional image, and is received from an image sensor on or external to the see-through display device. Can do. Depth image data can be received from any suitable depth imaging system, including but not limited to stereo imaging systems, time-of-flight imaging systems, and structured illumination imaging systems.

[0030] 方法600は次に、606において、画像データから前記局所的な環境の物理的特徴物を識別するステップを含む。物理的特徴物は、任意の適切な方法で識別されることができる。例えば、いくつかの実施態様では、608において、深度画像データから物理的環境のメッシュ表現が決定されてメッシュ分析が実行され、610において、その物理的環境内の主要面(major surface)が識別される。その例には、限定ではないが、壁612や天井614に加えて、ドア、窓、天窓、柱、部屋の中の他の突起部/切欠き部等のような壁や天井の特徴物が含まれる。更に、当該幾何構造内の空きスペースが識別されてよく、例えば、所望の仮想構造がその識別された空きスペースにフィットされることが可能である。   [0030] The method 600 then includes, at 606, identifying physical features of the local environment from image data. The physical feature can be identified in any suitable manner. For example, in some embodiments, at 608, a mesh representation of the physical environment is determined from the depth image data and mesh analysis is performed, and at 610, a major surface within the physical environment is identified. The Examples include, but are not limited to, wall and ceiling features such as doors, windows, skylights, pillars, and other protrusions / notches in the room, in addition to walls 612 and ceiling 614. included. Furthermore, free space within the geometric structure may be identified, for example, a desired virtual structure can be fitted to the identified free space.

[0031] 方法600はまた、616において、その物理的環境の1又は複数の局所的な照明特性を識別するステップを含んでもよい。局所的な照明特性の例には、限定ではないが、色特性618や局所光源の位置620が含まれることができる。   [0031] The method 600 may also include, at 616, identifying one or more local lighting characteristics of the physical environment. Examples of local illumination characteristics can include, but are not limited to, color characteristics 618 and local light source positions 620.

[0032] 方法600は更に、622において、検出された物理的特徴物の上に当該物理的特徴物と空間的に位置合わせした状態で表示するための、仮想構造特徴物を含んだ拡張現実画像を構築するステップを含む。上述され、また624に示されるように、仮想構造は、それぞれが事前計算された照明効果を備える複数のモジュール型仮想構造セグメントを配列することによって構築されることができる。仮想構造セグメントは、限定ではないが、対象の物理的な幾何学的構造にフィットするように部品を回転、拡大縮小、変形、分断すること等を含む、任意の適切な方法で配列されることができる。同様に、モジュール型仮想構造セグメントは、事前計算された照明効果に関する任意の適切な事前計算された情報を含んでよい。その例には、限定ではないが、ライトマップ626及び/又は放射輝度伝達関数628が含まれる。更に、上述されたように、モジュール型仮想構造セグメントを選択し配列する際に、相補的な特徴物が隣のセグメントに適切に結合されるのを保証するため、630において、選択されたモジュール型仮想構造セグメントに結合されることが可能な他のモジュール型仮想構造セグメントのセットを制限する接続性制約条件が適用されることができる。   [0032] The method 600 further includes, at 622, an augmented reality image including virtual structural features for display on the detected physical features in spatial alignment with the physical features. Including the steps of: As described above and shown at 624, the virtual structure can be constructed by arranging a plurality of modular virtual structure segments, each with a pre-computed lighting effect. Virtual structure segments may be arranged in any suitable manner, including but not limited to rotating, scaling, deforming, splitting, etc., parts to fit the physical geometry of interest. Can do. Similarly, the modular virtual structure segment may include any suitable pre-calculated information regarding the pre-calculated lighting effects. Examples include, but are not limited to, light map 626 and / or radiance transfer function 628. Further, as described above, in selecting and arranging modular virtual structure segments, the selected module type is selected at 630 to ensure that complementary features are properly coupled to the adjacent segment. Connectivity constraints can be applied that restrict the set of other modular virtual structure segments that can be coupled to the virtual structure segment.

[0033] 加えて、上述されたように、拡張現実画像を構築するのに際して局所的な照明特性が利用されてよい。例えば、632に示されるように、いくつかの実施態様では、局所的な照明特性に基づいてモジュール型仮想構造セグメントの見た目が調整されることができる。その見た目は、任意の適切な方法で調整されることができる。例えば、634に示されるように、局所的な照明環境の色が、事前計算された照明効果に添えられてよい。同様に、636に示されるように、仮想的な光源、例えば仮想点光源が、その環境の中の物理的な光源の位置に適用されてよい。   [0033] In addition, as described above, local illumination characteristics may be utilized when constructing an augmented reality image. For example, as shown at 632, in some implementations, the appearance of the modular virtual structure segment can be adjusted based on local lighting characteristics. Its appearance can be adjusted in any suitable way. For example, as shown at 634, the color of the local lighting environment may be attached to a pre-calculated lighting effect. Similarly, as shown at 636, a virtual light source, such as a virtual point light source, may be applied to the position of the physical light source in the environment.

[0034] 他の実施態様では、モジュール型仮想構造セグメントの見た目を調整する代わりに、異なる照明特性を有するモジュール型仮想構造セグメントの複数の異なるセットが利用可能であってよい。例えば、モジュール型仮想構造セグメントのあるセットは頭上点光源に対応する事前計算された照明効果を含むことができ、一方、別のセットは側窓から入ってくる指向性のある照明に対応する事前計算された照明効果を含むことができる。この実例では、638に示されるように、局所的な照明特性が利用されて、対応する照明特性を有したモジュール型仮想構造セグメントのセットを選択することができ、これにより、その結果として得られる仮想構造が、その環境内の物理的な照明と同様の照明特性を有するようになる。   [0034] In other embodiments, instead of adjusting the appearance of the modular virtual structure segment, multiple different sets of modular virtual structure segments with different lighting characteristics may be available. For example, one set of modular virtual structure segments can include pre-calculated lighting effects corresponding to overhead point light sources, while another set corresponds to pre-directional lighting corresponding to directional lighting coming from the side window. Calculated lighting effects can be included. In this example, as shown at 638, local lighting characteristics can be utilized to select a set of modular virtual structure segments with corresponding lighting characteristics, resulting in the result. The virtual structure will have lighting characteristics similar to the physical lighting in its environment.

[0035] 拡張現実画像を構築すると、方法600は、640に示されるように、当該拡張現実画像をシースルー・ディスプレイデバイスへ出力するステップを含む。シースルー・ディスプレイデバイス(例えば内向き及び外向き画像センサー)からのセンサーデータが用いられて、ユーザーの目の位置及び視線方向を検出し、またユーザーの視野内にある物理的な物体も検出し、仮想構造を対応する物理的特徴物の上に当該物理的特徴物と空間的に位置合わせした状態で表示して、ユーザーに物理的環境の拡張現実ビューを与えることができる。   [0035] Once the augmented reality image is constructed, the method 600 includes outputting the augmented reality image to a see-through display device, as shown at 640. Sensor data from see-through display devices (eg inward and outward image sensors) is used to detect the user's eye position and gaze direction, as well as to detect physical objects in the user's field of view, The virtual structure can be displayed on the corresponding physical feature in spatial alignment with the physical feature to give the user an augmented reality view of the physical environment.

[0036] 上述されたように、上で説明された方法は、任意の適切なディスプレイデバイスによって実施されることができる。その例には、限定ではないが、図1のヘッドマウント型シースルー・ディスプレイデバイス104のようなシースルー・ディスプレイデバイス、及びスマートフォンやノートパッドコンピューターのような1又は複数の画像センサーを有した他のディスプレイデバイスが含まれる。図7は、シースルー・ディスプレイデバイス104の例示的構成のブロック図を示す。   [0036] As described above, the methods described above can be implemented by any suitable display device. Examples include, but are not limited to, see-through display devices such as the head-mounted see-through display device 104 of FIG. 1 and other displays with one or more image sensors such as smartphones and notepad computers. Includes devices. FIG. 7 shows a block diagram of an exemplary configuration of see-through display device 104.

[0037] シースルー・ディスプレイデバイス104は、ニアアイ(near-eye)・シースルー・ディスプレイサブシステム704の一部分を形成する1又は複数のレンズ702を備えることができる。シースルー・ディスプレイデバイス104は、ユーザーが見ている背景シーンの画像を取得するように構成された1又は複数の外向き画像センサー706を更に備えることができ、またユーザーからの音声コマンドなどの音を検出するように構成された1又は複数のマイク708を含むことができる。外向き画像センサー706は、(限定ではないがステレオ深度撮像配置を含む)1又は複数の深度センサー、及び/又は、1又は複数の2次元画像センサーを含むことができる。   [0037] The see-through display device 104 may include one or more lenses 702 that form part of a near-eye see-through display subsystem 704. The see-through display device 104 can further comprise one or more outward-facing image sensors 706 configured to acquire an image of the background scene that the user is looking at, and can also provide sound, such as voice commands from the user. One or more microphones 708 configured to detect may be included. Outward image sensor 706 can include one or more depth sensors (including but not limited to a stereo depth imaging arrangement) and / or one or more two-dimensional image sensors.

[0038] シースルー・ディスプレイデバイス104は、上述されたようにユーザーのそれぞれの目の視線の方向を検出するように構成された視線検出サブシステム710を更に備える。視線検出サブシステム710は、任意の適切な方法でユーザーの目のそれぞれの視線方向を決定するように構成されることができる。例えば、描かれた実施態様では、視線検出サブシステム710は、光の閃きをユーザーのそれぞれの目の角膜から反射させるように構成された赤外光源などの1又は複数の閃光源712と、ユーザーの1又は複数の目の画像をキャプチャするように構成された1又は複数の画像センサー714とを備える。画像センサー714を介して集められた画像データから決定される閃きと瞳の画像が、それぞれの目の光軸を決定するのに用いられることができる。視線検出サブシステム710は、任意の適切な数及び配置の光源と画像センサーを有してよい、ということが理解されるだろう。   [0038] The see-through display device 104 further comprises a gaze detection subsystem 710 configured to detect the gaze direction of each eye of the user as described above. The gaze detection subsystem 710 can be configured to determine the gaze direction of each of the user's eyes in any suitable manner. For example, in the depicted embodiment, the gaze detection subsystem 710 includes one or more flash light sources 712, such as an infrared light source configured to reflect a flash of light from the cornea of each of the user's eyes, and the user And one or more image sensors 714 configured to capture one or more eye images. Flash and pupil images determined from image data collected via the image sensor 714 can be used to determine the optical axis of each eye. It will be appreciated that the line-of-sight detection subsystem 710 may include any suitable number and arrangement of light sources and image sensors.

[0039] シースルー・ディスプレイデバイス104は、付加的なセンサーを更に備えることができる。例えば、シースルー・ディスプレイデバイス104は、シースルー・ディスプレイデバイス104の位置が決定されるのを可能にするための全地球測位(GPS)サブシステム716を備えることができる。   [0039] The see-through display device 104 may further comprise additional sensors. For example, the see-through display device 104 can include a global positioning (GPS) subsystem 716 to allow the position of the see-through display device 104 to be determined.

[0040] シースルー・ディスプレイデバイス104は、更に、ユーザーがシースルー・ディスプレイデバイス104を装着している時のユーザーの頭の動きを検出するための1又は複数のモーションセンサー718を含んでよい。モーションデータが、例えば画像安定化のために用いられて、外向き画像センサー706からの画像のぼけを補正するのに役立つことができる。同様に、モーションセンサー718は、マイク708及び視線検出サブシステム710と共に、ユーザー入力デバイスとして利用されることもでき、その結果、ユーザーは、言葉によるコマンドに加えて、目、首及び/又は頭のジェスチャを介してシースルー・ディスプレイサブシステム704と対話することができるようになる。図7に描かれたセンサーは、例示の目的のために示されているのであり、任意の他の適切なセンサー及び/又はセンサーの組み合わせが利用され得るので、いかなる方法であっても限定的であるようには意図されていない、ということが理解されるだろう。   [0040] The see-through display device 104 may further include one or more motion sensors 718 for detecting movement of the user's head when the user is wearing the see-through display device 104. Motion data can be used, for example, for image stabilization, to help correct image blur from the outward image sensor 706. Similarly, motion sensor 718 can be utilized as a user input device with microphone 708 and line-of-sight detection subsystem 710 so that in addition to verbal commands, the user can have eyes, neck and / or head. It will be possible to interact with the see-through display subsystem 704 via gestures. The sensor depicted in FIG. 7 is shown for illustrative purposes and is limited in any way, as any other suitable sensor and / or combination of sensors may be utilized. It will be understood that it is not intended to be.

[0041] シースルー・ディスプレイデバイス104は、更に、センサー、視線検出サブシステム710、及びシースルー・ディスプレイサブシステム704と通信可能な、論理サブシステム722と記憶サブシステム724を有したコンピューティングデバイス720を備える。記憶サブシステム724は、記憶サブシステム724上に格納された命令を備えており、当該命令は、例えば、シースルー・ディスプレイデバイスの局所的な環境の画像をキャプチャする外向き画像センサー706から画像データを受け取り、その画像データを介して当該局所的な環境の物理的特徴物を識別するように、論理サブシステム722によって実行可能である。当該命令はまた、それぞれが事前計算された大域照明効果を備えた複数のモジュール型仮想構造セグメントを隣接位置に配列することによって仮想構造の拡張現実画像を構築し、その拡張現実画像を物理的特徴物の上にユーザーの視点から見て当該物理的特徴物と空間的に位置合わせした状態で表示するように、実行可能であってもよい。当該命令は、更に、局所的な照明特性を検出し、その局所的な照明特性に基づいて拡張現実画像を調整し、シースルー・ディスプレイサブシステム704を介してその拡張現実画像を物理的特徴物の上に当該物理的特徴物と空間的に位置合わせした状態で表示するように、実行可能であってよい。   [0041] The see-through display device 104 further comprises a computing device 720 having a logical subsystem 722 and a storage subsystem 724 that can communicate with the sensors, the gaze detection subsystem 710, and the see-through display subsystem 704. . The storage subsystem 724 includes instructions stored on the storage subsystem 724 that may, for example, receive image data from an outward-facing image sensor 706 that captures images of the local environment of the see-through display device. It can be implemented by the logical subsystem 722 to receive and identify physical features of the local environment via the image data. The instructions also construct an augmented reality image of the virtual structure by arranging multiple modular virtual structure segments, each with a pre-calculated global lighting effect, at adjacent locations, and then physicalizing the augmented reality image. It may be feasible to display the object in a state of being spatially aligned with the physical feature from the user's viewpoint. The instructions further detect local illumination characteristics, adjust the augmented reality image based on the local illumination characteristics, and convert the augmented reality image of the physical feature via the see-through display subsystem 704. It may be feasible to display in a state of being spatially aligned with the physical feature.

[0042] 論理サブシステム722、記憶サブシステム724、及び他の上述されたコンポーネントの例示的なハードウェアに関する更なる情報は、図8を参照して以下で説明される。   [0042] Further information regarding exemplary hardware of the logical subsystem 722, storage subsystem 724, and other above-described components is described below with reference to FIG.

[0043] 描写されたシースルー・ディスプレイデバイス104は、例として提供されており、よって限定的であるようには意図されていない、ということが認識されるだろう。したがって、ディスプレイデバイスは、この開示の範囲から逸脱することなく、示されたもの以外の付加的な及び/又は代替的なセンサー、カメラ、マイク、入力デバイス、出力デバイス等を含んでよい、ということが理解されなければならない。ディスプレイデバイス並びにその様々なセンサー及びサブコンポーネントの物理的構成は、この開示の範囲から逸脱することなく、様々な異なる形をとることができる。   [0043] It will be appreciated that the depicted see-through display device 104 is provided as an example and is therefore not intended to be limiting. Accordingly, a display device may include additional and / or alternative sensors, cameras, microphones, input devices, output devices, etc. other than those shown without departing from the scope of this disclosure. Must be understood. The physical configuration of the display device and its various sensors and subcomponents can take a variety of different forms without departing from the scope of this disclosure.

[0044] 更に、シースルー・ディスプレイデバイスを介して拡張現実画像を表示するように構成されたコンピューティングシステムは、限定ではないが、メインフレームコンピューター、サーバーコンピューター、デスクトップコンピューター、ラップトップコンピューター、タブレットコンピューター、ホームエンターテインメントコンピューター、ネットワークコンピューティングデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(例えばスマートフォン)、他のウェアラブルコンピューター等を含む、ヘッドマウント型ディスプレイデバイス以外の任意の適切な形をとることができる、ということが理解されるだろう。上述された方法及びプロセスは、コンピューターアプリケーションのプログラム若しくはサービス、アプリケーションプログラミングインターフェイス(API)、ライブラリ、及び/又は他のコンピュータープログラム製品として実装されることができる、ということが更に理解されるだろう。   [0044] Further, computing systems configured to display augmented reality images via a see-through display device include, but are not limited to, mainframe computers, server computers, desktop computers, laptop computers, tablet computers, Can take any suitable form other than a head mounted display device, including home entertainment computers, network computing devices, gaming devices, mobile computing devices, mobile communication devices (eg, smart phones), other wearable computers, etc. Will be understood. It will be further appreciated that the methods and processes described above can be implemented as a computer application program or service, application programming interface (API), library, and / or other computer program product.

[0045] 図8は、上述された方法及びプロセスの1又は複数を実施することが可能なコンピューティングシステム800の非限定的な実施態様を模式的に示す。コンピューティングシステム800は簡略化された形で示されており、上で言及されたように、限定ではないが図1−9を参照して上述されたものを含む、任意の適切なデバイス及び/又はデバイスの組み合わせを表すことができる。   [0045] FIG. 8 schematically illustrates a non-limiting implementation of a computing system 800 that can implement one or more of the methods and processes described above. The computing system 800 is shown in a simplified form and, as mentioned above, any suitable device and / or including but not limited to those described above with reference to FIGS. 1-9. Or it can represent a combination of devices.

[0046] コンピューティングシステム800は、論理サブシステム802及び記憶サブシステム804を含む。コンピューティングシステム800は、表示サブシステム806、入力デバイスサブシステム808、通信サブシステム810、及び/又は図8に示されていない他のコンポーネントを任意的に含んでよい。コンピューティングシステム800はまた、例えばキーボード、マウス、ゲームコントローラー、カメラ(深度及び/又は2次元の)、マイク、及び/又はタッチスクリーンのみならず、上述された視線追跡システムなどの1又は複数のユーザー入力デバイスを任意的に含み、又はそれらとインターフェイスしてもよい。そのようなユーザー入力デバイスは、入力デバイスサブシステム808の一部を形作ることができ、又は入力デバイスサブシステム808とインターフェイスすることができる。   [0046] Computing system 800 includes a logical subsystem 802 and a storage subsystem 804. The computing system 800 may optionally include a display subsystem 806, an input device subsystem 808, a communication subsystem 810, and / or other components not shown in FIG. The computing system 800 may also include one or more users, such as the eye tracking system described above, as well as, for example, a keyboard, mouse, game controller, camera (depth and / or 2D), microphone, and / or touch screen. Input devices may optionally be included or interfaced therewith. Such user input devices can form part of the input device subsystem 808 or can interface with the input device subsystem 808.

[0047] 論理サブシステム802は、命令を実行するように構成された1又は複数の物理的デバイスを含む。例えば、論理サブシステムは、1又は複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、又は他の論理的構造体の一部である機械可読命令を実行するように構成されることができる。そのような命令は、タスクを実施し、データ型を実現し、1又は複数のコンポーネントの状態を変換し、又は他の方法で所望の結果に到達するように実装されることができる。   [0047] The logical subsystem 802 includes one or more physical devices configured to execute instructions. For example, a logical subsystem is configured to execute machine-readable instructions that are part of one or more applications, services, programs, routines, libraries, objects, components, data structures, or other logical structures. Can. Such instructions can be implemented to perform tasks, implement data types, convert the state of one or more components, or otherwise reach a desired result.

[0048] 論理サブシステム802は、ソフトウェア命令を実行するように構成された1又は複数のプロセッサーを含むことができる。それに加えて、又はその代わりに、論理サブシステム802は、ハードウェア命令又はファームウェア命令を実行するように構成された1又は複数のハードウェア論理マシン若しくはファームウェア論理マシンを含むことができる。論理サブシステム802のプロセッサーは、シングルコア又はマルチコアであってよく、当該プロセッサー上で実行されるプログラムは、順次処理、並列処理、又は分散処理向けに構成されることができる。論理サブシステム802は、任意的に、遠隔に配置され及び/又は連携処理向けに構成されることの可能な2以上のデバイスにわたって分散配置された個別コンポーネントを含んでよい。論理サブシステムの態様は、クラウドコンピューティングの機器構成に構成されたリモートアクセス可能なネットワークコンピューティングデバイスによって、仮想化され実行されることができる。   [0048] The logical subsystem 802 may include one or more processors configured to execute software instructions. Additionally or alternatively, the logical subsystem 802 can include one or more hardware or firmware logic machines configured to execute hardware or firmware instructions. The processor of the logical subsystem 802 may be single-core or multi-core, and a program executed on the processor can be configured for sequential processing, parallel processing, or distributed processing. The logical subsystem 802 may optionally include discrete components distributed across two or more devices that may be remotely located and / or configured for collaborative processing. The aspects of the logical subsystem can be virtualized and executed by a remotely accessible network computing device configured in a cloud computing configuration.

[0049] 記憶サブシステム804は、データ及び/又は本明細書で説明された方法及びプロセスを実現するように論理サブシステムによって実行可能な命令を保持するように構成された、1又は複数の物理的且つ非一時的なコンピューター可読記憶デバイスを含む。そのような方法及びプロセスが実現される時、記憶サブシステム804の状態は、例えば異なるデータを保持するように、変換されることができる。   [0049] The storage subsystem 804 is one or more physical units configured to hold data and / or instructions executable by the logical subsystem to implement the methods and processes described herein. And non-transitory computer readable storage devices. When such methods and processes are implemented, the state of the storage subsystem 804 can be converted to hold different data, for example.

[0050] 記憶サブシステム804は、リムーバブル媒体及び/又は内蔵デバイスを含むことができる。記憶サブシステム804は、特に、光メモリデバイス(例えば、CD、DVD、HD−DVD、Blu−Ray(登録商標)ディスク等)、半導体メモリデバイス(例えば、RAM、EPROM、EEPROM等)、及び/又は磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピーディスク(登録商標)ドライブ、テープドライブ、MRAM等)を含むことができる。記憶サブシステム804は、揮発性デバイス、不揮発性デバイス、動的デバイス、静的デバイス、読み取り/書き込みデバイス、読み取り専用デバイス、ランダムアクセスデバイス、シーケンシャルアクセスデバイス、場所アドレス指定可能デバイス、ファイルアドレス指定可能デバイス、及び/又は内容アドレス指定可能デバイスを含むことができる。いくつかの実施態様では、論理サブシステム802と記憶サブシステム804は、特定用途向け集積回路(ASIC)又はシステムオンチップなどの、1又は複数の単一デバイスに集積化されてよい。   [0050] The storage subsystem 804 may include removable media and / or embedded devices. The storage subsystem 804 can be an optical memory device (eg, CD, DVD, HD-DVD, Blu-Ray® disk, etc.), a semiconductor memory device (eg, RAM, EPROM, EEPROM, etc.), and / or magnetic, among others. Memory devices (eg, hard disk drive, floppy disk drive, tape drive, MRAM, etc.) can be included. Storage subsystem 804 includes volatile devices, non-volatile devices, dynamic devices, static devices, read / write devices, read-only devices, random access devices, sequential access devices, location addressable devices, file addressable devices And / or content addressable devices. In some implementations, the logical subsystem 802 and storage subsystem 804 may be integrated into one or more single devices, such as an application specific integrated circuit (ASIC) or system on chip.

[0051] 記憶サブシステム804は、1又は複数の物理的且つ非一時的なデバイスを含むことが認識されるだろう。しかしながら、いくつかの実施態様では、本明細書で説明される命令の態様は、有限期間の間は物理的デバイスにより保持されない純粋な信号(例えば、電磁気信号、光信号等)によって、一時的な方法で伝搬されてよい。その上、本開示に関係するデータ及び/又は他の形式の情報が、純粋な信号によって伝搬されてよい。   [0051] It will be appreciated that the storage subsystem 804 includes one or more physical and non-transitory devices. However, in some implementations, the instructional aspects described herein may be temporary by a pure signal (eg, an electromagnetic signal, an optical signal, etc.) that is not held by a physical device for a finite period of time. May be propagated in a manner. Moreover, data and / or other types of information related to the present disclosure may be propagated by pure signals.

[0052] 「プログラム」という用語は、特定の機能を実施するように実装されたコンピューティングシステム800の一態様を説明するために用いられることができる。いくつかの場合には、プログラムは、記憶サブシステム804により保持された命令を実行する論理サブシステム802によってインスタンス化されることができる。異なるプログラムが、同一のアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数等からインスタンス化されることができる、ということが理解されるだろう。同様に、同一のプログラムが、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、関数等によってインスタンス化されてよい。「プログラム」という用語は、実行可能ファイル、データファイル、ライブラリ、ドライバー、スクリプト、データベースレコード等の個々又は集まりを包含することができる。   [0052] The term "program" can be used to describe one aspect of a computing system 800 that is implemented to perform a particular function. In some cases, the program may be instantiated by a logical subsystem 802 that executes instructions held by the storage subsystem 804. It will be appreciated that different programs can be instantiated from the same application, service, code block, object, library, routine, API, function, etc. Similarly, the same program may be instantiated by different applications, services, code blocks, objects, routines, APIs, functions, etc. The term “program” can encompass an individual or collection of executable files, data files, libraries, drivers, scripts, database records, and the like.

[0053] 本明細書で用いられる「サービス」は、複数のユーザーセッションにわたって実行可能なアプリケーションプログラムであることが認識されるだろう。サービスは、1又は複数のシステムコンポーネント、プログラム、及び/又は他のサービスにとって利用可能なものであってよい。いくつかの実施例では、サービスは、1又は複数のサーバーコンピューティングデバイス上で動作することができる。   It will be appreciated that a “service” as used herein is an application program that can be executed across multiple user sessions. A service may be available to one or more system components, programs, and / or other services. In some examples, the service can run on one or more server computing devices.

[0054] 含まれる場合、表示サブシステム806が、記憶サブシステム804によって保持されたデータの視覚的表現を提示するために用いられてよい。この視覚的表現は、グラフィカルユーザーインターフェイス(GUI)の形をとることができる。本明細書で説明される方法及びプロセスが記憶サブシステムにより保持されるデータを変化させ、その結果記憶サブシステムの状態を変換する時、表示サブシステム806の状態が、その元となるデータの変化を視覚的に表現するように同様に変換されることができる。表示サブシステム806は、ほとんど任意の種類の技術を利用した1又は複数のディスプレイデバイスを含んでよい。そのようなディスプレイデバイスは、共通の筐体内で論理サブシステム802及び/又は記憶サブシステム804と結合されてよく、又は周辺機器としてのディスプレイデバイスであってもよい。   [0054] When included, the display subsystem 806 may be used to present a visual representation of the data maintained by the storage subsystem 804. This visual representation can take the form of a graphical user interface (GUI). When the methods and processes described herein change the data held by the storage subsystem and consequently convert the state of the storage subsystem, the state of the display subsystem 806 changes the underlying data. Can be similarly transformed to visually represent Display subsystem 806 may include one or more display devices that utilize almost any type of technology. Such a display device may be combined with the logical subsystem 802 and / or the storage subsystem 804 in a common enclosure, or may be a display device as a peripheral device.

[0055] 含まれる場合、通信サブシステム810が、コンピューティングシステム800を1又は複数の他のコンピューティングデバイスに通信可能に結合するように構成されてよい。通信サブシステム810は、1又は複数の異なる通信プロトコルと互換性のある有線及び/又は無線通信デバイスを含むことができる。非限定的な例として、通信サブシステムは、無線電話ネットワーク又は有線若しくは無線のローカルエリアネットワーク若しくはワイドエリアネットワークを介した通信用に構成されることができる。いくつかの実施態様では、通信サブシステムは、コンピューティングシステム800がインターネットなどのネットワークを介してメッセージを他のデバイスへ送信し、及び/又は他のデバイスから受信することを可能にすることができる。   [0055] When included, the communication subsystem 810 may be configured to communicatively couple the computing system 800 to one or more other computing devices. The communication subsystem 810 can include wired and / or wireless communication devices that are compatible with one or more different communication protocols. By way of non-limiting example, the communication subsystem can be configured for communication over a wireless telephone network or a wired or wireless local area network or wide area network. In some implementations, the communication subsystem may allow the computing system 800 to send and / or receive messages from other devices over a network such as the Internet. .

[0056] 本明細書で説明された構成及び/又は手法は本質的に例示的なものであり、数多くのバリエーションが可能であるためこれらの具体的な実施態様又は例は限定的な意味に解されてはならない、ということが理解されるだろう。本明細書で説明された具体的なルーチン又は方法は、多くの処理戦略のうちの1又は複数を代表することができる。それ故に、例示及び/又は説明された様々な動作は、例示及び/又は説明された順序で、他の順序で、並列で、又は省略されて、実施されることができる。同様に、上述された処理の順序は変更されることができる。   [0056] The configurations and / or techniques described herein are illustrative in nature and many variations are possible, and these specific embodiments or examples should be understood in a limiting sense. It will be understood that it must not be done. The specific routines or methods described herein may represent one or more of many processing strategies. Thus, the various operations illustrated and / or described may be performed in the order illustrated and / or described, in other orders, in parallel, or omitted. Similarly, the order of the processes described above can be changed.

[0057] 本開示の主題は、本明細書で開示された様々な処理、システム及び構成、並びに、他の特徴、機能、動作、及び/又は特性のみならず、それらのいずれか及び全ての均等物の、あらゆる新規且つ非自明なコンビネーション及びサブコンビネーションを含んでいる。   [0057] The subject matter of this disclosure is not only various processes, systems and configurations disclosed herein, and other features, functions, operations, and / or characteristics, but any and all equivalents thereof. Includes all new and non-obvious combinations and sub-combinations of objects.

Claims (11)

ディスプレイデバイスにおいて、照明効果を備えた拡張現実画像を表示する方法であって、
前記ディスプレイデバイスの局所的な環境の画像を撮影した画像データを受け取るステップと、
前記画像データを介して前記局所的な環境の物理的表面を識別するステップと、
前記物理的表面の上に前記物理的表面と空間的に位置合わせした状態で表示するための仮想構造の拡張現実画像を構築するステップであって、前記構築は、前記仮想構造の第1のモジュール型拡張現実画像セグメントの拡大縮小、回転、分断、及び変形のうちの1又は複数によって前記第1のモジュール型拡張現実画像セグメントを前記表面の幾何学的構造に基づいて前記表面にフィットさせ、次いで、前記仮想構造の見た目を形作るように前記第1のモジュール型拡張現実画像セグメントに隣接して前記仮想構造の第2のモジュール型拡張現実画像セグメントを配置することにより行われ、それぞれのモジュール型拡張現実画像セグメントは、事前計算された照明効果を備えると共に前記仮想構造の一部分の見た目を有する、ステップと、
前記拡張現実画像を前記ディスプレイデバイスへ出力するステップと、
を含む方法。
A method of displaying an augmented reality image with a lighting effect in a display device,
Receiving image data taken of an image of a local environment of the display device;
Identifying the physical surface of the local environment via the image data;
Constructing an augmented reality image of a virtual structure for display on the physical surface in spatial alignment with the physical surface, the construction comprising the first module of the virtual structure Fitting the first modular augmented reality image segment to the surface based on the geometry of the surface by one or more of scaling, rotating, fragmenting, and deforming the augmented reality image segment; Each of the modular extensions is arranged by placing a second modular augmented reality image segment of the virtual structure adjacent to the first modular augmented reality image segment to shape the appearance of the virtual structure. A real image segment having a pre-computed lighting effect and having a look of a portion of the virtual structure;
Outputting the augmented reality image to the display device;
Including methods.
前記局所的な環境の物理的表面を識別する前記ステップは、前記局所的な環境のメッシュ分析を実施するステップを含む、請求項1に記載の方法。   The method of claim 1, wherein the step of identifying a physical surface of the local environment includes performing a mesh analysis of the local environment. 前記物理的表面は、壁及び天井のうちの1又は複数を含む、請求項1に記載の方法。   The method of claim 1, wherein the physical surface comprises one or more of a wall and a ceiling. 前記事前計算された照明効果は、事前計算された指向性のある照明効果を含む、請求項1に記載の方法。   The method of claim 1, wherein the pre-calculated lighting effect comprises a pre-calculated directional lighting effect. 前記事前計算された照明効果は、事前計算された放射輝度伝達関数を含む、請求項1に記載の方法。   The method of claim 1, wherein the pre-calculated lighting effect comprises a pre-calculated radiance transfer function. 前記画像データを介して前記局所的な環境の照明特性を識別するステップと、前記局所的な環境の前記照明特性に基づいて前記第1及び第2のモジュール型拡張現実画像セグメントの見た目を調整するステップと、を更に含む、請求項1に記載の方法。   Identifying lighting characteristics of the local environment via the image data and adjusting the appearance of the first and second modular augmented reality image segments based on the lighting characteristics of the local environment The method of claim 1, further comprising: 前記照明特性は、前記局所的な環境の色特性を含み、前記第1及び第2のモジュール型拡張現実画像セグメントの見た目を調整する前記ステップは、前記第1及び第2のモジュール型拡張現実画像セグメントに前記色特性を添えるステップを含む、請求項6に記載の方法。   The lighting characteristic includes a color characteristic of the local environment, and the step of adjusting the appearance of the first and second modular augmented reality image segments includes the first and second modular augmented reality images. The method of claim 6, comprising attaching the color characteristic to a segment. 前記照明特性は、前記局所的な環境における物理的な照明の位置を含み、前記第1及び第2のモジュール型拡張現実画像セグメントの見た目を調整する前記ステップは、前記物理的な照明の位置にある仮想的な点照明から生じる照明効果を計算するステップを含む、請求項6に記載の方法。   The lighting characteristic includes a position of physical illumination in the local environment, and the step of adjusting the appearance of the first and second modular augmented reality image segments includes the position of the physical illumination. The method of claim 6, comprising calculating a lighting effect resulting from a virtual point illumination. 前記仮想構造の拡張現実画像を構築する前記ステップは、局所的な照明特性を識別するステップと、同様の事前計算された照明効果を有するように決定された一組のモジュール型拡張現実画像セグメントを選択するステップと、を含む、請求項1に記載の方法。   The step of constructing the augmented reality image of the virtual structure comprises identifying a set of modular augmented reality image segments determined to have similar precomputed lighting effects with identifying local lighting characteristics. Selecting the method. 前記仮想構造の拡張現実画像を構築する前記ステップは、隣接するモジュール型拡張現実画像セグメントを選択するための接続性制約条件を適用するステップを含む、請求項1に記載の方法。   The method of claim 1, wherein the step of constructing the augmented reality image of the virtual structure comprises applying connectivity constraints to select adjacent modular augmented reality image segments. コンピューティングデバイスであって、
シースルー・ディスプレイデバイスと、
画像センサーと、
論理サブシステムと、
命令が格納された記憶サブシステムと、を備え、
前記命令は、前記論理サブシステムによって、
前記コンピューティングデバイスの局所的な環境の画像を撮影した画像データを、前記画像センサーを介して取得するステップと、
前記画像データを介して前記局所的な環境の物理的表面を識別するステップと、
前記物理的表面と空間的に位置合わせした状態で前記物理的表面の上に前記シースルー・ディスプレイデバイスによって表示するための、仮想構造の拡張現実画像を構築するステップであって、前記構築は、前記仮想構造の第1のモジュール型拡張現実画像セグメントの拡大縮小、回転、分断、及び変形のうちの1又は複数によって前記第1のモジュール型拡張現実画像セグメントを前記表面の幾何学的構造に基づいて前記表面にフィットさせ、次いで、前記仮想構造の見た目を形作るように前記第1のモジュール型拡張現実画像セグメントに隣接して前記仮想構造の第2のモジュール型拡張現実画像セグメントを配置することにより行われ、それぞれのモジュール型拡張現実画像セグメントは、事前計算された照明効果を備えると共に前記仮想構造の一部分の見た目を有する、ステップと、
前記拡張現実画像を前記シースルー・ディスプレイデバイスへ出力するステップと、
を実施するように実行可能である、コンピューティングデバイス。
A computing device,
See-through display devices,
An image sensor;
A logical subsystem;
A storage subsystem in which instructions are stored;
The instructions are executed by the logical subsystem,
Obtaining image data of an image of a local environment of the computing device via the image sensor;
Identifying the physical surface of the local environment via the image data;
Constructing an augmented reality image of a virtual structure for display by the see-through display device on the physical surface in spatial alignment with the physical surface, the construction comprising: Based on the geometric structure of the surface, the first modular augmented reality image segment by one or more of scaling, rotation, fragmentation, and deformation of the first modular augmented reality image segment of virtual structure Fitting the surface and then placing a second modular augmented reality image segment of the virtual structure adjacent to the first modular augmented reality image segment to shape the appearance of the virtual structure. Each modular augmented reality image segment has a precomputed lighting effect and said Has the appearance of a portion of a virtual structure, and the step,
Outputting the augmented reality image to the see-through display device;
A computing device that is executable to implement.
JP2013261856A 2013-12-18 2013-12-18 Construction of augmented reality environment with pre-calculated lighting Active JP6272687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013261856A JP6272687B2 (en) 2013-12-18 2013-12-18 Construction of augmented reality environment with pre-calculated lighting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013261856A JP6272687B2 (en) 2013-12-18 2013-12-18 Construction of augmented reality environment with pre-calculated lighting

Publications (3)

Publication Number Publication Date
JP2015118574A JP2015118574A (en) 2015-06-25
JP2015118574A5 JP2015118574A5 (en) 2017-03-16
JP6272687B2 true JP6272687B2 (en) 2018-01-31

Family

ID=53531225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013261856A Active JP6272687B2 (en) 2013-12-18 2013-12-18 Construction of augmented reality environment with pre-calculated lighting

Country Status (1)

Country Link
JP (1) JP6272687B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169154A (en) * 2019-04-03 2019-10-03 Kddi株式会社 Terminal device and control method thereof, and program
JP6843178B2 (en) * 2019-04-17 2021-03-17 Kddi株式会社 Character image generator, character image generation method, program and recording medium
JP2021021038A (en) 2019-07-30 2021-02-18 デュポン・東レ・スペシャルティ・マテリアル株式会社 Curable silicone composition, optical semiconductor device and method of manufacturing the optical semiconductor device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0561962A (en) * 1991-08-30 1993-03-12 Hitachi Ltd Environmental model generating device for product evaluation
JP3577202B2 (en) * 1997-11-10 2004-10-13 三菱電機株式会社 Video production equipment
US10972680B2 (en) * 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view

Also Published As

Publication number Publication date
JP2015118574A (en) 2015-06-25

Similar Documents

Publication Publication Date Title
US10803670B2 (en) Constructing augmented reality environment with pre-computed lighting
RU2685970C2 (en) Conversation detection
JP5976019B2 (en) Theme-based expansion of photorealistic views
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
US9224237B2 (en) Simulating three-dimensional views using planes of content
CN105981076B (en) Synthesize the construction of augmented reality environment
US9591295B2 (en) Approaches for simulating three-dimensional views
JP2016509245A (en) Low latency image display on multi-display devices
CN112154405B (en) Three-dimensional push notification
CN103761763A (en) Method for constructing reinforced reality environment by utilizing pre-calculation
US9530243B1 (en) Generating virtual shadows for displayable elements
JP2014531693A (en) Motion-controlled list scrolling
JP6272687B2 (en) Construction of augmented reality environment with pre-calculated lighting
WO2022252688A1 (en) Augmented reality data presentation method and apparatus, electronic device, and storage medium
KR102197504B1 (en) Constructing augmented reality environment with pre-computed lighting
CN109710054B (en) Virtual object presenting method and device for head-mounted display equipment
US11756260B1 (en) Visualization of configurable three-dimensional environments in a virtual reality system
CN108510433B (en) Space display method and device and terminal
EP2887321B1 (en) Constructing augmented reality environment with pre-computed lighting
US20190163434A1 (en) Technologies for networked virtual content in a mobile computing environment
US11816798B1 (en) 3D surface representation refinement
US12002165B1 (en) Light probe placement for displaying objects in 3D environments on electronic devices
US20170213391A1 (en) Method and Device for Presenting Multimedia Information
US20230281933A1 (en) Spatial video capture and replay
US10964056B1 (en) Dense-based object tracking using multiple reference images

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180104

R150 Certificate of patent or registration of utility model

Ref document number: 6272687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250