JP7411585B2 - Centralized rendering - Google Patents

Centralized rendering Download PDF

Info

Publication number
JP7411585B2
JP7411585B2 JP2020570684A JP2020570684A JP7411585B2 JP 7411585 B2 JP7411585 B2 JP 7411585B2 JP 2020570684 A JP2020570684 A JP 2020570684A JP 2020570684 A JP2020570684 A JP 2020570684A JP 7411585 B2 JP7411585 B2 JP 7411585B2
Authority
JP
Japan
Prior art keywords
scene graph
computer system
data
client
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020570684A
Other languages
Japanese (ja)
Other versions
JPWO2019246157A5 (en
JP2021530024A (en
Inventor
ジェイディー, プラヴィーン バブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/011,413 external-priority patent/US10977858B2/en
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021530024A publication Critical patent/JP2021530024A/en
Publication of JPWO2019246157A5 publication Critical patent/JPWO2019246157A5/ja
Priority to JP2022176196A priority Critical patent/JP2023011823A/en
Priority to JP2023196665A priority patent/JP2024023346A/en
Application granted granted Critical
Publication of JP7411585B2 publication Critical patent/JP7411585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/025LAN communication management
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Description

(関連出願の相互参照)
本願は、その内容が、あらゆる目的のために、参照することによってその全体として本明細書に組み込まれる、2018年6月18日に出願された、米国特許出願第16/011,413号の利益を主張する。
(Cross reference to related applications)
This application has the benefit of U.S. patent application Ser. No. 16/011,413, filed June 18, 2018, the contents of which are incorporated herein by reference in their entirety for all purposes. claim.

本開示は、一般に、ディスプレイ上でグラフィカルデータを視覚的にレンダリングするためのシステムおよび方法に関し、特に、単一のディスプレイ上で複数のコンピュータアプリケーションからデータを視覚的にレンダリングするためのシステムおよび方法に関する。 TECHNICAL FIELD This disclosure relates generally to systems and methods for visually rendering graphical data on a display, and more particularly, to systems and methods for visually rendering data from multiple computer applications on a single display. .

種々の技術が、コンピュータアプリケーションのグラフィカルデータをディスプレイにレンダリングするために存在する。これらの技術が、グラフィカルデータを現実的に、すなわち、物理的世界に基づく視認者の予期と一貫して、かつそのように効率的にレンダリングすることが、望ましくあり得る。また、レンダリング技術が、例えば、複数のアプリケーションが単一のディスプレイ上に表示されるべきグラフィカルデータに寄与する、コンピュータシステムを含む、種々のトポロジのコンピュータシステムに適応することも、望ましくあり得る。 Various techniques exist for rendering computer application graphical data to a display. It may be desirable for these techniques to render graphical data realistically, ie, consistent with the viewer's expectations based on the physical world, and so efficiently. It may also be desirable for rendering techniques to be adaptable to computer systems of various topologies, including, for example, computer systems in which multiple applications contribute graphical data to be displayed on a single display.

従来的システムは、多くの場合、そのような多重アプリケーションシステムにおいてコンテンツを現実的かつ効率的にレンダリングすることができない。例えば、いくつかのそのようなシステムでは、単一のディスプレイ上に複数のアプリケーションからのグラフィカルデータをレンダリングすることは、データがディスプレイ上で誤ってソートされることをもたらし、ディスプレイの現実感を損なう、予期せぬ視覚結果を生成する。さらに、1つのアプリケーションからのグラフィカルデータは、照明および影付け効果を介して、またはシェーダを介して等、別のアプリケーションからのグラフィカルデータと現実的に相互作用することができない場合がある。加えて、いくつかのそのようなシステムは、不可視表面のカリング等のレンダリング最適化を使用し、算出効率を増加させる、それらの能力において限定される。 Conventional systems are often unable to realistically and efficiently render content in such multi-application systems. For example, in some such systems, rendering graphical data from multiple applications on a single display can result in data being incorrectly sorted on the display, detracting from the realism of the display. , producing unexpected visual results. Furthermore, graphical data from one application may not be able to realistically interact with graphical data from another application, such as through lighting and shadow effects, or through shaders. In addition, some such systems are limited in their ability to use rendering optimizations, such as culling of invisible surfaces, to increase computational efficiency.

拡張現実(AR)または「複合現実」を伴うシステムは、特に、複数のアプリケーションからのグラフィカルデータを単一のディスプレイにレンダリングすることの問題のより良好なソリューションを要求する。例えば、ARシステムは、複数のユーザが、共有仮想空間内で、単一のディスプレイにレンダリングされる全てのユーザからの仮想コンテンツと相互作用する潜在性を持つ。そのような相互作用が、真実味を持ち、ユーザにとって有意義であり、ARシステムのグラフィカル出力が、説得力があり、ユーザの視覚予期と一貫することを要求し得、異なるタイプおよび数のユーザ、ユーザハードウェア、およびユーザソフトウェア、ならびにユーザがシステムに関与することを所望し得る異なる方法に適応するために十分に柔軟であり、高いフレームレートで継続的動作を持続するため、かつモバイルデバイス上のバッテリ寿命を最大限にするために十分に効率的であることが、望ましい。さらに、ARシステムにおける個々のユーザと関連付けられるアプリケーションおよびアプリケーションデータが、セキュリティ(信頼できないユーザの間のデータアクセスによって損なわれ得る)を提供することと、特に、システムのユーザの数が大きくなるにつれて、スケーラビリティを維持することとの両方のために、他のユーザから独立したままであることが、望ましくあり得る。さらに、そのようなシステムは、ユーザおよびユーザアプリケーションに対する技術的制約を最小限にすることから利益を享受し得、例えば、ユーザがARシステムに参加するためのハードウェア要件を限定することは、より多くのユーザに参加するように促す。これは、個々のユーザまたはユーザのハードウェア上で起動するアプリケーションが複雑なレンダリング動作を実施する必要がある程度を限定することによって、例えば、そのような動作を専用ハードウェア上で起動するサーバ側ホストアプリケーション等の共有システムにオフロードすることによって、達成され得る。 Systems involving augmented reality (AR) or "mixed reality" particularly require better solutions to the problem of rendering graphical data from multiple applications onto a single display. For example, AR systems have the potential for multiple users to interact within a shared virtual space with virtual content from all users rendered on a single display. Such interactions are believable and meaningful to the user, and may require that the graphical output of the AR system be convincing and consistent with the user's visual expectations, and may require different types and numbers of users, User hardware, and user software, are flexible enough to adapt to the different ways users may wish to engage with the system, to sustain continuous operation at high frame rates, and on mobile devices. It is desirable to be efficient enough to maximize battery life. Additionally, applications and application data associated with individual users in an AR system provide security (which can be compromised by data access among untrusted users), especially as the number of users of the system grows. It may be desirable to remain independent from other users, both to maintain scalability. Furthermore, such systems may benefit from minimizing technical constraints on users and user applications; for example, limiting the hardware requirements for users to participate in an AR system may be more Encourage more users to participate. This is done by limiting the extent to which an individual user or an application launching on the user's hardware needs to perform complex rendering operations, e.g. by limiting the extent to which an individual user or an application launching on the user's hardware has to perform complex rendering operations, e.g. This can be accomplished by offloading applications to a shared system.

本開示の実施例は、複数のアプリケーションが単一のディスプレイ上に表示されるべきグラフィカルデータに寄与する、コンピュータシステムを説明する。本開示の実施例は、グラフィカルデータを現実的に、すなわち、物理的世界に基づく視認者の予期と一貫して、かつ効率的にレンダリングするために使用されることができる。本開示の実施例によると、第1のグラフィカルデータは、第1のクライアントアプリケーションから受信されてもよく、第2のグラフィカルデータは、第2の独立クライアントアプリケーションから受信されてもよい。第1および第2のグラフィカルデータは、第1および第2のグラフィカルデータによって表されるノードの間の関係を記述するために使用され得る、シーングラフ等の「一元化」データ構造に組み合わせられてもよい。一元化データ構造は、故に、現実的かつ効率的様式で、第1および第2のグラフィカルデータを反映する場面をディスプレイにレンダリングするために使用されることができる。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
コンピュータシステムの第1のクライアントアプリケーションから、複数の第1のノードを備える第1のグラフィカルデータを受信することと、
前記コンピュータシステムの第2のクライアントアプリケーションから、複数の第2のノードを備える第2のグラフィカルデータを受信することと、
シーングラフを発生させることと
を含み、
前記シーングラフは、前記複数の第1のノードのうちの少なくとも1つの第1のノードと前記複数の第2のノードのうちの少なくとも1つの第2のノードとの間のオクルージョン関係を記述し、
前記シーングラフは、前記オクルージョン関係に基づいて、レンダリングされる場面を作成するように構成され、少なくとも1つの第2のノードは、少なくとも1つの第1のノードをオクルードする、方法。
(項目2)
前記コンピュータシステムのプロセッサによって、前記シーングラフをトラバースすることをさらに含む、項目1に記載の方法。
(項目3)
前記コンピュータシステムは、ディスプレイと通信するように構成され、前記方法はさらに、前記ディスプレイ上に出力を表示することを含む、項目2に記載の方法。
(項目4)
前記出力を表示することは、前記複数の第1のノードのうちの少なくとも1つの第1のノードおよび前記複数の第2のノードのうちの少なくとも1つの第2のノードを表示することを含む、項目3に記載の方法。
(項目5)
前記出力を表示することは、少なくとも1つの第1のノードを表示することから成る、項目4に記載の方法。
(項目6)
前記コンピュータシステムにおいて、最適化を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目7)
前記最適化を適用することは、表面をカリングすることを含む、項目6に記載の方法。
(項目8)
前記コンピュータシステムにおいて、視覚効果を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目9)
前記視覚効果を適用することは、光量値を計算することを含む、項目8に記載の方法。
(項目10)
前記視覚効果を適用することは、シェーダを実行することを含む、項目8に記載の方法。
(項目11)
前記コンピュータシステムにおいて、物理的効果を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目12)
前記物理的効果を適用することは、衝突を検出することを含む、項目11に記載の方法。
(項目13)
前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、項目1に記載の方法。
(項目14)
前記第1のグラフィカルデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
前記第2のグラフィカルデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、項目1に記載の方法。
(項目15)
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、項目1に記載の方法。
(項目16)
前記第1のグラフィカルデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィカルデータは、前記第1の処理スレッドから独立する前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、項目1に記載の方法。
(項目17)
1つ以上のプロセッサを備えるシステムであって、前記1つ以上のプロセッサは、方法を実施するように構成され、前記方法は、
コンピュータシステムの第1のクライアントアプリケーションから、複数の第1のノードを備える第1のグラフィカルデータを受信することと、
前記コンピュータシステムの第2のクライアントアプリケーションから、複数の第2のノードを備える第2のグラフィカルデータを受信することと、
シーングラフを発生させることと
を含み、
前記シーングラフは、前記複数の第1のノードのうちの少なくとも1つの第1のノードと前記複数の第2のノードのうちの少なくとも1つの第2のノードとの間のオクルージョン関係を記述し、
前記シーングラフは、前記オクルージョン関係に基づいて、レンダリングされる場面を作成するように構成され、少なくとも1つの第2のノードは、少なくとも1つの第1のノードをオクルードする、システム。
(項目18)
前記方法はさらに、前記コンピュータシステムのプロセッサに、前記シーングラフをトラバースさせることを含む、項目17に記載のシステム。
(項目19)
前記コンピュータシステムは、ディスプレイと通信するように構成され、前記方法はさらに、前記コンピュータシステムに、前記ディスプレイ上に出力を提示させることを含む、項目18に記載のシステム。
(項目20)
前記出力を表示することは、前記複数の第1のノードのうちの少なくとも1つの第1のノードおよび前記複数の第2のノードのうちの少なくとも1つの第2のノードを表示することを含む、項目19に記載のシステム。
(項目21)
前記出力を表示することは、少なくとも1つの第1のノードを表示することから成る、項目20に記載のシステム。
(項目22)
前記方法はさらに、前記コンピュータシステムに、最適化を前記出力に適用させることを含む、項目18に記載のシステム。
(項目23)
前記最適化を適用することは、表面をカリングすることを含む、項目22に記載のシステム。
(項目24)
前記方法はさらに、前記コンピュータシステムに、視覚効果を前記出力に適用させることを含む、項目18に記載のシステム。
(項目25)
前記視覚効果を適用することは、光量値を計算することを含む、項目24に記載のシステム。
(項目26)
前記視覚効果を適用することは、シェーダを実行することを含む、項目24に記載のシステム。
(項目27)
前記方法はさらに、前記コンピュータシステムに、物理的効果を前記出力に適用させることを含む、項目18に記載のシステム。
(項目28)
前記物理的効果を適用することは、衝突を検出することを含む、項目27に記載のシステム。
(項目29)
前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、項目17に記載のシステム。
(項目30)
前記第1のグラフィカルデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
前記第2のグラフィカルデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、項目17に記載のシステム。
(項目31)
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、項目17に記載のシステム。
(項目32)
前記第1のグラフィカルデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィカルデータは、前記第1の処理スレッドから独立する前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、項目17に記載のシステム。
(項目33)
前記システムは、前記コンピュータシステムを備える、項目17に記載のシステム。
(項目34)
前記第1のクライアントアプリケーションは、前記1つ以上のプロセッサを介して実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記1つ以上のプロセッサを介して実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記システム上でサンドボックス化される、項目17に記載のシステム。
Embodiments of the present disclosure describe a computer system in which multiple applications contribute graphical data to be displayed on a single display. Embodiments of the present disclosure can be used to render graphical data realistically, ie, consistent with a viewer's expectations based on the physical world, and efficiently. According to embodiments of the present disclosure, first graphical data may be received from a first client application, and second graphical data may be received from a second independent client application. The first and second graphical data may be combined into a "unified" data structure, such as a scene graph, that may be used to describe the relationships between the nodes represented by the first and second graphical data. good. The unified data structure can therefore be used to render a scene reflecting the first and second graphical data on a display in a practical and efficient manner.
The present invention provides, for example, the following.
(Item 1)
A method,
receiving first graphical data comprising a plurality of first nodes from a first client application of the computer system;
receiving second graphical data comprising a plurality of second nodes from a second client application of the computer system;
Generating a scene graph and
including;
The scene graph describes an occlusion relationship between at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes,
The method wherein the scene graph is configured to create a rendered scene based on the occlusion relationship, wherein at least one second node occlusions at least one first node.
(Item 2)
The method of item 1, further comprising traversing the scene graph by a processor of the computer system.
(Item 3)
3. The method of item 2, wherein the computer system is configured to communicate with a display, and the method further includes displaying output on the display.
(Item 4)
Displaying the output includes displaying at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes. The method described in item 3.
(Item 5)
5. The method of item 4, wherein displaying the output comprises displaying at least one first node.
(Item 6)
3. The method of item 2, further comprising applying an optimization to the output at the computer system.
(Item 7)
7. The method of item 6, wherein applying the optimization includes culling a surface.
(Item 8)
3. The method of item 2, further comprising applying a visual effect to the output at the computer system.
(Item 9)
9. The method of item 8, wherein applying the visual effect includes calculating a light intensity value.
(Item 10)
9. The method of item 8, wherein applying the visual effect includes running a shader.
(Item 11)
3. The method of item 2, further comprising, in the computer system, applying a physical effect to the output.
(Item 12)
12. The method of item 11, wherein applying the physical effect includes detecting a collision.
(Item 13)
The first client application is a first application running on the computer system, and the second client application is a second application running on the computer system, and the first client application is a second application running on the computer system. The method of item 1, wherein a client application is sandboxed on the computer system to the second client application.
(Item 14)
the first graphical data corresponds to a first client scene graph associated with the first client application;
the second graphical data corresponds to a second client scene graph associated with the second client application;
the first client scene graph is sandboxed on the computer system with respect to the second client scene graph;
the first client scene graph is sandboxed on the computer system with respect to the scene graph;
2. The method of item 1, wherein the second client scene graph is sandboxed on the computer system with respect to the scene graph.
(Item 15)
The method of item 1, wherein the scene graph corresponds to a version of a versioned scene graph.
(Item 16)
The first graphical data is communicated to the scene graph using a first processing thread of the computer system, and the second graphical data is communicated to the scene graph using a first processing thread of the computer system that is independent of the first processing thread. The method of item 1, wherein the scene graph is communicated using a second processing thread.
(Item 17)
A system comprising one or more processors, the one or more processors configured to perform a method, the method comprising:
receiving first graphical data comprising a plurality of first nodes from a first client application of the computer system;
receiving second graphical data comprising a plurality of second nodes from a second client application of the computer system;
Generating a scene graph and
including;
The scene graph describes an occlusion relationship between at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes,
The system wherein the scene graph is configured to create a rendered scene based on the occlusion relationship, wherein at least one second node occlusions at least one first node.
(Item 18)
18. The system of item 17, the method further comprising causing a processor of the computer system to traverse the scene graph.
(Item 19)
19. The system of item 18, wherein the computer system is configured to communicate with a display, and the method further includes causing the computer system to present output on the display.
(Item 20)
Displaying the output includes displaying at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes. The system described in item 19.
(Item 21)
21. The system of item 20, wherein displaying the output comprises displaying at least one first node.
(Item 22)
19. The system of item 18, the method further comprising causing the computer system to apply an optimization to the output.
(Item 23)
23. The system of item 22, wherein applying the optimization includes culling a surface.
(Item 24)
19. The system of item 18, the method further comprising causing the computer system to apply visual effects to the output.
(Item 25)
25. The system of item 24, wherein applying the visual effect includes calculating a light intensity value.
(Item 26)
25. The system of item 24, wherein applying the visual effect includes executing a shader.
(Item 27)
19. The system of item 18, wherein the method further includes causing the computer system to apply a physical effect to the output.
(Item 28)
28. The system of item 27, wherein applying the physical effect includes detecting a collision.
(Item 29)
The first client application is a first application running on the computer system, and the second client application is a second application running on the computer system, and the first client application is a second application running on the computer system. 18. The system of item 17, wherein a client application is sandboxed on the computer system to the second client application.
(Item 30)
the first graphical data corresponds to a first client scene graph associated with the first client application;
the second graphical data corresponds to a second client scene graph associated with the second client application;
the first client scene graph is sandboxed on the computer system with respect to the second client scene graph;
the first client scene graph is sandboxed on the computer system with respect to the scene graph;
18. The system of item 17, wherein the second client scene graph is sandboxed on the computer system with respect to the scene graph.
(Item 31)
18. The system of item 17, wherein the scene graph corresponds to a version of a versioned scene graph.
(Item 32)
The first graphical data is communicated to the scene graph using a first processing thread of the computer system, and the second graphical data is communicated to the scene graph using a first processing thread of the computer system that is independent of the first processing thread. 18. The system of item 17, wherein the scene graph is communicated using a second processing thread.
(Item 33)
18. The system of item 17, wherein the system comprises the computer system.
(Item 34)
The first client application is a first application executed via the one or more processors, and the second client application is a second application executed via the one or more processors. 18. The system of item 17, wherein the first client application is sandboxed on the system with respect to the second client application.

図1A-1Eは、本開示の実施例による、グラフィカルディスプレイを含む、例示的コンピュータシステムを図示する。1A-1E illustrate an example computer system including a graphical display according to an embodiment of the present disclosure.

図2Aは、本開示の実施例による、例示的コンピュータシステムにおけるデータの例示的フローを示す。FIG. 2A illustrates an example flow of data in an example computer system, according to an embodiment of the present disclosure.

図2Bは、本開示の実施例による、例示的コンピュータシステムに対応する例示的レンダラ出力を示す。FIG. 2B illustrates an example renderer output corresponding to an example computer system, according to an embodiment of the present disclosure.

図2Cは、本開示の実施例による、複数の独立アプリケーションを含む、例示的コンピュータシステムにおけるデータの例示的フローを示す。FIG. 2C illustrates an example flow of data in an example computer system including multiple independent applications, according to an embodiment of the present disclosure.

図2Dは、本開示の実施例による、複数の独立アプリケーションを含む、例示的コンピュータシステムに対応する例示的レンダラ出力を示す。FIG. 2D illustrates an example renderer output corresponding to an example computer system that includes multiple independent applications, according to an embodiment of the present disclosure.

図3Aは、本開示の実施例による、一元化シーングラフを使用して、複数の独立アプリケーションからの3Dデータをディスプレイにレンダリングし得る、例示的コンピュータシステムのコンポーネントを図示する。FIG. 3A illustrates components of an example computer system that may render 3D data from multiple independent applications to a display using a unified scene graph, according to embodiments of the present disclosure.

図3Bは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的クライアントアプリケーションの側面を図示する。FIG. 3B illustrates aspects of an example client application for an example computer system, including multiple independent client applications, in accordance with an embodiment of the present disclosure.

図3Cは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的クライアント・サーバインターフェースの側面を図示する。FIG. 3C illustrates aspects of an example client-server interface for an example computer system that includes multiple independent client applications, according to an embodiment of the present disclosure.

図3Dは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的ホストアプリケーション340の側面を図示する。FIG. 3D illustrates aspects of an example host application 340 for an example computer system that includes multiple independent client applications, according to an embodiment of the present disclosure.

図3Eは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的レンダラ360の側面を図示する。FIG. 3E illustrates aspects of an example renderer 360 for an example computer system that includes multiple independent client applications, according to an embodiment of the present disclosure.

図4は、本開示の実施例による、任意のポータブルまたは非ポータブルデバイス内で具現化され得る、システムアーキテクチャの実施例を図示する。FIG. 4 illustrates an example system architecture that may be implemented within any portable or non-portable device, according to an example of the present disclosure.

実施例の以下の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随の図面が、参照される。他の実施例も、使用され得、構造変更が、開示される実施例の範囲から逸脱することなく、行われ得ることを理解されたい。 In the following description of embodiments, reference is made to the accompanying drawings, which form a part hereof, and in which is shown, by way of illustration, specific embodiments that may be practiced. It is to be understood that other embodiments may be used and structural changes may be made without departing from the scope of the disclosed embodiments.

図1A-1Eは、ディスプレイを伴う種々の例示的コンピュータシステムを図示する。図1Aは、外部モニタに接続される例示的デスクトップコンピュータを示す。図1Bは、ディスプレイを含む、例示的ラップトップを示す。図1Cは、統合ディスプレイを含む、例示的モバイルデバイスを示す。図1Dは、ディスプレイを含む、例示的テレビを示す。図1Eは、頭部搭載型ディスプレイを含む、例示的コンピュータシステムを示す。本開示は、いかなる特定のタイプのコンピュータシステムにも、いかなる特定のタイプのディスプレイにも、またはコンピュータシステムをディスプレイに接続するいかなる特定の手段にも限定されない。本開示はさらに、2次元ディスプレイに限定されず、特に、立体ディスプレイ等の3次元ディスプレイが、検討される。 1A-1E illustrate various example computer systems with displays. FIG. 1A shows an exemplary desktop computer connected to an external monitor. FIG. 1B shows an exemplary laptop that includes a display. FIG. 1C shows an example mobile device that includes an integrated display. FIG. ID shows an exemplary television including a display. FIG. 1E shows an example computer system that includes a head-mounted display. This disclosure is not limited to any particular type of computer system, to any particular type of display, or to any particular means of connecting a computer system to a display. The present disclosure is further not limited to two-dimensional displays, but specifically contemplates three-dimensional displays, such as stereoscopic displays.

いくつかの例示的コンピュータシステムでは、ディスプレイ上にグラフィックで(「レンダリングされる場面」として)提示されるべきデータは、3次元空間内でオブジェクト(ポリゴンを含む、2Dまたは3D幾何プリミティブ等)を表すデータ(「3Dデータ」)を含み、ディスプレイ上で3Dデータを提示することは、視軸に沿って配向される視認起点から視認されるような3次元空間内のオブジェクトに対応する画像(「表示される場面」)を提示することを含む。例えば、コンピュータシステム上で起動するソフトウェアアプリケーション(3Dエンジンを使用するビデオゲーム等)では、3Dデータは、3次元ゲーム世界の中のオブジェクトの空間座標、配向、および/または視覚性質、ならびにゲーム世界の中の視認起点および視軸を記述するデータを含んでもよい。3Dデータはまた、レンダリングされるべきオブジェクトと関連付けられるテクスチャに関連するデータ、オブジェクトに関連するシェーダパラメータ、およびオブジェクトが表示され得る方法に影響を及ぼす他の情報を含んでもよい。ゲームは、例えば、「レンダリング」または「描画」段階の間、表示される場面としてディスプレイ上に提示するためのレンダリングされる場面を作成するように、ソフトウェアおよび/またはハードウェア「パイプライン」に指示してもよい。そのような実施例では、概して、結果として生じる画像が、視覚世界についてのユーザの予期を反映することが、望ましい。特に、概して、視認起点により近接する第1の不透明なオブジェクトが、第1のオブジェクトの後方に第2のオブジェクトをオクルードすることが、望ましい。正しくオクルードされていないオブジェクトは、ユーザを混乱させ得、オブジェクトが3次元空間内に位置する場所を明確に提示しない場合がある。いくつかの例示的コンピュータシステムでは、オクルージョンは、視認起点により近接するオブジェクトが、視認起点からより遠いオブジェクトの上でソートまたは描画される、ソーティングを通して達成される。 In some example computer systems, the data to be presented graphically (as a "rendered scene") on a display represents objects (such as 2D or 3D geometric primitives, including polygons, etc.) in three-dimensional space. The presentation of 3D Data on a display, including data ("3D Data"), refers to an image ("Display This includes presenting "scenes in which the For example, in a software application running on a computer system (such as a video game that uses a 3D engine), 3D data may contain information about the spatial coordinates, orientation, and/or visual properties of objects within a three-dimensional game world, as well as the game world's spatial coordinates, orientation, and/or visual properties. It may also include data describing the viewing origin and viewing axis within the image. 3D data may also include data related to textures associated with the object to be rendered, shader parameters associated with the object, and other information that affects how the object may be displayed. For example, during a "rendering" or "drawing" phase, a game instructs a software and/or hardware "pipeline" to create a rendered scene for presentation on a display as a displayed scene. You may. In such embodiments, it is generally desirable for the resulting images to reflect the user's expectations about the visual world. In particular, it is generally desirable for a first opaque object that is closer to the viewing origin to occlude a second object behind the first object. Objects that are not occluded correctly can be confusing to the user and may not clearly indicate where the object is located in three-dimensional space. In some example computer systems, occlusion is achieved through sorting, where objects that are closer to the viewing origin are sorted or drawn over objects that are farther from the viewing origin.

1つのオブジェクトが、別のものを現実的にオクルードするように、ディスプレイ上に提示するために複数のオブジェクトをソートすることは、オブジェクト間の関係、例えば、3次元空間内のオブジェクト間の空間関係についての情報を要求する。いくつかの例示的コンピュータシステムは、シーングラフを利用し、場面としてレンダリングされるべきオブジェクト等の1つ以上のオブジェクト間の関係(例えば、階層関係)を表す。本明細書で使用されるように、シーングラフは、そのような関係を表す任意のデータ構造である。例えば、シーングラフでは、提示されるべきレンダリングされるオブジェクトは、グラフではノードとして表されてもよく、ノード間の関係は、オブジェクト間の論理または空間関係を表す。レンダラは、次いで、当技術分野で公知の技法に従って、シーングラフをトラバースし、適切なオクルージョンを達成するであろう様式で、オブジェクトのうちの少なくとも1つを表示のためにレンダリングまたは準備することができる。言い換えると、レンダラは、ノードを有するオブジェクトの場面を作成し得るが、ディスプレイ上の提示は、レンダラ内の別のオブジェクトによってオクルードされるオブジェクトが、結果として生じる表示される場面内で部分的にのみ提示されるであろうように、レンダリングされるオブジェクトのサブセットのみであり得る(そのような実施形態における出力は、オブジェクトのオクルードされない部分である)。そのような選択的表示は、ユーザが、所与の時間周期内に視認可能であるように第2のアプリケーションから起動する第2のオブジェクトによって具現化されるコンテンツのみを所望する場合、第1のアプリケーションから起動する第1のオブジェクトによって具現化されるコンテンツを不明瞭にするために有益であり得る。いくつかの実施例では、シーングラフは、3Dデータを含むアプリケーションと、その3Dデータを画面への提示のためにレンダリングするためのレンダラとの間に位置する、中間データ構造であり、いくつかの実施例では、アプリケーションは、場面情報をシーングラフに書き込み、シーングラフは、場面をレンダリングする、または表示される場面を出力するためにレンダラによって後で使用されてもよい。 Sorting multiple objects for presentation on a display such that one object realistically occludes another is a method of determining relationships between objects, e.g., spatial relationships between objects in three-dimensional space. Request information about. Some example computer systems utilize scene graphs to represent relationships (eg, hierarchical relationships) between one or more objects, such as objects to be rendered as a scene. As used herein, a scene graph is any data structure that represents such relationships. For example, in a scene graph, rendered objects to be presented may be represented as nodes in the graph, and relationships between nodes represent logical or spatial relationships between the objects. The renderer may then traverse the scene graph and render or prepare at least one of the objects for display in a manner that will achieve appropriate occlusion according to techniques known in the art. can. In other words, a renderer may create a scene of objects that have nodes, but the presentation on the display is such that an object that is occluded by another object in the renderer is only partially within the resulting displayed scene. As will be presented, only a subset of the object may be rendered (the output in such an embodiment is the non-occluded portion of the object). Such selective display may occur when the user desires only the content embodied by the second object launched from the second application to be visible within a given period of time. It may be useful to obscure the content embodied by the first object launched from the application. In some embodiments, a scene graph is an intermediate data structure that sits between an application containing 3D data and a renderer for rendering that 3D data for presentation to a screen, and includes several In embodiments, an application writes scene information to a scene graph, which may later be used by a renderer to render a scene or output a scene to be displayed.

図2Aは、例示的コンピュータシステム200におけるデータの例示的フローを示す。システム200では、単一のアプリケーション210は、レンダラ250がディスプレイ290上での提示のためにオブジェクト220をレンダリングするために使用し得る、シーングラフ240にデータを書き込むことができる。例えば、オブジェクト220は、2つの人間の手、すなわち、手232および手236の3D表現をともに備える、いくつかのオブジェクト(例えば、ポリゴン)を含んでもよく、アプリケーションは、例えば、レンダリングまたは描画段階の間、視軸に沿って配向される視認起点の視点からディスプレイ上に提示されるようにオブジェクト220に指示してもよい。実施例では、手232および手236は、握手で相互係止され、手の相対位置付けのため、視認者は、視認起点および視軸に対して、手232のいくつかの部分が手236の部分をオクルードし、手236を構成するいくつかのポリゴンが手232の部分をオクルードすることを予期する。アプリケーション210は、他のポリゴンをオクルードするはずであるポリゴン、すなわち、他のものの上に表示するようにソートされるはずであるポリゴンを識別するために使用され得る、オブジェクト220を構成するポリゴンの間の空間関係等のオブジェクト220の間の関係を記述する情報を、シーングラフ240に書き込むことができる。例えば、シーングラフ240は、ポリゴン234(手232に属する)が、視認起点と手236を構成するポリゴンとの間に位置付けられ、したがって、手236におけるそれらのポリゴンをオクルードするはずであり、ポリゴン238(手236に属する)が、視認起点と手232を備えるポリゴンとの間に位置付けられ、したがって、手232におけるそれらのポリゴンをオクルードするはずであることを反映し得る。レンダラ250は、次いで、オブジェクト220または手232のみもしくは手232のオクルードされない部分または手236のみ等のサブセットを、提示のために所望のオクルージョンと一貫するディスプレイ290への出力として出力してもよい。 FIG. 2A shows an example flow of data in an example computer system 200. In system 200, a single application 210 can write data to scene graph 240 that renderer 250 can use to render objects 220 for presentation on display 290. For example, object 220 may include a number of objects (e.g., polygons) that together comprise 3D representations of two human hands, namely hand 232 and hand 236, and the application may, for example, During the display, the object 220 may be directed to be presented on the display from the perspective of a viewing origin that is oriented along the viewing axis. In the example, hand 232 and hand 236 are interlocked in a handshake, and because of the relative positioning of the hands, the viewer may notice that some parts of hand 232 are part of hand 236 relative to the viewing origin and visual axis. , and expect some polygons that make up hand 236 to occlude parts of hand 232. The application 210 identifies polygons between the polygons that make up the object 220 that can be used to identify polygons that should occlude other polygons, i.e., should be sorted to display on top of others. Information describing the relationships between objects 220, such as the spatial relationships of objects 220, can be written to scene graph 240. For example, scene graph 240 shows that polygon 234 (belonging to hand 232) is located between the viewing origin and the polygons that make up hand 236, and should therefore occlude those polygons in hand 236, and polygon 238 (belonging to hand 236) is located between the viewing origin and the polygon comprising hand 232, and may therefore reflect that it should occlude those polygons in hand 232. Renderer 250 may then output a subset, such as only object 220 or hand 232 or an unoccluded portion of hand 232 or only hand 236, as output to display 290 consistent with the desired occlusion for presentation.

図2Bは、図2Aに示される例示的コンピュータシステム200のレンダラ250の例示的出力を示す。図2Aに関して上記に説明される実施例では、オブジェクト220の相対位置に基づいて、視認者は、手232を構成するいくつかのオブジェクト(ポリゴン234等)が手236をオクルードし、手236を構成するいくつかのオブジェクト(ポリゴン238等)が手232をオクルードすることを予期する。図2Bに示される例示的出力は、予期されるオクルージョンと一貫する。すなわち、図2Aのオブジェクト220は、視認者の予期と一貫する握手をディスプレイ290上に提示するように正しく表示される。 FIG. 2B shows an example output of the renderer 250 of the example computer system 200 shown in FIG. 2A. In the example described above with respect to FIG. 2A, based on the relative positions of objects 220, the viewer may notice that some objects (such as polygons 234) that make up hand 232 occlude hand 236 and that We expect some objects (such as polygon 238) to occlude hand 232. The example output shown in FIG. 2B is consistent with expected occlusion. That is, object 220 of FIG. 2A is correctly displayed to present a handshake on display 290 that is consistent with the viewer's expectations.

図2Aおよび2Bに示される例示的コンピュータシステム200では、シーングラフ240は、単一のアプリケーションのみによって、アプリケーション210に直接書き込まれる。レンダラ250は、次いで、シーングラフ240をトラバースし、適切なオクルージョンを伴って手232および手236をレンダリングする。例示的コンピュータシステム200等のレンダリングプロセスの一部としてシーングラフを使用する従来的システムは、シーングラフ(例えば、シーングラフ240)が、複数の独立アプリケーションから直接入力を受信するときに、オブジェクトを正しくオクルードしない場合がある。これらの状況では、例示的コンピュータシステム200と異なり、ディスプレイ上でオブジェクトを正しくソートするために必要とされ得る、オブジェクト関係データの全てを伴うシーングラフを提供し得るアプリケーションが、1つも存在しない。 In the exemplary computer system 200 shown in FIGS. 2A and 2B, scene graph 240 is written directly to application 210 by only a single application. Renderer 250 then traverses scene graph 240 and renders hand 232 and hand 236 with appropriate occlusion. Conventional systems that use a scene graph as part of a rendering process, such as example computer system 200, correctly render objects when the scene graph (e.g., scene graph 240) receives direct input from multiple independent applications. It may not be occluded. In these situations, unlike example computer system 200, there is no single application that can provide a scene graph with all of the object-related data that may be needed to properly sort objects on the display.

図2Cは、2つの独立アプリケーションを使用する、例示的コンピュータシステム201におけるデータの例示的フローを示し、上記に説明されるオクルージョン問題を図示する。上記に説明される例示的コンピュータシステム200と異なり、例示的コンピュータシステム201は、2つの独立アプリケーション、すなわち、アプリケーション212と、アプリケーション214とを含む。例示的コンピュータシステム201では、アプリケーション212およびアプリケーション214は両方とも、データをシーングラフ240に書き込み、それらの個別の3Dデータを単一のディスプレイ290にレンダリングする。図2Cでは、アプリケーション212は、オブジェクト222(手232を構成するオブジェクトを含む)をレンダリングおよび提示しようと試み、アプリケーション214は、オブジェクト224(手236を構成するオブジェクトを含む)をレンダリングおよび提示しようと試みる。本実施例では、図2Aおよび2Bに説明される実施例におけるように、手232および手236は、同一の3D環境内で並行して表示される場合、視認者が、手232の部分が手236をオクルードし、手236の部分が手232をオクルードすることを予期するであろうように、握手で相互係止されるであろう。 FIG. 2C shows an example flow of data in example computer system 201 using two independent applications and illustrates the occlusion problem described above. Unlike the example computer system 200 described above, the example computer system 201 includes two independent applications: application 212 and application 214. In example computer system 201, application 212 and application 214 both write data to scene graph 240 and render their separate 3D data to a single display 290. In FIG. 2C, application 212 attempts to render and present objects 222 (including the objects that make up hand 232), and application 214 attempts to render and present objects 224 (including the objects that make up hand 236). try. In this example, when hand 232 and hand 236 are displayed side by side within the same 3D environment, as in the example illustrated in FIGS. 2A and 2B, the viewer may notice that part of hand 232 is 236 and would be interlocked in a handshake, as one would expect parts of hand 236 to occlude hand 232.

図2Cに示される実施例は、レンダリングされるべきオブジェクトの現実的なオクルージョンを達成することの困難を有し得る。実施例では、アプリケーション212は、オブジェクト222(手232を含む)に対応するデータをシーングラフ240に書き込むことができ、アプリケーション214は、オブジェクト224(手236を含む)に対応するデータを同一のシーングラフ240に書き込むことができる。しかしながら、例示的コンピュータシステム201では、アプリケーション212およびアプリケーション214が、独立(「サンドボックス化された」)アプリケーションである場合、アプリケーション212は、アプリケーション214のオブジェクト224(手236およびその構成オブジェクトを含む)に関連するデータにアクセスすることができず、同様に、アプリケーション214は、アプリケーション212のオブジェクト222(手232およびその構成オブジェクトを含む)に関連するデータにアクセスすることができない。すなわち、いくつかの実施例では、アプリケーション212またはアプリケーション214のいずれも、オブジェクト222とオブジェクト224との間の関係を完全に識別することができない。したがって、アプリケーション212またはアプリケーション214のいずれも、他のオブジェクトをオクルードするオブジェクト、またはオブジェクトがディスプレイ上でソートされるはずである順序を識別するために必要であり得る、情報をシーングラフ240に書き込むことができない。 The embodiment shown in FIG. 2C may have difficulty achieving realistic occlusion of objects to be rendered. In an example, application 212 may write data corresponding to object 222 (including hand 232) to scene graph 240, and application 214 may write data corresponding to object 224 (including hand 236) to scene graph 240 in the same scene. Graph 240 can be filled in. However, in example computer system 201, if application 212 and application 214 are independent ("sandboxed") applications, then application 212 uses application 214's objects 224 (including hand 236 and its constituent objects) to Similarly, application 214 cannot access data associated with application 212's objects 222 (including hand 232 and its constituent objects). That is, in some embodiments, neither application 212 nor application 214 can completely identify the relationship between object 222 and object 224. Accordingly, neither application 212 nor application 214 writes information to scene graph 240 that may be necessary to identify objects that occlude other objects, or the order in which objects should be sorted on the display. I can't.

図2Dは、図2Cに示される例示的コンピュータシステム201のレンダラ250の例示的出力を示す。図2Cに関して上記に説明される実施例では、オブジェクト222およびオブジェクト224の相対位置付けに基づいて、視認者は、手232のいくつかの部分が手236をオクルードし、手236のいくつかの部分が手232をオクルードすることを予期する。しかしながら、図2Aおよび2Bと異なり、図Cのシーングラフ240は、上記に説明されるように、オブジェクト222および224を正しくソートし、所望のオクルージョンを生成することができない。代わりに、示される実施例では、オブジェクト222の全ては、オブジェクト224の全ての上にソートされる。図2Dに示される例示的出力は、したがって、予期されるオクルージョンと一貫しない。結果として生じる握手画像は、したがって、アプリケーション212およびアプリケーション214においてオブジェクトを正確に反映せず、画像は、加えて、不自然に見え得、視認者にとって紛らわしくあり得る。 FIG. 2D shows an example output of renderer 250 of example computer system 201 shown in FIG. 2C. In the example described above with respect to FIG. 2C, based on the relative positioning of objects 222 and 224, the viewer may notice that some portions of hand 232 occlude hand 236 and that some portions of hand 236 occlude hand 236. Expect to occlude hand 232. However, unlike FIGS. 2A and 2B, scene graph 240 in FIG. C is unable to correctly sort objects 222 and 224 and produce the desired occlusion, as explained above. Instead, in the example shown, all of objects 222 are sorted onto all of objects 224. The example output shown in FIG. 2D is therefore inconsistent with the expected occlusion. The resulting handshake image therefore does not accurately reflect the objects in application 212 and application 214, and the image may additionally appear unnatural and confusing to the viewer.

図2A-2Dのシーングラフ240等の従来的シーングラフの他の不利点は、例示的コンピュータシステム201において等の複数の独立アプリケーションと併用されるときに、明白である。例えば、レンダリング効率は、図2Aのアプリケーション210において等でレンダリングされるべき場面全体に対応するデータを使用して、実現されることができる。例えば、オクルードされるであろう表面を把握することによって、図2Aの例示的コンピュータシステム200は、それらの表面をカリングするようにシステム200に命令し、それによって、算出リソースの不必要な支出を回避することができる。本カリングは、各アプリケーションが、カリングされるべきである表面を決定するための場面知識を保有しない場合があるため、図2Cの例示的コンピュータシステム201等の多重アプリケーションシステムでは可能ではない場合がある。さらに、例示的コンピュータシステム200等の単一のアプリケーションのみを伴う、いくつかの実施例では、有益な効果が、場面内の他のオブジェクトの存在に基づいて、オブジェクトに適用されてもよい。例えば、現実的な照明および影付け効果をオブジェクトに適用することは、近傍のオブジェクトに対応するデータを要求し得る。さらに、いくつかのシェーダ効果は、そのようなデータから利益を享受する。同様に、粒子システムまたは衝突検出システムによって発生される効果は、そのようなデータから利益を享受し得る。そのような効果は、そのような効果を適用するために必要なノード関係情報の全てを提供することが可能であり得るアプリケーションが、1つも存在しないため、3Dデータが複数の独立アプリケーションによって提供されるシステムにおいて限定される、または不可能であり得る。 Other disadvantages of conventional scene graphs, such as scene graph 240 of FIGS. 2A-2D, are evident when used in conjunction with multiple independent applications, such as in example computer system 201. For example, rendering efficiency can be achieved using data corresponding to the entire scene to be rendered, such as in application 210 of FIG. 2A. For example, by knowing which surfaces will be occluded, the example computer system 200 of FIG. 2A instructs the system 200 to cull those surfaces, thereby avoiding unnecessary expenditure of computational resources. can be avoided. This culling may not be possible in a multi-application system, such as the example computer system 201 of FIG. 2C, because each application may not possess scene knowledge to determine which surfaces should be culled. . Additionally, in some implementations involving only a single application, such as example computer system 200, beneficial effects may be applied to objects based on the presence of other objects in the scene. For example, applying realistic lighting and shading effects to an object may require data corresponding to nearby objects. Additionally, some shader effects benefit from such data. Similarly, effects generated by particle systems or collision detection systems may benefit from such data. Such effects may occur if the 3D data is provided by multiple independent applications, as no single application may be able to provide all of the node relationship information necessary to apply such effects. may be limited or impossible in certain systems.

本開示は、一元化シーングラフを使用し、複数の独立アプリケーションからの3Dデータをレンダリングするシステムの上記の不利点に対処する、システムおよび方法を提示する。一元化シーングラフが、複数の独立アプリケーションがレンダリングされるべき3Dデータを提供するシステム(図2Cの例示的コンピュータシステム201等)において、図2Cのシーングラフ240等の従来的シーングラフの代わりに使用されることができる。本明細書に説明されるように、いくつかの実施例では、一元化シーングラフは、複数の個々の入力ソースから3Dデータを受信し、その3Dデータに対応する情報を中心の場所に書き込み、その3Dデータに基づいて、オブジェクトを備えるレンダリングされる場面を作成するレンダラによるアクセスのためにその情報を維持するシステムを含むことができる。そのレンダリングされる場面は、現実的なオブジェクトオクルージョン、算出効率、視覚効果(照明および影付け等)、または別様に一元化シーングラフを利用しないシステムでは実現することが困難もしくは不可能であろう物理的効果(衝突検出等)もしくはオクルードされるオブジェクトの部分的表示を反映する出力(グラフィカル出力等)を発生させるために使用されてもよい。 This disclosure presents systems and methods that use a unified scene graph and address the above disadvantages of systems that render 3D data from multiple independent applications. A unified scene graph may be used in place of a traditional scene graph, such as scene graph 240 of FIG. 2C, in a system (such as example computer system 201 of FIG. 2C) where multiple independent applications provide 3D data to be rendered. can be done. As described herein, in some embodiments, a unified scene graph receives 3D data from a plurality of individual input sources, writes information corresponding to the 3D data to a central location, and writes information corresponding to the 3D data to a central location. A system may be included for maintaining that information for access by a renderer that creates a rendered scene comprising objects based on the 3D data. The rendered scene has realistic object occlusion, computational efficiency, visual effects (such as lighting and shading), or physics that would otherwise be difficult or impossible to achieve in systems that do not utilize a unified scene graph. It may be used to generate visual effects (such as collision detection) or output (such as graphical output) that reflects a partial representation of the occluded object.

いくつかの実施例では、例示的コンピュータシステムは、共通3D環境内の1つ以上のオブジェクトを表す3Dデータをそれぞれ含む、複数のアプリケーションを含む。複数のアプリケーションはそれぞれ、これが、他のアプリケーションに依存しないままであるように、「サンドボックス化された」環境内に存在してもよく、例えば、各個別のアプリケーションのデータは、各他のアプリケーションのデータから独立し得、各アプリケーションは、各他のアプリケーションのデータへのアクセスを有していない場合があり、アプリケーションのそれぞれの3Dデータが、同一の3D環境に対応し得る一方、各アプリケーションは、3D環境のその独自のインスタンスを維持する。例えば、各アプリケーションは、各プレーヤが同一のゲーム世界のインスタンスまたは3D環境内に存在するが、他のプレーヤのデータへの直接アクセスが欠けている、オンラインマルチプレーヤビデオゲーム内のプレーヤを表してもよい。そのような実施例では、全てのプレーヤが、ゲーム世界の単一のインスタンスにおいて同時にレンダリングされることが、望ましくあり得るが、各プレーヤが、各他のクライアント参加者の3Dデータをレンダリングするために必要な情報を維持することは、望ましくない場合がある(またはコンピュータ的に法外である)。さらに、セキュリティ目的のために、他のプレーヤに利用可能であるプレーヤの情報を限定することが、望ましくあり得る。 In some examples, an example computer system includes multiple applications, each application including 3D data representing one or more objects within a common 3D environment. Multiple applications may each exist within a "sandboxed" environment such that this remains independent of other applications; for example, each individual application's data is shared with each other application. While each application's 3D data may correspond to the same 3D environment, each application may not have access to the data of each other application. , maintains its own instance of the 3D environment. For example, each application may represent players in an online multiplayer video game, where each player exists within the same game world instance or 3D environment, but lacks direct access to other players' data. . In such embodiments, it may be desirable for all players to be rendered simultaneously in a single instance of the game world, but for each player to render the 3D data of each other client participant. Maintaining the necessary information may be undesirable (or computationally prohibitive). Additionally, for security purposes, it may be desirable to limit the information of a player that is available to other players.

いくつかの実施例では、複数のサンドボックス化されるアプリケーションはそれぞれ、独立して、その3Dデータに対応する情報をローカルシーングラフに書き込むことができ、その情報は、後で共通一元化シーングラフに書き込まれる。一元化シーングラフは、次いで、各アプリケーションによって提供される集合的3Dデータに基づいて、画像としてディスプレイ上での提示のための場面をレンダリングするように、レンダラによってトラバースされることができる。複数のサンドボックス化されたアプリケーションのそれぞれから単一の一元化シーングラフに3Dデータを通信することによって、レンダラは、全てのアプリケーションの3Dデータの同時知識を要求する、またはそれから利益を享受する、オクルージョン、照明効果、およびレンダリング最適化(表面カリング等)等の有益な技法を適用することができる。これらの利益は、各サンドボックス化されたアプリケーションの要求される算出オーバーヘッドを限定しながら実現され、単一のアプリケーションの視点から、アプリケーションが行う必要があることは、単一のシーングラフを更新し、その3Dデータを反映することだけであり、他の動作は、本システムの別のコンポーネントによって実施される。さらに、セキュリティ利益が、サンドボックス化されたアプリケーションの間の分離を維持することによって、取得されることができる。 In some embodiments, multiple sandboxed applications can each independently write information corresponding to their 3D data to a local scene graph, which information is later written to a common centralized scene graph. written. The unified scene graph can then be traversed by a renderer to render the scene for presentation on a display as an image based on the collective 3D data provided by each application. By communicating 3D data from each of multiple sandboxed applications into a single, unified scene graph, the renderer can eliminate occlusion, requiring or benefiting from simultaneous knowledge of all applications' 3D data. , lighting effects, and rendering optimization (such as surface culling) can be applied. These benefits are achieved while limiting the required computational overhead for each sandboxed application; from a single application perspective, all an application needs to do is update a single scene graph. , only reflecting that 3D data; other operations are performed by other components of the system. Additionally, security benefits can be obtained by maintaining separation between sandboxed applications.

図3Aは、一元化シーングラフを使用して、複数の独立アプリケーションからの3Dデータをディスプレイにレンダリングし得る、例示的コンピュータシステム300のコンポーネントを図示する。図示される実施例は、クライアント・サーバトポロジを利用するが、しかしながら、本開示は、クライアント・サーバ実施例に限定されない。例示的コンピュータシステム300では、第1のクライアントアプリケーション310および第2のクライアントアプリケーション320は、それぞれ、(いくつかの実施例では、ネットワークを経由して)3Dデータをクライアント・サーバインターフェース330に通信する。いくつかの実施例では、クライアントアプリケーション310および320は、相互から独立して動作し、独立してそれらの3Dデータをクライアント・サーバインターフェース330に通信する、「サンドボックス化された」アプリケーションである。クライアント・サーバインターフェース330は、クライアントアプリケーション310および320から更新された3Dデータを受信し、(いくつかの実施例では、ネットワークを経由して)その3Dデータをサーバ側ホストアプリケーション340に通信することができる。いくつかの実施例では、クライアント・サーバインターフェース330は、マルチスレッディング技法を使用し、複数のプロセッサスレッドを使用して、3Dデータを受信する、処理する、および/またはホストアプリケーション340に通信する。いくつかの実施例では、クライアント・サーバインターフェースは、3Dデータがホストアプリケーション340に通信されるレートを(抑制することによって等)制御するための論理を含む。ホストアプリケーション340は、クライアント・サーバインターフェースから受信される3Dデータを使用し、一元化シーングラフ350が、クライアントアプリケーション310および320から受信される3Dデータを反映するように、一元化シーングラフ350を更新することができる。いくつかの実施例では、一元化シーングラフ350は、シーングラフの複数のバージョンを備え、公知のバージョニング技法が、一元化シーングラフ350への更新が並行して起こることを可能にするために使用される。レンダラ360は、次いで、一元化シーングラフ350をトラバースし、適宜、最適化および効果を適用し、コンピュータモニタ等のディスプレイ370上に表示されるように出力(例えば、クライアントアプリケーション310および320のうちの少なくとも1つのデータ、ならびにいくつかの実施形態では、オクルードするアプリケーションデータを伴わない、1つのクライアントアプリケーションのオクルードされる部分のみを備えるグラフィカル出力)を発生させることができる。 FIG. 3A illustrates components of an example computer system 300 that may render 3D data from multiple independent applications to a display using a unified scene graph. The illustrated embodiment utilizes a client-server topology, however, the present disclosure is not limited to client-server implementations. In example computer system 300, first client application 310 and second client application 320 each communicate 3D data (in some embodiments, via a network) to client-server interface 330. In some embodiments, client applications 310 and 320 are "sandboxed" applications that operate independently of each other and independently communicate their 3D data to client-server interface 330. Client-server interface 330 may receive updated 3D data from client applications 310 and 320 and communicate the 3D data (in some embodiments, via a network) to server-side host application 340. can. In some embodiments, client-server interface 330 uses multi-threading techniques and uses multiple processor threads to receive, process, and/or communicate 3D data to host application 340. In some embodiments, the client-server interface includes logic to control (such as by throttling) the rate at which 3D data is communicated to host application 340. Host application 340 uses the 3D data received from the client-server interface to update unified scene graph 350 so that unified scene graph 350 reflects the 3D data received from client applications 310 and 320. Can be done. In some embodiments, unified scene graph 350 comprises multiple versions of the scene graph, and known versioning techniques are used to allow updates to unified scene graph 350 to occur in parallel. . Renderer 360 then traverses unified scene graph 350, applies optimizations and effects as appropriate, and outputs the output for display on display 370, such as a computer monitor (e.g., at least one of client applications 310 and 320). (a graphical output comprising only the occluded portions of one client application without any occluded application data).

図3Bは、図3Aに示される例示的コンピュータシステム300に関する例示的クライアントアプリケーション310の側面を図示する。示される実施例では、3Dデータ312は、ディスプレイ370上に提示されるべきである3D環境内のグラフィカルオブジェクト(幾何プリミティブ、例えば、ポリゴン等)を表す。3Dデータ312は、クライアントアプリケーション310によって更新されてもよい(314)。例えば、クライアントアプリケーション310が、1秒あたり60回反復するレンダリングループを伴うアプリケーションである場合、クライアントアプリケーション310は、3Dデータ312を1秒あたり60回更新し、レンダリング出力において反映されるはずであるアプリケーションの動作の過程の間に、そのデータの変更を反映してもよい。いくつかの実施例では、3Dデータ312は、各クライアントアプリケーション310にローカルであり得る、ローカルシーングラフ316として表される。いくつかの実施例では、ローカルシーングラフ316は、一元化シーングラフ350内のデータに対応するデータ(ノード等)を含んでもよい。3Dデータ312が、更新される(314)際、クライアントアプリケーション310は、ローカルシーングラフ316を更新し、3Dデータ312の直近のバージョンを反映することができる。ローカルシーングラフ316が、更新される際、これは、クライアントデータ318を発生させる(317)ようにクライアントアプリケーション310によって使用されることができる。いくつかの実施例では、クライアントデータ318は、その全体としてローカルシーングラフ316を表してもよい。いくつかの実施例では、クライアントデータ318は、以前のクライアントデータ318が、クライアント・サーバインターフェース330に送信された以降にローカルシーングラフ316に行われた変更を表してもよい。例えば、クライアントデータ318は、ローカルシーングラフ316に追加された、またはそれから削除されたノード、ローカルシーングラフ316内のノードの間の関係の変更、もしくはローカルシーングラフ316内のノードの性質の変更を含み得る。いくつかの実施例では、クライアントデータ318は、シーングラフノードに対応する識別番号等の識別子を使用し、ローカルシーングラフ316からのデータと一元化シーングラフ350上の対応するデータとの間の関係を識別してもよい。クライアントデータ318は、次いで、ホストアプリケーション340への最終的な通信のために、クライアント・サーバインターフェース330に通信されることができる。いくつかの実施例では、クライアント・サーバインターフェース330へのクライアントデータ318の通信は、ネットワークを経由して起こってもよい。いくつかの実施例では、クライアントヘルパアプリケーションが、ローカルシーングラフ316から、または3Dデータ312から、クライアントデータ318を発生させるために、クライアントアプリケーション310と併用されてもよい。 FIG. 3B illustrates aspects of an example client application 310 for the example computer system 300 shown in FIG. 3A. In the example shown, 3D data 312 represents graphical objects (geometric primitives, eg, polygons, etc.) within a 3D environment that are to be presented on display 370. 3D data 312 may be updated (314) by client application 310. For example, if the client application 310 is an application with a rendering loop that iterates 60 times per second, the client application 310 updates the 3D data 312 60 times per second, which should be reflected in the rendered output. may reflect changes in its data during the course of its operation. In some examples, 3D data 312 is represented as a local scene graph 316, which may be local to each client application 310. In some examples, local scene graph 316 may include data (such as nodes) that corresponds to data in unified scene graph 350. When 3D data 312 is updated 314, client application 310 can update local scene graph 316 to reflect the most recent version of 3D data 312. When local scene graph 316 is updated, it can be used by client application 310 to generate 317 client data 318. In some examples, client data 318 may represent local scene graph 316 in its entirety. In some embodiments, client data 318 may represent changes made to local scene graph 316 since the previous client data 318 was sent to client-server interface 330. For example, client data 318 may include nodes added to or deleted from local scene graph 316, changes in relationships between nodes within local scene graph 316, or changes in the nature of nodes within local scene graph 316. may be included. In some embodiments, client data 318 uses identifiers, such as identification numbers, that correspond to scene graph nodes to determine the relationship between data from local scene graph 316 and corresponding data on centralized scene graph 350. May be identified. Client data 318 can then be communicated to client-server interface 330 for eventual communication to host application 340. In some embodiments, communication of client data 318 to client-server interface 330 may occur via a network. In some embodiments, a client helper application may be used in conjunction with client application 310 to generate client data 318 from local scene graph 316 or from 3D data 312.

クライアントアプリケーション310に関して説明される側面は、同様に、クライアントアプリケーション320、または(クライアントアプリケーション310とともに)例示的コンピュータシステム300を備える他のクライアントアプリケーションを説明し得る。本明細書に説明されるシステムおよび方法は、任意の数のクライアントアプリケーションおよびクライアントデータを含むように拡張され得、本開示は、いかなるそのような数にも限定されず、さらに、いくつかの利益(例えば、算出効率の向上)が、ますます増加するクライアントアプリケーションを用いるとより明白になり得ることが、当業者によって理解されるであろう。上記に説明されるように、クライアントアプリケーション310および320は、データまたは機能性を共有しない、サンドボックス化されたアプリケーションであってもよい。例えば、例示的コンピュータシステム300では、クライアントアプリケーション320は、クライアントアプリケーション310に属する、3Dデータ312およびローカルシーングラフ316から独立する、その独自の3Dデータおよびローカルシーングラフを有してもよい。しかしながら、例示的コンピュータシステム300を含む、いくつかの実施例では、単一のクライアント・サーバインターフェース300が、クライアントアプリケーション310および320等の複数のクライアントアプリケーションによって共有される。 Aspects described with respect to client application 310 may similarly describe client application 320 or other client applications (along with client application 310) comprising example computer system 300. The systems and methods described herein may be extended to include any number of client applications and client data, and this disclosure is not limited to any such number, and further provides several benefits. It will be appreciated by those skilled in the art that (eg, improved computational efficiency) may become more apparent with an increasing number of client applications. As explained above, client applications 310 and 320 may be sandboxed applications that do not share data or functionality. For example, in example computer system 300, client application 320 may have its own 3D data and local scene graph independent of 3D data 312 and local scene graph 316 belonging to client application 310. However, in some implementations, including example computer system 300, a single client-server interface 300 is shared by multiple client applications, such as client applications 310 and 320.

図3Cは、図3Aおよび3Bに示される例示的コンピュータシステム300に関する例示的クライアント・サーバインターフェース330の側面を図示する。実施例では、クライアントデータ318およびクライアントデータ328は、図3Bに関して上記に説明されるように、個別のクライアントアプリケーション310および320に通信される、またはそれによって更新される、クライアントデータである。いくつかの実施例では、クライアントデータ318および328は、異なるレートにおいてクライアント・サーバインターフェース330上で更新されてもよい。これは、例えば、1つのクライアントアプリケーションが、別のクライアントアプリケーションよりも能力が低いコンピューティングハードウェア上で実行される(そのクライアントアプリケーションに、そのクライアントデータをより低い頻度で更新させる)場合、1つのクライアントアプリケーションが、別のクライアントアプリケーションよりも低い帯域幅のネットワークを経由してクライアント・サーバインターフェース330と通信する場合、または1つのクライアントアプリケーションと関連付けられるクライアントデータが、別のクライアントアプリケーションと関連付けられるクライアントデータよりも複雑である(かつ発生させるためにより多くの処理時間を要求する)場合に起こり得る。クライアント・サーバインターフェース330上でクライアントデータを更新する異なるレートはまた、ネットワーク故障が、クライアントアプリケーションを一時的にオフラインにさせる場合等の動作条件の一時的急変の結果であり得る。例えば、コンピュータシステム300が、クライアントデータを更新する異なるレートに耐えることが、望ましく、例えば、1つのクライアントアプリケーションに影響を及ぼすネットワーク故障が、他のクライアントアプリケーションからのクライアントデータを使用して一元化シーングラフ350を更新するレート、または場面がレンダリングされるレートに悪影響を及ぼさないことが、望ましくあり得る。また、一元化シーングラフ350を更新する際に、これが、クライアントアプリケーションに対する一元化シーングラフまたはレンダリングされる表示の不安定化もしくは非同期化をもたらし得るため、1つのクライアントアプリケーションからのクライアントデータが、他のクライアントアプリケーションからのクライアントデータに過剰に遅れて遅滞しない、またはその前で過剰に先導しないことを確実にすることが、望ましくあり得る。 FIG. 3C illustrates aspects of an example client-server interface 330 for the example computer system 300 shown in FIGS. 3A and 3B. In an example, client data 318 and client data 328 are client data that is communicated to or updated by individual client applications 310 and 320, as described above with respect to FIG. 3B. In some embodiments, client data 318 and 328 may be updated on client-server interface 330 at different rates. This means that, for example, if one client application runs on less powerful computing hardware than another client application (causing the client application to update its client data less frequently), one When a client application communicates with the client-server interface 330 over a network with lower bandwidth than another client application, or when client data associated with one client application is associated with another client application. (and requires more processing time to occur). Different rates of updating client data on the client-server interface 330 may also be the result of temporary sudden changes in operating conditions, such as when a network failure temporarily takes the client application offline. For example, it may be desirable for computer system 300 to tolerate different rates of updating client data, such that, for example, a network failure affecting one client application can result in a centralized scene graph using client data from other client applications. 350 or the rate at which the scene is rendered. Also, when updating the unified scene graph 350, client data from one client application is updated to the other client's It may be desirable to ensure that client data from an application is not delayed too far or too far ahead of it.

いくつかの実施例では、クライアント・サーバインターフェース330の役割は、クライアントデータを更新するレートの差異または増減を取り扱うことである。図3Cを参照すると、例示的クライアント・サーバインターフェース330は、それぞれ、独立処理スレッド332および334を介してクライアントデータ318および328を受信してもよく、スレッドを取り扱うためのスレッドマネージャ336を含んでもよい。複数のスレッドを利用し、クライアントアプリケーション310およびクライアントアプリケーション320等の異なるソースからのクライアントデータを更新することは、1つのソースに関する問題が他のソースからのデータを遮断しない、または別様に悪影響を及ぼすことを防止することができる。示される実施例では、スレッドマネージャ336は、それぞれ、スレッド332および334を使用して、クライアントアプリケーション310および320からクライアントデータ318および328を入力し、ホストデータ319および329(それぞれ、クライアントデータ318および328、クライアントアプリケーション310および320、ならびにスレッド332および334に対応する)をホストアプリケーション340に出力してもよい。スレッドマネージャ336は、スレッド332および334を処理するため、スループット問題またはスレッド332および334に関連する他の問題を識別し、対処するため、ならびに/もしくはホストデータ319および329の出力を制御するための論理を含んでもよい。例えば、クライアントデータ318およびクライアントデータ328が、(それぞれ、スレッド332および334を介して)ほぼ同一のレートで更新している場合、スレッドマネージャ336は、単純に、ほぼ同一のレートでホストデータ319および329(それぞれ、クライアントデータ318および319に対応する)を更新してもよい。しかしながら、クライアントデータ318が、クライアントデータ328よりもはるかに速いレートで更新される場合、スレッドマネージャ336は、(例えば、よい低い頻度でこれをホストアプリケーション340に通信することによって)クライアントデータ318を抑制し、これがクライアントデータ328をはるかに上回ることを防止してもよい。スレッドマネージャ336はまた、ホストデータが更新される全体的レートを制御してもよい。例えば、スレッドマネージャ336は、ホストデータ319および/または329を更新するレートを抑制し、本ホストデータが、ホストアプリケーション340がこれを処理し得るよりも速く更新すること(クライアントアプリケーション310および/または320、一元化シーングラフ350、ならびに/もしくはディスプレイ370への出力の望ましくない非同期化をもたらし得る)を防止してもよい。 In some embodiments, the role of the client-server interface 330 is to handle differences or increases or decreases in the rate of updating client data. Referring to FIG. 3C, example client-server interface 330 may receive client data 318 and 328 via independent processing threads 332 and 334, respectively, and may include a thread manager 336 for handling the threads. . Utilizing multiple threads to update client data from different sources, such as client application 310 and client application 320, ensures that problems with one source do not block or otherwise adversely affect data from other sources. It is possible to prevent this from happening. In the example shown, thread manager 336 inputs client data 318 and 328 from client applications 310 and 320 using threads 332 and 334, respectively, and host data 319 and 329 (respectively, client data 318 and 328). , corresponding to client applications 310 and 320 and threads 332 and 334) may be output to host application 340. Thread manager 336 is configured to process threads 332 and 334, identify and address throughput problems or other problems associated with threads 332 and 334, and/or control output of host data 319 and 329. May contain logic. For example, if client data 318 and client data 328 are updating at approximately the same rate (via threads 332 and 334, respectively), thread manager 336 simply updates host data 319 and 329 (corresponding to client data 318 and 319, respectively) may be updated. However, if client data 318 is updated at a much faster rate than client data 328, thread manager 336 may throttle client data 318 (e.g., by communicating this to host application 340 at a lower frequency). However, this may be prevented from exceeding client data 328 by much. Thread manager 336 may also control the overall rate at which host data is updated. For example, thread manager 336 may throttle the rate at which host data 319 and/or 329 is updated so that the host data is updated faster than host application 340 can process it (client application 310 and/or 329 , which may result in undesirable desynchronization of the output to the unified scene graph 350 and/or the display 370).

図3Dは、図3A-3Cに示される例示的コンピュータシステム300に関する例示的ホストアプリケーション340の側面を図示する。本明細書に説明されるものは、スレッド341がホストアプリケーション340内で付加的スレッドと並行して実行され得る、ホストアプリケーション340内のスレッド341内で実行される動作である。いくつかの実施例では、ホストアプリケーション340内のマルチスレッド処理は、複数のクライアントアプリケーションまたはホストデータの複数のセットが、(いくつかの実施例では、一元化シーングラフの異なるバージョンを更新することによって)同一の一元化シーングラフ350を同時に更新することを可能にする利点を持ち得る。これは、ひいては、ディスプレイ上での提示のためのレンダリングされる場面へのクライアントデータの全体的スループットを増加させ得る。いくつかの実施例では、マルチスレッディングは、例えば、スレッドが不注意に同一のデータに書き込むことを防止するために、ロックが一元化シーングラフデータ上に設置されることを要求し得る。しかしながら、いくつかの実施例では、説明される動作のうちの1つ以上のものは、スレッド内で実行されない場合がある。 FIG. 3D illustrates aspects of an example host application 340 for the example computer system 300 shown in FIGS. 3A-3C. Described herein are operations performed within thread 341 within host application 340, such that thread 341 may be executed in parallel with additional threads within host application 340. In some embodiments, multi-threaded processing within host application 340 allows multiple client applications or multiple sets of host data to (in some embodiments, by updating different versions of a centralized scene graph) It may have the advantage of allowing the same unified scene graph 350 to be updated simultaneously. This, in turn, may increase the overall throughput of client data into rendered scenes for presentation on a display. In some embodiments, multi-threading may require that locks be placed on the centralized scene graph data, for example, to prevent threads from inadvertently writing to the same data. However, in some embodiments, one or more of the described operations may not be performed within a thread.

図3Dに示される実施例では、ホストデータ319(クライアントアプリケーション310およびクライアントデータ318に対応する)が、図3Cに関して上記に説明されるように更新される(342)。ホストアプリケーション340は、次いで、ホストデータ319が一元化シーングラフ350の以前のバージョンに行い得る変更を識別してもよい。例えば、ホストアプリケーション340は、一元化シーングラフ350に関して、ホストデータ319がノードを追加する、ノードを削除する、2つのノードの間の関係を変更する、またはノードの性質を変更するであろうことを識別してもよい。(図3Dに示される実施例等のいくつかの実施例では、ホストアプリケーション340は、ホストデータハンドラ344を使用して、これらの動作またはその他を実施してもよい)。ホストアプリケーション340は、ホストデータ319に従って作成または更新されるべき一元化シーングラフ350のバージョンを識別してもよい(352)。いくつかの実施例では、一元化シーングラフ350のバージョン352に書き込むことに先立って、ホストアプリケーション340は、そのバージョンをロックし、他のプロセスがこれを並行して修正することを防止してもよい。ホストアプリケーション340は、(例えば、ホストデータ319に対応するようにバージョン352内のシーングラフノードを追加または削除することによって)バージョン352に変更を行い、ホストデータ319を反映してもよい。いくつかの実施例では、ホストアプリケーション340は、次いで、バージョン352をロック解除し、バージョン352に対応するバージョン番号の値を更新してもよい(356)。ホストアプリケーション340は、次いで、ホストデータを更新し(342)、図3Dに示されるプロセスを繰り返してもよい。一元化シーングラフ350が、個々のクライアントアプリケーションから導出される個々のホストデータを反映するように更新される際、一元化シーングラフ350は、個々のクライアントアプリケーションが「サンドボックス化され」、相互から独立し得ても、複数のクライアントアプリケーションからの集合的ホストデータを反映するであろう。 In the example shown in FIG. 3D, host data 319 (corresponding to client application 310 and client data 318) is updated (342) as described above with respect to FIG. 3C. Host application 340 may then identify changes that host data 319 may make to the previous version of unified scene graph 350. For example, host application 340 may indicate that host data 319 would add a node, delete a node, change the relationship between two nodes, or change the nature of a node with respect to unified scene graph 350. May be identified. (In some embodiments, such as the embodiment shown in FIG. 3D, host application 340 may use host data handler 344 to perform these operations or others). Host application 340 may identify a version of unified scene graph 350 to be created or updated according to host data 319 (352). In some embodiments, prior to writing to version 352 of centralized scene graph 350, host application 340 may lock the version to prevent other processes from modifying it in parallel. . Host application 340 may make changes to version 352 to reflect host data 319 (eg, by adding or deleting scene graph nodes in version 352 to correspond to host data 319). In some examples, host application 340 may then unlock version 352 and update the value of the version number corresponding to version 352 (356). Host application 340 may then update 342 the host data and repeat the process shown in FIG. 3D. When the unified scene graph 350 is updated to reflect individual host data derived from individual client applications, the unified scene graph 350 indicates that the individual client applications are "sandboxed" and independent of each other. Even if obtained, it will reflect collective host data from multiple client applications.

図3Eは、図3A-3Dに示される例示的コンピュータシステム300に関する例示的レンダラ360の側面を図示する。いくつかの実施例では、レンダラ360は、ホストアプリケーション340の一部を構成する。いくつかの実施例では、レンダラ360は、例示的コンピュータシステム300の別のコンポーネントの一部であってもよい、または別個のコンポーネントもしくはアプリケーションであってもよい。いくつかの実施例では、レンダラ360は、例示的コンピュータシステム300の1つ以上のコンポーネンと異なる物理的ハードウェアにおいて実装されてもよく、ネットワークを経由してそれらのコンポーネントのうちの1つ以上のものと通信してもよい。 FIG. 3E illustrates aspects of an example renderer 360 for the example computer system 300 shown in FIGS. 3A-3D. In some embodiments, renderer 360 constitutes part of host application 340. In some examples, renderer 360 may be part of another component of example computer system 300 or may be a separate component or application. In some embodiments, renderer 360 may be implemented in different physical hardware than one or more components of example computer system 300, and may be implemented in physical hardware that is different from one or more components of example computer system 300, and may communicate with one or more of those components via a network. May communicate with things.

図3Eに示される実施例では、レンダラ360は、一元化シーングラフ350のバージョン352に作用する。実施例では、レンダラの役割は、一元化シーングラフ350のバージョン352に基づいて、ディスプレイ370上での提示のための出力またはグラフィカル出力等のデータを備えるレンダリングされる場面を作成することである。本プロセスの一部として、レンダラ360は、公知のシーングラフトラバース技法を使用して、バージョン352をトラバースしてもよい(362)。トラバース362の間または後に、レンダラ360は、適宜、一元化シーングラフ350を更新(364)し、トラバースの結果を反映してもよい。例えば、トラバース362の一部として、レンダラ360は、一元化シーングラフ350から削除されるべきである、放棄されたノードを識別してもよい。トラバース362および/または更新364に続いて、レンダラ360は、種々の最適化366を場面に適用してもよい。例えば、レンダラ360は、不明瞭なまたは不可視の表面をカリングし、不必要な算出リソースを消費することを回避してもよい。トラバース362および/または更新364に続いて、レンダラ360は、1つ以上の視覚効果367を場面に適用してもよい。例えば、いくつかの実施例では、レンダラ360は、照明効果または影効果を適用する、1つ以上のシェーダを適用する、粒子効果を適用する、および/または物理的効果を適用してもよい。最後に、レンダラ360は、データをグラフィカル出力パイプラインに出力することができ、その結果は、ディスプレイ370上に出力を表示することができる。 In the example shown in FIG. 3E, renderer 360 operates on version 352 of unified scene graph 350. In the example, the role of the renderer is to create a rendered scene comprising data, such as output or graphical output, for presentation on display 370 based on version 352 of unified scene graph 350. As part of this process, renderer 360 may traverse version 352 (362) using known scene graph traversal techniques. During or after traversal 362, renderer 360 may optionally update 364 unified scene graph 350 to reflect the results of the traversal. For example, as part of traverse 362, renderer 360 may identify abandoned nodes that should be removed from unified scene graph 350. Following traversal 362 and/or update 364, renderer 360 may apply various optimizations 366 to the scene. For example, renderer 360 may cull obscure or invisible surfaces to avoid consuming unnecessary computational resources. Following traversal 362 and/or update 364, renderer 360 may apply one or more visual effects 367 to the scene. For example, in some examples, renderer 360 may apply lighting or shadow effects, apply one or more shaders, apply particle effects, and/or apply physical effects. Finally, renderer 360 can output data to a graphical output pipeline, and the results can display output on display 370.

コンピュータシステムの上記の例示的プロセスは、任意の好適な論理回路によって提供されてもよい。好適な論理回路は、ソフトウェアプログラムにおいて実装される命令を実行すると、プロセスを実施する、1つ以上のコンピュータプロセッサ(例えば、CPU、GPU等)を含んでもよい。加えて、そのようなプロセスはまた、プロセスを提供する論理設計を実装する、プログラマブル論理(例えば、PLD、FPGA等)またはカスタマイズされた論理(例えば、ASIC等)等のハードウェア論理回路において実装される、対応する論理設計を介して提供されることができる。さらに、そのようなプロセスは、ソフトウェアおよびハードウェア論理回路を起動する、両方の1つ以上のプロセッサを組み合わせる実装を介して提供されることができる。 The above exemplary processes of a computer system may be provided by any suitable logic circuitry. Suitable logic circuits may include one or more computer processors (eg, CPU, GPU, etc.) that, when executing instructions implemented in a software program, implement the process. In addition, such processes may also be implemented in hardware logic circuits, such as programmable logic (e.g., PLDs, FPGAs, etc.) or customized logic (e.g., ASICs, etc.) that implement the logic design providing the process. can be provided through a corresponding logic design. Furthermore, such processes can be provided through implementations that combine one or more processors of both software and hardware logic circuits.

図4は、上記の実施例のうちのいずれかまたは全てを実装するために使用され得る、例示的システム400を図示する。上記の実施例(全体的または部分的に)は、任意のポータブルデバイス(ウェアラブルデバイスを含む)または非ポータブルデバイス、例えば、通信デバイス(例えば、モバイル電話、スマートフォン)、マルチメディアデバイス(例えば、MP3プレーヤ、TV、ラジオ)、ポータブルまたはハンドヘルドコンピュータ(例えば、タブレット、ネットブック、ラップトップ)、デスクトップコンピュータ、一体型デスクトップ、周辺デバイス、頭部搭載型デバイス(例えば、統合ディスプレイを含み得る)、もしくはこれらのタイプのデバイスのうちの2つ以上のものの組み合わせを含む、例示的システムアーキテクチャ400の包含に適合可能な任意の他のシステムまたはデバイス内で具現化されてもよい。上記の実施例は、無線ネットワークを介して通信する2つ以上のコンピュータ等の2つ以上の物理的に別個のデバイスにおいて具現化されてもよい。上記の実施例は、データを、頭部搭載型ディスプレイに、および/またはそれから通信する、ベルトパック等の2つ以上の物理的に異なるデバイスにおいて具現化されてもよい。図4は、概して、1つ以上のコンピュータ可読媒体401と、処理システム404と、I/Oサブシステム406と、高周波(RF)回路408と、オーディオ回路410と、センサ回路411とを含む、システム400の一実施例のブロック図である。これらのコンポーネントは、1つ以上の通信バスまたは信号ライン403によって結合されてもよい。 FIG. 4 illustrates an example system 400 that may be used to implement any or all of the above embodiments. The above embodiments (in whole or in part) may be used in any portable (including wearable) or non-portable device, such as a communication device (e.g., mobile phone, smart phone), multimedia device (e.g., MP3 player). , TV, radio), portable or handheld computers (e.g., tablets, netbooks, laptops), desktop computers, integrated desktops, peripheral devices, head-mounted devices (e.g., which may include integrated displays); may be embodied in any other system or device compatible with inclusion in example system architecture 400, including combinations of two or more of the types of devices. The embodiments described above may be implemented in two or more physically separate devices, such as two or more computers, communicating via a wireless network. The above embodiments may be embodied in two or more physically distinct devices, such as belt packs, that communicate data to and/or from a head-mounted display. FIG. 4 generally depicts a system that includes one or more computer readable media 401, a processing system 404, an I/O subsystem 406, radio frequency (RF) circuitry 408, audio circuitry 410, and sensor circuitry 411. 400 is a block diagram of one embodiment of the 400. FIG. These components may be coupled by one or more communication buses or signal lines 403.

図4に示されるアーキテクチャは、システム400の一例示的アーキテクチャにすぎず、システム400は、示されるものよりも多いもしくは少ないコンポーネント、またはコンポーネントの異なる構成を有し得ることが明白となるはずである。図4に示される種々のコンポーネントは、1つ以上の信号処理および/または特定用途向け集積回路を含む、ハードウェア、ソフトウェア、ファームウェア、もしくはそれらの任意の組み合わせにおいて実装されることができる。 It should be clear that the architecture shown in FIG. 4 is only one example architecture of system 400, and that system 400 may have more or fewer components, or a different configuration of components, than those shown. . The various components shown in FIG. 4 may be implemented in hardware, software, firmware, or any combination thereof, including one or more signal processing and/or application specific integrated circuits.

図4の例示的システムアーキテクチャ400を参照すると、RF回路408は、1つ以上の他のデバイスへの無線リンクまたはネットワークを経由して情報を送信および受信するために使用されることができ、本機能を実施するための周知の回路を含む。RF回路408およびオーディオ回路410は、周辺機器インターフェース416を介して処理システム404に結合されることができる。インターフェース416は、周辺機器と処理システム404との間の通信を確立および維持するための種々の公知のコンポーネントを含むことができる。オーディオ回路410は、オーディオスピーカ450およびマイクロホン452に結合されることができ、インターフェース416から受信される音声信号を処理し、ユーザが他のユーザとリアルタイムで通信することを可能にするための公知の回路を含むことができる。いくつかの実施例では、オーディオ回路410は、ヘッドホンジャック(図示せず)を含むことができる。 Referring to example system architecture 400 of FIG. 4, RF circuitry 408 can be used to transmit and receive information via a wireless link or network to one or more other devices; Contains well-known circuitry for performing its functions. RF circuitry 408 and audio circuitry 410 may be coupled to processing system 404 via peripheral interface 416. Interface 416 may include various known components for establishing and maintaining communications between peripherals and processing system 404. Audio circuitry 410 can be coupled to an audio speaker 450 and a microphone 452 to process audio signals received from interface 416 and to perform any known method for processing audio signals received from interface 416 to enable users to communicate with other users in real time. Can include circuitry. In some examples, audio circuit 410 can include a headphone jack (not shown).

センサ回路411は、限定ではないが、1つ以上の発光ダイオード(LED)または他の光エミッタ、1つ以上のフォトダイオードまたは他の光センサ、1つ以上の光熱センサ、磁力計、加速度計、ジャイロスコープ、気圧計、コンパス、近接性センサ、カメラ、周囲光センサ、温度計、GPSセンサ、電気眼球図記録(EOG)センサ、および残存バッテリ寿命、電力消費量、プロセッサ速度、CPU負荷、ならびに同等物を感知し得る種々のシステムセンサを含む、種々のセンサに結合されることができる。頭部搭載型デバイスを伴うような実施例では、1つ以上のセンサは、ユーザの眼移動を追跡すること、またはその眼の画像に基づいてユーザを識別すること等のユーザの眼に関連する機能性と関連して採用されてもよい。 Sensor circuit 411 may include, but is not limited to, one or more light emitting diodes (LEDs) or other light emitters, one or more photodiodes or other light sensors, one or more photothermal sensors, magnetometers, accelerometers, gyroscope, barometer, compass, proximity sensor, camera, ambient light sensor, thermometer, GPS sensor, electro-oculography (EOG) sensor, and remaining battery life, power consumption, processor speed, CPU load, and equivalent It can be coupled to a variety of sensors, including various system sensors that can sense objects. In such embodiments involving head-mounted devices, one or more sensors may be associated with the user's eyes, such as tracking the user's eye movements or identifying the user based on images of the user's eyes. It may also be employed in conjunction with functionality.

周辺機器インターフェース416は、本システムの入力および出力周辺機器を、プロセッサ418およびコンピュータ可読媒体401に結合することができる。1つ以上のプロセッサ418は、コントローラ44を介して1つ以上のコンピュータ可読媒体401と通信してもよい。コンピュータ可読媒体401は、1つ以上のプロセッサ418によって使用するためのコードおよび/またはデータを記憶し得る、任意のデバイスまたは媒体(信号を除外する)であり得る。いくつかの実施例では、媒体401は、非一過性コンピュータ可読記憶媒体であり得る。媒体401は、限定ではないが、キャッシュ、主要メモリ、および二次メモリを含む、メモリ階層を含むことができる。メモリ階層は、RAM(例えば、SRAM、DRAM、DDRAM)、ROM、FLASH(登録商標)、ディスクドライブ、磁気テープ、CD(コンパクトディスク)、ならびにDVD(デジタルビデオディスク)等の磁気および/または光学記憶デバイスの任意の組み合わせを使用して実装されることができる。媒体401はまた、(信号を除外し、信号が変調される搬送波を除外するが)コンピュータ命令またはデータを示す情報伝達信号を搬送するための伝送媒体を含んでもよい。例えば、伝送媒体は、限定ではないが、インターネット(ワールドワイドウェブとも称される)、イントラネット、ローカエルエリアネットワーク(LAN)、ワイドローカルエリアネットワーク(WLAN)、ストレージエリアネットワーク(SAN)、メトロポリタンエリアネットワーク(MAN)、および同等物を含む、通信ネットワークを含んでもよい。 Peripheral interface 416 may couple input and output peripherals of the system to processor 418 and computer readable media 401. One or more processors 418 may communicate with one or more computer-readable media 401 via controller 44 . Computer-readable medium 401 may be any device or medium (excluding signals) that can store code and/or data for use by one or more processors 418. In some examples, media 401 can be a non-transitory computer readable storage medium. Media 401 can include a memory hierarchy, including, but not limited to, cache, primary memory, and secondary memory. The memory hierarchy includes magnetic and/or optical storage such as RAM (e.g. SRAM, DRAM, DDRAM), ROM, FLASH, disk drives, magnetic tape, CD (compact disc), and DVD (digital video disc). Can be implemented using any combination of devices. Media 401 may also include transmission media for carrying information-bearing signals indicative of computer instructions or data (excluding the signal and excluding the carrier wave on which the signal is modulated). For example, transmission media may include, but are not limited to, the Internet (also referred to as the World Wide Web), an intranet, a local area network (LAN), a wide local area network (WLAN), a storage area network (SAN), a metropolitan area network. (MAN), and the like.

1つ以上のプロセッサ418は、媒体401内に記憶された種々のソフトウェアコンポーネントを起動し、システム400のための種々の機能を実施することができる。いくつかの実施例では、ソフトウェアコンポーネントは、オペレーティングシステム422と、通信モジュール(または命令のセット)424と、I/O処理モジュール(または命令のセット)426と、グラフィックスモジュール(または命令のセット)428と、1つ以上のアプリケーション(または命令のセット)430とを含むことができる。これらのモジュールおよび上記のアプリケーションはそれぞれ、上記に説明される1つ以上の機能および本願に説明される方法(例えば、コンピュータ実装方法および本明細書に説明される他の情報処理方法)を実施するための命令のセットに対応することができる。これらのモジュール(すなわち、命令のセット)は、別個のソフトウェアプログラム、プロシージャ、またはモジュールとして実装される必要はなく、したがって、これらのモジュールの種々のサブセットは、種々の実施例において、組み合わせられる、または別様に再配列されてもよい。いくつかの実施例では、媒体401は、上記に識別されるモジュールおよびデータ構造のサブセットを記憶してもよい。さらに、媒体401は、上記に説明されていない付加的モジュールおよびデータ構造を記憶してもよい。 One or more processors 418 may launch various software components stored within media 401 to perform various functions for system 400. In some embodiments, the software components include an operating system 422, a communications module (or set of instructions) 424, an I/O processing module (or set of instructions) 426, and a graphics module (or set of instructions). 428 and one or more applications (or sets of instructions) 430. Each of these modules and the applications described above performs one or more of the functions described above and the methods described herein (e.g., computer-implemented methods and other information processing methods described herein). can correspond to a set of instructions for These modules (i.e., sets of instructions) need not be implemented as separate software programs, procedures, or modules; therefore, various subsets of these modules may be combined or combined in various embodiments. They may be rearranged differently. In some embodiments, medium 401 may store a subset of the modules and data structures identified above. Additionally, media 401 may store additional modules and data structures not described above.

オペレーティングシステム422は、一般的システムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理等)を制御および管理するための種々のプロシージャ、命令のセット、ソフトウェアコンポーネント、ならびに/もしくはドライバを含むことができ、種々のハードウェアとソフトウェアコンポーネントとの間の通信を促進する。 Operating system 422 may include various procedures, sets of instructions, software components, and/or drivers for controlling and managing common system tasks (e.g., memory management, storage device control, power management, etc.). , facilitate communication between various hardware and software components.

通信モジュール424は、1つ以上の外部ポート436を経由して、またはRF回路408を介して、他のデバイスとの通信を促進することができ、RF回路408および/または外部ポート436から受信されるデータを取り扱うための種々のソフトウェアコンポーネントを含むことができる。 Communication module 424 can facilitate communication with other devices via one or more external ports 436 or via RF circuitry 408 and receive signals from RF circuitry 408 and/or external port 436. It can include various software components for handling data.

グラフィックスモジュール428は、1つ以上のディスプレイ表面上でグラフィカルオブジェクトをレンダリング、動画化、および表示するための種々の公知のソフトウェアコンポーネントを含むことができる。ディスプレイ表面は、2Dまたは3Dディスプレイを含んでもよい。ディスプレイ表面は、例示的システム400の1つ以上のコンポーネントに直接または間接的に結合されてもよい。タッチ感知ディスプレイ(例えば、タッチスクリーン)を伴う実施例では、グラフィックスモジュール428は、タッチ感知ディスプレイ上でオブジェクトをレンダリング、表示、および動画化するためのコンポーネントを含むことができる。いくつかの実施例では、グラフィックスモジュール428は、遠隔ディスプレイにレンダリングするためのコンポーネントを含むことができる。カメラを組み込むもの等のいくつかの実施例では、グラフィックスモジュール428は、レンダリングされたグラフィカルオブジェクトとカメラデータ(頭部搭載型カメラから捕捉されるもの等)または写真データ(衛星によって捕捉された画像等)を合成することによって形成される画像を作成および/または表示するためのコンポーネントを含むことができる。いくつかの実施例では、グラフィックスモジュールは、画像を頭部搭載型ディスプレイデバイスにレンダリングするためのコンポーネントを含むことができる。いくつかの実施例では、画像は、仮想コンテンツの要素のビュー(例えば、3次元仮想環境内のオブジェクト)および/または物理的世界のビュー(例えば、ユーザの物理的周辺を示すカメラ入力)を含んでもよい。いくつかの実施例では、ディスプレイは、仮想コンテンツおよび物理的世界のビューの合成画像を提示してもよい。いくつかの実施例では、物理的世界のビューは、レンダリングされた画像であってもよく、いくつかの実施例では、物理的世界のビューは、カメラからの画像であってもよい。 Graphics module 428 may include various known software components for rendering, animating, and displaying graphical objects on one or more display surfaces. The display surface may include a 2D or 3D display. A display surface may be coupled directly or indirectly to one or more components of example system 400. In embodiments involving touch-sensitive displays (eg, touch screens), graphics module 428 may include components for rendering, displaying, and animating objects on the touch-sensitive display. In some examples, graphics module 428 may include components for rendering to a remote display. In some embodiments, such as those that incorporate a camera, the graphics module 428 includes rendered graphical objects and camera data (such as those captured from a head-mounted camera) or photographic data (such as images captured by a satellite). etc.) for creating and/or displaying an image formed by compositing images. In some examples, the graphics module may include components for rendering images to a head-mounted display device. In some examples, the image includes a view of an element of virtual content (e.g., an object in a three-dimensional virtual environment) and/or a view of the physical world (e.g., camera input showing a user's physical surroundings). But that's fine. In some examples, a display may present a composite image of virtual content and a view of the physical world. In some examples, the view of the physical world may be a rendered image, and in some examples, the view of the physical world may be an image from a camera.

1つ以上のアプリケーション430は、限定ではないが、ブラウザ、アドレス帳、連絡先リスト、電子メール、インスタントメッセージ、文書処理、キーボードエミュレーション、ウィジェット、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、音声複製、場所決定能力(全地球測位システム(GPS)によって提供されるもの等)、音楽プレーヤ等を含む、システム400上にインストールされた任意のアプリケーションを含むことができる。 The one or more applications 430 may include, but are not limited to, browsers, address books, contact lists, email, instant messaging, word processing, keyboard emulation, widgets, JAVA-enabled applications, encryption, digital rights. Any application installed on the system 400 may include management, voice recognition, voice replication, location capabilities (such as those provided by the Global Positioning System (GPS)), music players, and the like.

I/Oサブシステム406は、眼I/Oデバイス412および種々の機能を制御または実施するための1つ以上の他のI/Oデバイス414に結合されることができる。例えば、眼I/Oデバイス412は、眼入力(例えば、眼追跡のためのセンサ)またはユーザジェスチャ入力(例えば、光学センサ)を処理するための種々のコンポーネントを含み得る、眼I/Oデバイスコントローラ432を介して、処理システム404と通信することができる。1つ以上の他の入力コントローラ434は、電気信号を他のI/Oデバイス414に送信し、それから受信することができる。他のI/Oデバイス414は、物理的ボタン、ダイヤル、スライダスイッチ、スティック、キーボード、タッチパッド、付加的ディスプレイ画面、またはそれらの任意の組み合わせを含んでもよい。 I/O subsystem 406 may be coupled to an ocular I/O device 412 and one or more other I/O devices 414 for controlling or performing various functions. For example, ocular I/O device 412 may include various components for processing ocular input (e.g., sensors for eye tracking) or user gesture input (e.g., optical sensors). 432 can communicate with processing system 404 . One or more other input controllers 434 can send electrical signals to and receive electrical signals from other I/O devices 414. Other I/O devices 414 may include physical buttons, dials, slider switches, sticks, keyboards, touch pads, additional display screens, or any combination thereof.

I/O処理モジュール426は、限定ではないが、眼I/Oデバイスコントローラ432を介して眼I/Oデバイス412から、またはI/Oコントローラ434を介して他のI/Oデバイス414から受信される、入力を受信および処理することを含む、眼I/Oデバイス412および/または他のI/Oデバイス414と関連付けられる種々のタスクを実施するための種々のソフトウェアコンポーネントを含むことができる。いくつかの実施例では、I/Oデバイス414および/またはI/O処理モジュール426は、触知または非触知手段によって提供され得る、ジェスチャ入力と関連付けられる種々のタスクを実施してもよい。いくつかの実施例では、ジェスチャ入力は、例えば、ユーザの眼、腕、手、および/または指の移動を検出するためのカメラもしくは別のセンサによって提供されてもよい。いくつかの実施例では、I/Oデバイス414および/またはI/O処理モジュール426は、ユーザが相互作用することを所望するディスプレイ上のオブジェクト、例えば、ユーザが指し示しているGUI要素を識別するように構成されてもよい。いくつかの実施例では、眼I/Oデバイス412および/またはI/O処理モジュール426は、ユーザが見ているオブジェクトまたはディスプレイ上の領域を識別すること等の眼追跡タスクを実施するように(光学またはEOGセンサの補助によって等)構成されてもよい。いくつかの実施例では、デバイス(ハードウェア「ビーコン」等)が、2Dまたは3D環境に対するユーザの手の場所を識別すること等のタッチI/Oデバイス412および/またはI/O処理モジュール426のジェスチャ関連タスクを補助するように、ユーザによって装着または保持されてもよい。いくつかの実施例では、眼I/Oデバイス412および/またはI/O処理モジュール426は、ユーザの眼に関連するカメラセンサからのデータ等のセンサ入力に基づいて、ユーザを識別するように構成されてもよい。 I/O processing module 426 receives information from, but is not limited to, ocular I/O device 412 via ocular I/O device controller 432 or from other I/O devices 414 via I/O controller 434. Various software components may be included to perform various tasks associated with ocular I/O device 412 and/or other I/O devices 414, including receiving and processing input, including receiving and processing input. In some examples, I/O device 414 and/or I/O processing module 426 may perform various tasks associated with gestural input, which may be provided by tactile or non-tactile means. In some examples, gesture input may be provided by a camera or another sensor to detect movement of the user's eyes, arms, hands, and/or fingers, for example. In some embodiments, I/O device 414 and/or I/O processing module 426 may be configured to identify an object on a display with which a user desires to interact, e.g., a GUI element at which a user is pointing. may be configured. In some embodiments, eye I/O device 412 and/or I/O processing module 426 may perform eye tracking tasks, such as identifying an object or area on a display that a user is looking at ( (e.g., with the aid of optical or EOG sensors). In some embodiments, a device (such as a hardware "beacon") performs operations on the touch I/O device 412 and/or I/O processing module 426, such as identifying the location of a user's hand relative to a 2D or 3D environment. It may be worn or held by the user to assist with gesture-related tasks. In some examples, eye I/O device 412 and/or I/O processing module 426 are configured to identify a user based on sensor input, such as data from a camera sensor associated with the user's eye. may be done.

いくつかの実施例では、グラフィックスモジュール428は、GUI内で視覚出力をユーザに表示することができる。視覚出力は、テキスト、グラフィック、ビデオ、およびそれらの任意の組み合わせを含んでもよい。視覚出力の一部または全ては、ユーザインターフェースオブジェクトに対応してもよい。いくつかの実施例では、I/Oデバイス412および/または414ならびに/もしくはコントローラ432および/または434は(媒体401内の任意の関連付けられるモジュールおよび/または命令のセットとともに)、ジェスチャおよび/または眼移動を検出ならびに追跡することができ、検出されたジェスチャおよび/または眼移動を、1つ以上のユーザインターフェースオブジェクト等のグラフィカルオブジェクトとの相互作用に変換することができる。眼I/Oデバイス412および/または眼I/Oデバイスコントローラ432が、ユーザの眼移動を追跡するように構成される実施例では、ユーザは、グラフィカルオブジェクトを見ることによって、それらと直接相互作用することができる。 In some examples, graphics module 428 can display visual output to a user within a GUI. Visual output may include text, graphics, video, and any combination thereof. Some or all of the visual output may correspond to user interface objects. In some examples, I/O devices 412 and/or 414 and/or controllers 432 and/or 434 (along with any associated modules and/or sets of instructions in medium 401) can perform gesture and/or eye movements. Movement can be detected and tracked, and detected gestures and/or eye movements can be translated into interactions with graphical objects, such as one or more user interface objects. In embodiments where ocular I/O device 412 and/or ocular I/O device controller 432 are configured to track the user's eye movements, the user interacts directly with graphical objects by viewing them. be able to.

フィードバックが、表示されている内容および/またはコンピューティングシステムの状態もしくは複数の状態に基づいて、眼I/Oデバイス412または別のI/Oデバイス414によって等、提供されてもよい。フィードバックは、光学的に(例えば、光信号または表示された画像)、機械的に(例えば、触覚フィードバック、タッチフィードバック、力フィードバック、または同等物)、電気的に(例えば、電気刺激)、嗅覚、音響的に(例えば、ビープ音または同等物)、または同等物、もしくはそれらの任意の組み合わせで、かつ可変または非可変様式で、伝送されてもよい。 Feedback may be provided, such as by ocular I/O device 412 or another I/O device 414, based on the content being displayed and/or the state or states of the computing system. Feedback can be optical (e.g., light signals or displayed images), mechanical (e.g., tactile feedback, touch feedback, force feedback, or the like), electrical (e.g., electrical stimulation), olfactory, It may be transmitted acoustically (eg, beeps or the like), or the like, or any combination thereof, and in a variable or non-variable manner.

システム400はまた、種々のハードウェアコンポーネントに給電するための電力システム444を含むことができ、電力管理システム、1つ以上の電源、再充電システム、停電検出回路、電力コンバータまたはインバータ、電力ステータスインジケータ、および典型的には、ポータブルデバイスにおける電力の発生、管理、ならびに分配と関連付けられる任意の他のコンポーネントを含んでもよい。 System 400 may also include a power system 444 for powering various hardware components, including a power management system, one or more power sources, a recharging system, a power outage detection circuit, a power converter or inverter, and a power status indicator. , and any other components typically associated with power generation, management, and distribution in portable devices.

いくつかの実施例では、周辺機器インターフェース416、1つ以上のプロセッサ418、およびメモリコントローラ420は、処理システム404等の単一のチップ上に実装されてもよい。いくつかの他の実施例では、それらは、別個のチップ上に実装されてもよい。 In some examples, peripheral interface 416, one or more processors 418, and memory controller 420 may be implemented on a single chip, such as processing system 404. In some other examples, they may be implemented on separate chips.

いくつかの実施例では、方法が、開示される。本方法は、コンピュータシステムの第1のクライアントアプリケーションから、複数の第1のノードを備える、第1のグラフィカルデータを受信することと、コンピュータシステムの第2のクライアントアプリケーションから、複数の第2のノードを備える、第2のグラフィカルデータを受信することと、シーングラフを発生させることとを含んでもよく、シーングラフは、第1のノードと第2のノードとの間のオクルージョン関係等の関係を記述し、シーングラフは、コンピュータシステムのプロセッサによってトラバースされると、ノードを備える場面をレンダリングするように構成される。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムのプロセッサによって、シーングラフをトラバースすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、ディスプレイと通信するように構成されてもよく、本方法はさらに、ディスプレイ上でレンダリングされる場面における別のノードによってオクルードされない少なくとも1つのノードを備える出力を提示することを含んでもよい。いくつかの実施形態では、オクルージョンは、所与の視点からオブジェクトのレンダリングされる場面を視認するときの別のものによる1つのノードの視覚的遮断である。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、ディスプレイと通信するように構成されてもよく、本方法はさらに、シーングラフ上に存在するようにレンダリングされる場面を表示する、またはオクルードされない第1もしくは第2の複数のノードのそれらのノードのみを表示する一方、他のノードを表示しないことによって等、ディスプレイ上で出力を表示することを含んでもよい。例えば、第2の複数のノードが、第1の複数のノードの一部をオクルードする場合、表示される出力は、第2の複数のノードのうちのいずれも表示しない、第1の複数のオクルードされないノードのみであり得る。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面をカリングすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、コンピュータシステム上で実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、コンピュータシステム上で実行される第2のアプリケーションであってもよく、第1のクライアントアプリケーションは、第2のクライアントアプリケーションに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィカルデータは、第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応してもよく、第2のグラフィカルデータは、第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応してもよく、第1のクライアントシーングラフは、第2のクライアントシーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第1のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第2のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィカルデータは、コンピュータシステムの第1の処理スレッドを使用して、シーングラフに通信されてもよく、第2のグラフィカルデータは、第1の処理スレッドから独立するコンピュータシステムの第2の処理スレッドを使用して、シーングラフに通信されてもよい。 In some embodiments, methods are disclosed. The method includes receiving first graphical data comprising a plurality of first nodes from a first client application of the computer system; and receiving first graphical data comprising a plurality of second nodes from a second client application of the computer system. and generating a scene graph, the scene graph describing a relationship, such as an occlusion relationship, between the first node and the second node. The scene graph, when traversed by a processor of the computer system, is configured to render a scene comprising nodes. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include traversing the scene graph by a processor of the computer system. In addition to or in the alternative to one or more of the above embodiments, the computer system may be configured to communicate with a display, and the method further includes It may include presenting an output comprising at least one node that is not occluded by another node. In some embodiments, occlusion is the visual occlusion of one node by another when viewing a rendered scene of an object from a given perspective. In addition to, or in the alternative to, one or more of the above embodiments, the computer system may be configured to communicate with a display, and the method further comprises: displaying the output on the display, such as by displaying the rendered scene, or by displaying only those nodes of the first or second plurality of nodes that are not occluded, while not displaying other nodes; But that's fine. For example, if a second plurality of nodes occludes a portion of the first plurality of nodes, the displayed output will be the first plurality of occluded nodes that do not display any of the second plurality of nodes. may be the only node that is not In addition to or in the alternative to one or more of the above embodiments, the method may further include applying the optimization to the output at the computer system. In addition to or as an alternative to one or more of the above examples, applying the optimization may include culling the surface. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying a visual effect to the output at the computer system. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include calculating a light intensity value. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include running a shader. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying a physical effect to the output at the computer system. In addition to, or as an alternative to, one or more of the above examples, applying a physical effect may include detecting a collision. In addition to, or in the alternative to, one or more of the above embodiments, the first client application may be a first application running on a computer system, and the first client application may be a first application running on a computer system; may be a second application running on the computer system, and the first client application may be sandboxed on the computer system to the second client application. In addition to or in the alternative to one or more of the above embodiments, the first graphical data may correspond to a first client scene graph associated with the first client application; The graphical data of 2 may correspond to a second client scene graph associated with a second client application, the first client scene graph being sandboxed on the computer system with respect to the second client scene graph. The first client scene graph may be sandboxed on the computer system relative to the scene graph, and the second client scene graph may be sandboxed on the computer system relative to the scene graph. may be converted into In addition to or in the alternative to one or more of the above examples, a scene graph may correspond to versions of a versioned scene graph. In addition to, or in the alternative to, one or more of the above embodiments, the first graphical data may be communicated to the scene graph using a first processing thread of the computer system; The second graphical data may be communicated to the scene graph using a second processing thread of the computer system that is independent from the first processing thread.

いくつかの実施例では、方法が、開示される。本方法は、ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、第1の3Dデータは、1つ以上のノードを備え、シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、第2の3Dデータは、1つ以上のノードを備え、第1のアプリケーションは、第2のアプリケーションに対してコンピュータシステム上でサンドボックス化され、シーングラフは、第1の3Dデータのノードと第2の3Dデータのノードとの間の関係を備える、ことと、ディスプレイ上でシーングラフに対応する画像を表示することであって、画像は、シーングラフをトラバースすることの出力に対応し、画像は、そのデータの部分的表示または完全表示のいずれかの関係を反映する、こととを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、関係は、空間関係であってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面をカリングすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィカルデータは、コンピュータシステム上で実行されるホストアプリケーションによってシーングラフに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィカルデータは、ホストアプリケーションのクライアントによってホストアプリケーションに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応する第1のグラフィカルデータは、第1の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよく、第2の3Dデータに対応する第2のグラフィカルデータは、第1の処理スレッドから独立する第2の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよい。 In some embodiments, methods are disclosed. The method includes traversing a scene graph of a computer system with a display, the scene graph comprising first 3D data associated with a first application, the first 3D data including one or more nodes, the scene graph comprises second 3D data associated with the second application, the second 3D data comprises one or more nodes, and the first application is associated with the second application. a scene graph comprising a relationship between nodes of the first 3D data and nodes of the second 3D data; and an image corresponding to the scene graph on the display. Displaying, the image corresponding to an output of traversing the scene graph, the image reflecting either a partial representation or a complete representation of the relationship, may include. In addition to, or in the alternative to, one or more of the above examples, the relationship may be a spatial relationship. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include, at the computer system, applying an optimization to the output of traversing the scene graph. . In addition to or as an alternative to one or more of the above examples, applying the optimization may include culling the surface. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying, at the computer system, a visual effect to the output of traversing the scene graph. . In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include calculating a light intensity value. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include running a shader. In addition to or in the alternative to one or more of the above embodiments, the method may further include applying, at the computer system, a physical effect to the output of traversing the scene graph. good. In addition to, or as an alternative to, one or more of the above examples, applying a physical effect may include detecting a collision. In addition to or as an alternative to one or more of the above examples, a scene graph may correspond to versions of a versioned scene graph. In addition to or in the alternative to one or more of the above embodiments, graphical data corresponding to the first 3D data may be communicated to the scene graph by a host application running on the computer system. good. In addition to or in the alternative to one or more of the above embodiments, graphical data corresponding to the first 3D data may be communicated to the host application by a client of the host application. In addition to or in the alternative to one or more of the above embodiments, first graphical data corresponding to the first 3D data is generated by a host application using a scene graph using a first processing thread. and second graphical data corresponding to the second 3D data may be communicated to the scene graph by a host application using a second processing thread that is independent from the first processing thread. .

いくつかの実施例では、コンピュータシステムが、開示される。本システムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、上記に説明される方法のうちの1つ以上のものを実施させる、命令を記憶する、メモリとを備えてもよい。 In some embodiments, a computer system is disclosed. The system includes one or more processors and stores instructions that, when executed by the one or more processors, cause the one or more processors to perform one or more of the methods described above. and a memory.

いくつかの実施例では、非一過性コンピュータ可読記憶媒体が、開示される。非一過性コンピュータ可読記憶媒体は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、コンピュータシステムの第1のクライアントアプリケーションから、複数の第1のノードを備える、第1のグラフィカルデータを受信することと、コンピュータシステムの第2のクライアントアプリケーションから、複数の第2のノードを備える、第2のグラフィカルデータを受信することと、シーングラフを発生させることとを含み、シーングラフは、第1のノードと第2のノードとの間の関係を記述し、シーングラフは、コンピュータシステムのプロセッサによってトラバースされるとき、オクルージョン関係に基づいて、場面をレンダリングするように構成され、第1または第2の複数のノード内の第1または第2のノードのうちの1つ以上のものは、その他をオクルードする、方法を実施させる、命令を記憶してもよい。いくつかの実施形態では、オクルージョンは、所与の視点からオブジェクトのレンダリングされる場面を視認するときの別のものによる1つのノードの視覚的遮断である。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムのプロセッサによって、シーングラフをトラバースすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、ディスプレイと通信するように構成されてもよく、本方法はさらに、これがシーングラフ上に存在するようにレンダリングされる場面を表示する、またはオクルードされない第1もしくは第2の複数のノードのそれらのノードのみを表示する一方、他のノードを表示しないことによって等、ディスプレイ上で出力を表示することを含んでもよい。例えば、第2の複数のノードが、第1の複数のノードの一部をオクルードする場合、表示される出力は、第2の複数のノードのうちのいずれも表示しない、第1の複数のオクルードされないノードのみであり得る。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面をカリングすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、コンピュータシステム上で実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、コンピュータシステム上で実行される第2のアプリケーションであってもよく、第1のクライアントアプリケーションは、第2のクライアントアプリケーションに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィカルデータは、第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応してもよく、第2のグラフィカルデータは、第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応してもよく、第1のクライアントシーングラフは、第2のクライアントシーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第1のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第2のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィカルデータは、コンピュータシステムの第1の処理スレッドを使用して、シーングラフに通信されてもよく、第2のグラフィカルデータは、第1の処理スレッドから独立するコンピュータシステムの第2の処理スレッドを使用して、シーングラフに通信されてもよい。 In some embodiments, a non-transitory computer-readable storage medium is disclosed. The non-transitory computer-readable storage medium, when executed by the one or more processors, transmits data from a first client application of the computer system to the one or more processors, comprising a plurality of first nodes. receiving graphical data; and generating a scene graph, the second graphical data comprising a plurality of second nodes from a second client application of the computer system; describes a relationship between a first node and a second node, the scene graph is configured to render a scene based on the occlusion relationship when traversed by a processor of the computer system; One or more of the first or second nodes within the first or second plurality of nodes may store instructions that occlude the other or cause the method to be performed. In some embodiments, occlusion is the visual occlusion of one node by another when viewing a rendered scene of an object from a given perspective. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include traversing the scene graph by a processor of the computer system. In addition to, or in the alternative to, one or more of the above embodiments, the computer system may be configured to communicate with the display, and the method further provides for the display to be present on the scene graph. or by displaying only those nodes of the first or second plurality of nodes that are not occluded while not displaying other nodes, etc. May include. For example, if a second plurality of nodes occludes a portion of the first plurality of nodes, the displayed output will be the first plurality of occluded nodes that do not display any of the second plurality of nodes. may be the only node that is not In addition to or in the alternative to one or more of the above embodiments, the method may further include applying the optimization to the output at the computer system. In addition to or as an alternative to one or more of the above examples, applying the optimization may include culling the surface. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying a visual effect to the output at the computer system. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include calculating a light intensity value. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include running a shader. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying a physical effect to the output at the computer system. In addition to, or as an alternative to, one or more of the above examples, applying a physical effect may include detecting a collision. In addition to, or in the alternative to, one or more of the above embodiments, the first client application may be a first application running on a computer system, and the first client application may be a first application running on a computer system; may be a second application running on the computer system, and the first client application may be sandboxed on the computer system to the second client application. In addition to or in the alternative to one or more of the above examples, the first graphical data may correspond to a first client scene graph associated with the first client application; The graphical data of 2 may correspond to a second client scene graph associated with a second client application, the first client scene graph being sandboxed on the computer system with respect to the second client scene graph. The first client scene graph may be sandboxed on the computer system relative to the scene graph, and the second client scene graph may be sandboxed on the computer system relative to the scene graph. may be converted into In addition to or in the alternative to one or more of the above examples, a scene graph may correspond to versions of a versioned scene graph. In addition to, or in the alternative to, one or more of the above embodiments, the first graphical data may be communicated to the scene graph using a first processing thread of the computer system; The second graphical data may be communicated to the scene graph using a second processing thread of the computer system that is independent from the first processing thread.

いくつかの実施例では、非一過性コンピュータ可読記憶媒体が、開示される。非一過性コンピュータ可読記憶媒体は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、第1の3Dデータは、1つ以上のノードを備え、シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、第2の3Dデータは、1つ以上のノードを備え、第1のアプリケーションは、第2のアプリケーションに対してコンピュータシステム上でサンドボックス化され、シーングラフは、第1の3Dデータのノードと第2の3Dデータのノードとの間の関係を備える、ことと、ディスプレイ上でシーングラフに対応する画像を表示することであって、画像は、シーングラフをトラバースすることの出力に対応し、画像は、関係を反映する、こととを含む、方法を実施させる、命令を記憶してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、関係は、空間関係であってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面をカリングすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィカルデータは、コンピュータシステム上で実行されるホストアプリケーションによってシーングラフに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィカルデータは、ホストアプリケーションのクライアントによってホストアプリケーションに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応する第1のグラフィカルデータは、第1の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよく、第2の3Dデータに対応する第2のグラフィカルデータは、第1の処理スレッドから独立する第2の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよい。 In some embodiments, a non-transitory computer-readable storage medium is disclosed. The non-transitory computer-readable storage medium, when executed by one or more processors, causes the one or more processors to traverse a scene graph of a computer system with a display, the scene graph comprising a first the scene graph comprises first 3D data associated with the second application, the first 3D data comprising one or more nodes, the scene graph comprising second 3D data associated with the second application, the first 3D data comprising one or more nodes; The 3D data comprises one or more nodes, the first application is sandboxed on the computer system to the second application, and the scene graph comprises the nodes of the first 3D data and the second 3D data. and displaying an image corresponding to the scene graph on the display, the image corresponding to the output of traversing the scene graph, the image corresponding to the relationship between the nodes of the data, Instructions may be stored for performing the method, including reflecting the method. In addition to, or in the alternative to, one or more of the above examples, the relationship may be a spatial relationship. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include, at the computer system, applying an optimization to the output of traversing the scene graph. . In addition to or as an alternative to one or more of the above examples, applying the optimization may include culling the surface. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include applying, at the computer system, a visual effect to the output of traversing the scene graph. . In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include calculating a light intensity value. In addition to, or in the alternative to, one or more of the above examples, applying a visual effect may include running a shader. In addition to or in the alternative to one or more of the above embodiments, the method may further include applying, at the computer system, a physical effect to the output of traversing the scene graph. good. In addition to, or as an alternative to, one or more of the above examples, applying a physical effect may include detecting a collision. In addition to or as an alternative to one or more of the above examples, a scene graph may correspond to versions of a versioned scene graph. In addition to or in the alternative to one or more of the above embodiments, graphical data corresponding to the first 3D data may be communicated to the scene graph by a host application running on the computer system. good. In addition to or in the alternative to one or more of the above embodiments, graphical data corresponding to the first 3D data may be communicated to the host application by a client of the host application. In addition to or in the alternative to one or more of the above embodiments, first graphical data corresponding to the first 3D data is generated by a host application using a scene graph using a first processing thread. and second graphical data corresponding to the second 3D data may be communicated to the scene graph by a host application using a second processing thread that is independent from the first processing thread. .

いくつかの実施例では、コンピュータシステムが、開示される。本システムは、1つ以上のプロセッサと、コンピュータシステムにおいて、第1のクライアントアプリケーションから第1の場面データを受信し、コンピュータシステムにおいて、第2のクライアントアプリケーションから第2の場面データを受信するように構成される、記憶装置と、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、第1の場面データおよび第2の場面データに基づいて、グラフィカルデータ構造を発生させることであって、グラフィカルデータ構造は、1つ以上のプロセッサによって実行されるレンダリング動作への入力として提供されるときに、ディスプレイ上の画像に対応する出力をもたらすように構成される、ことを含む、方法を実施させる、命令を記憶する、メモリとを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィカルデータ構造は、表示リストおよび表示ツリーのうちの少なくとも1つであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、入力としてグラフィカルデータ構造を使用して、レンダリング動作を実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、ディスプレイを備えてもよく、本方法はさらに、ディスプレイ上に画像を表示することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第2のアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、第2のデバイスの1つ以上のプロセッサによって実行される第2のアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第3のクライアントアプリケーションから第3の場面データを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、記憶装置から第1の場面データを削除することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィカルデータ構造は、第1のデータと、第2のデータとを備えてもよく、本方法はさらに、第1のデータが、オクルードされたビューまたはオクルードされないビューに対応するかどうかを決定することと、第1のデータが、オクルードされないビューに対応するという決定に応答して、第1のデータに基づいて、オクルードされないビューを備える画像をレンダリングすることと、第1のデータがオクルードされたビューに対応するという決定に応答して、オクルードされたビューを備えない画像をレンダリングすることとを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第1の場面データを受信することに応答して、第1の場面データを第1のバージョンとしてバージョン制御システム内に記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第1のクライアントアプリケーションから第3の場面データを受信し、第3の場面データを第2のバージョンとしてバージョン制御システム内に記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、グラフィカルデータ構造を発生させることに応答して、記憶装置から第1のバージョンを削除することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法は、記憶装置が第3の場面データを受信することと並行して実施されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置は、第2の場面データを受信することと並行して第1の場面データを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置は、第1のデータレートに対応する第1の間隔で第3の場面データを受信するように構成されてもよく、本方法はさらに、第2のデータレートに対応するように第1の間隔の長さを調節することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の場面データは、新しいデータ、削除されたデータ、およびデータの間の関係の変化のうちの少なくとも1つを備えてもよい。 In some embodiments, a computer system is disclosed. The system includes one or more processors, the computer system configured to receive first scene data from a first client application, and the computer system configured to receive second scene data from a second client application. configured with a storage device and, when executed by the one or more processors, causing the one or more processors to generate a graphical data structure based on the first scene data and the second scene data. the graphical data structure, when provided as input to a rendering operation performed by one or more processors, is configured to provide an output corresponding to an image on a display. It may also include a memory for storing instructions for execution. In addition to, or in the alternative to, one or more of the above examples, the graphical data structure may be at least one of a display list and a display tree. In addition to, or in the alternative to, one or more of the above embodiments, the method may further include performing a rendering operation using the graphical data structure as input. In addition to, or in the alternative to, one or more of the above examples, the computer system may further include a display, and the method may further include displaying an image on the display. . In addition to or in the alternative to one or more of the above embodiments, the first client application may be a first application executed by one or more processors of the first device. Often, the second client application may be a second application executed by one or more processors of the first device. In addition to or in the alternative to one or more of the above embodiments, the first client application may be a first application executed by one or more processors of the first device. Often, the second client application may be a second application executed by one or more processors of the second device. In addition to or in the alternative to one or more of the above embodiments, the storage device may be further configured to receive third scene data from a third client application. In addition to or in the alternative to one or more of the above embodiments, the method may further include deleting the first scene data from the storage device. In addition to or in the alternative to one or more of the above embodiments, the graphical data structure may comprise first data and second data, and the method further comprises: based on the first data, in response to determining whether the data corresponds to an occluded view or a non-occluded view; The method may include rendering an image with a non-occluded view and, in response to determining that the first data corresponds to an occluded view, rendering the image without an occluded view. In addition to or in the alternative to one or more of the above embodiments, the storage device is further configured to convert the first scene data into a first version in response to receiving the first scene data. may be configured to be stored within the version control system as a version control system. In addition to or in the alternative to one or more of the above embodiments, the storage device further receives third scene data from the first client application and transfers the third scene data to the second client application. It may be configured to be stored as a version within a version control system. In addition to or in the alternative to one or more of the above embodiments, the method further includes, in response to generating the graphical data structure, deleting the first version from the storage device. May include. In addition to, or in the alternative to, one or more of the above embodiments, the method may be performed in parallel with the storage device receiving the third scene data. In addition to or in the alternative to one or more of the above embodiments, the storage device is configured to receive the first scene data in parallel with receiving the second scene data. You can. In addition to or in the alternative to one or more of the above embodiments, the storage device is configured to receive third scene data at a first interval corresponding to a first data rate. The method may further include adjusting the length of the first interval to correspond to the second data rate. In addition to or in the alternative to one or more of the above embodiments, the first scene data includes at least one of new data, deleted data, and a change in the relationship between the data. may be provided.

いくつかの実施例では、コンピュータシステムが、開示される。コンピュータシステムは、サーバと、サーバデータと、第1のクライアントアプリケーションと、第2のクライアントアプリケーションとを備えてもよく、サーバにおいて、第1のクライアントアプリケーションから第1の未処理場面データを受信し、サーバにおいて、第2のクライアントアプリケーションから第2の未処理場面データを受信し、サーバにおいて、第1のクライアントアプリケーションからの第1の未処理場面データ、第2のクライアントアプリケーションからの第2の未処理場面データ、およびサーバデータを、一元化場面データ構造に組み込み、サーバにおいて、一元化場面データ構造内に含有されるデータの少なくとも一部を実行し、一元化場面データ構造内で実行されたデータに基づいて、グラフィカルデータ構造を作成するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィカルデータ構造は、表示リストまたは表示ツリーであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、グラフィカルデータ構造を処理画像にレンダリングするように構成される、レンダリングエンジンを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、処理画像を表示するように構成されるディスプレイを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、ディスプレイは、物理的世界の少なくとも部分的ビューを維持しながら、仮想コンテンツを表示することが可能であり得る。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションおよび第2のクライアントアプリケーションは、単一の物理的デバイス上で起動する、2つの異なるアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションおよび第2のクライアントアプリケーションは、別個の物理的デバイス上でそれぞれ起動する、2つの異なるアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第3のクライアントアプリケーションから第3の未処理場面データを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの未処理場面データの実行後に、第1のクライアントアプリケーションから未処理場面データを削除するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、レンダリングエンジンはさらに、オクルージョンモジュールであって、グラフィカルデータ構造内のデータを第1のオクルードされたカテゴリおよび第2のオクルードされないカテゴリに分離し、第2のオクルードされないカテゴリを表示するように構成される、オクルージョンモジュールを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの第1の未処理場面データを第1のバージョンとして記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの第3の未処理場面データを第2のバージョンとして記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、第1のクライアントアプリケーションからの第1の未処理場面データの第1のバージョンがサーバによって受信される時間から、第1のクライアントアプリケーションからの第1の未処理場面データが読み取られ、実行されるまで、第1のクライアントアプリケーションからの第1の未処理場面データの第1のバージョンを記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、サーバが第2のクライアントから第2の未処理場面データを受信するのと同時に、第1のクライアントから第1の未処理場面データを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションが未処理場面データをサーバに送信するレートを減速するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1および第2のクライアントアプリケーションから受信されるデータは、新しいデータ、削除されたデータ、以前に転送されたデータの間の関係の変化、および修正されたデータから成る群から選択される少なくとも1つであってもよい。 In some embodiments, a computer system is disclosed. The computer system may include a server, server data, a first client application, and a second client application, the computer system receiving first raw scene data from the first client application at the server; at the server, receiving second raw scene data from the second client application; and at the server, receiving the first raw scene data from the first client application, the second raw scene data from the second client application; incorporating scene data and server data into a centralized scene data structure, executing at least a portion of the data contained within the centralized scene data structure at the server, and based on the data executed within the centralized scene data structure; It may be configured to create a graphical data structure. In addition to, or as an alternative to, one or more of the above examples, the graphical data structure may be a display list or a display tree. In addition to, or in the alternative to, one or more of the above embodiments, the computer system may further include a rendering engine configured to render the graphical data structure into a processed image. In addition to or in the alternative to one or more of the above embodiments, the computer system may further include a display configured to display the processed image. In addition to, or in the alternative to, one or more of the above examples, the display may be capable of displaying virtual content while maintaining at least a partial view of the physical world. In addition to or in the alternative to one or more of the above embodiments, the first client application and the second client application are two different applications running on a single physical device. There may be. In addition to or in the alternative to one or more of the above embodiments, the first client application and the second client application are two different applications, each running on a separate physical device. There may be. In addition to or in the alternative to one or more of the above embodiments, the server may be configured to receive third raw scene data from a third client application. In addition to or in the alternative to one or more of the above embodiments, the server receives raw scene data from the first client application after executing the raw scene data from the first client application. It may be configured to delete. In addition to, or as an alternative to, one or more of the above embodiments, the rendering engine further includes an occlusion module that divides data within the graphical data structure into a first occluded category and a second occluded category. An occlusion module may be provided that is configured to separate into non-occluded categories and display a second non-occluded category. In addition to or in the alternative to one or more of the above embodiments, the server is configured to store first raw scene data from a first client application as a first version. You can. In addition to or in the alternative to one or more of the above embodiments, the server is configured to store third raw scene data from the first client application as a second version. You can. In addition to or in the alternative to one or more of the above embodiments, a computer system is configured to receive a first version of first raw scene data from a first client application by a server. storing the first version of the first raw scene data from the first client application from time to time until the first raw scene data from the first client application is read and executed; may be configured. In addition to or in the alternative to one or more of the above embodiments, the server receives second raw scene data from the first client at the same time as the server receives the second raw scene data from the second client. The first raw scene data may be configured to receive the first raw scene data. In addition to, or in the alternative to, one or more of the above embodiments, the server may be configured to slow down the rate at which the first client application sends raw scene data to the server. . In addition to or in the alternative to one or more of the above embodiments, the data received from the first and second client applications may include new data, deleted data, previously transferred data. and modified data.

開示される実施例は、付随の図面を参照して完全に説明されたが、種々の変更および修正が、当業者に明白となるであろうことに留意されたい。例えば、1つ以上の実装の要素は、組み合わせられ、削除され、修正され、または補完され、さらなる実装を形成してもよい。そのような変更および修正は、添付される請求項によって定義されるような開示される実施例の範囲内に含まれるものとして理解されるものである。 Although the disclosed embodiments have been fully described with reference to the accompanying drawings, it is noted that various changes and modifications will become apparent to those skilled in the art. For example, elements of one or more implementations may be combined, deleted, modified, or supplemented to form further implementations. It is intended that such changes and modifications be included within the scope of the disclosed embodiments as defined by the appended claims.

Claims (17)

方法であって、
コンピュータシステムの第1のクライアントアプリケーションから、複数の第1のノードを備える第1のグラフィカルデータを受信することと、
前記コンピュータシステムの第2のクライアントアプリケーションから、複数の第2のノードを備える第2のグラフィカルデータを受信することと、
シーングラフを発生させることと
を含み、
前記シーングラフは、前記複数の第1のノードのうちの少なくとも1つの第1のノードと前記複数の第2のノードのうちの少なくとも1つの第2のノードとの間の第1のオクルージョン関係を記述し、
前記シーングラフは、前記複数の第1のノードのうちの少なくとも1つの第3のノードと前記複数の第2のノードのうちの少なくとも1つの第4のノードとの間の第2のオクルージョン関係をさらに記述し、
前記シーングラフは、前記第1のオクルージョン関係に基づいて、レンダリングされる場面を作成するように構成され、少なくとも1つの第2のノードは、前記第2のグラフィカルデータの第1の部分が前記第1のグラフィカルデータの第1の部分をオクルードするように、少なくとも1つの第1のノードをオクルードし、
前記第2のオクルージョン関係において、少なくとも1つの第3のノードは、前記第1のグラフィカルデータの第2の部分が前記第2のグラフィカルデータの第2の部分をオクルードするように、少なくとも1つの第4のノードをオクルードする、方法。
A method,
receiving first graphical data comprising a plurality of first nodes from a first client application of the computer system;
receiving second graphical data comprising a plurality of second nodes from a second client application of the computer system;
generating a scene graph;
The scene graph defines a first occlusion relationship between at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes. describe,
The scene graph defines a second occlusion relationship between at least one third node of the plurality of first nodes and at least one fourth node of the plurality of second nodes. further describe,
The scene graph is configured to create a rendered scene based on the first occlusion relationship, and at least one second node is configured to create a rendered scene based on the first occlusion relationship; occluding at least one first node to occlude a first portion of graphical data of 1;
In said second occlusion relationship, at least one third node occupies at least one third node such that a second portion of said first graphical data occupies a second portion of said second graphical data. How to occlude node 4.
前記コンピュータシステムのプロセッサによって、前記シーングラフをトラバースすることをさらに含む、請求項1に記載の方法。 The method of claim 1, further comprising traversing the scene graph by a processor of the computer system. 前記コンピュータシステムは、ディスプレイと通信するように構成され、前記方法は、前記ディスプレイ上に出力を表示することをさらに含む、請求項2に記載の方法。 3. The method of claim 2, wherein the computer system is configured to communicate with a display, and the method further includes displaying output on the display. 前記出力を表示することは、前記複数の第1のノードのうちの少なくとも1つの第1のノードおよび前記複数の第2のノードのうちの少なくとも1つの第2のノードを表示することを含む、請求項3に記載の方法。 Displaying the output includes displaying at least one first node of the plurality of first nodes and at least one second node of the plurality of second nodes. The method according to claim 3. 前記コンピュータシステムにおいて、最適化を前記レンダリングされる場面に適用することをさらに含む、請求項2に記載の方法。 3. The method of claim 2, further comprising applying an optimization to the rendered scene at the computer system. 前記最適化を適用することは、表面をカリングすることを含む、請求項5に記載の方法。 6. The method of claim 5, wherein applying the optimization includes culling a surface. 前記コンピュータシステムにおいて、視覚効果を前記レンダリングされる場面に適用することをさらに含む、請求項2に記載の方法。 3. The method of claim 2, further comprising applying visual effects to the rendered scene at the computer system. 前記視覚効果を適用することは、光量値を計算することを含む、請求項7に記載の方法。 8. The method of claim 7, wherein applying the visual effect includes calculating a light intensity value. 前記視覚効果を適用することは、シェーダを実行することを含む、請求項7に記載の方法。 8. The method of claim 7, wherein applying the visual effect includes running a shader. 前記コンピュータシステムにおいて、物理的効果を前記レンダリングされる場面に適用することをさらに含む、請求項2に記載の方法。 3. The method of claim 2, further comprising applying physical effects to the rendered scene at the computer system. 前記物理的効果を適用することは、衝突を検出することを含む、請求項10に記載の方法。 11. The method of claim 10, wherein applying the physical effect includes detecting a collision. 前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、請求項1に記載の方法。 The first client application is a first application running on the computer system, and the second client application is a second application running on the computer system, and the first client application is a second application running on the computer system. 2. The method of claim 1, wherein a client application is sandboxed on the computer system to the second client application. 前記第1のグラフィカルデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
前記第2のグラフィカルデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、請求項1に記載の方法。
the first graphical data corresponds to a first client scene graph associated with the first client application;
the second graphical data corresponds to a second client scene graph associated with the second client application;
the first client scene graph is sandboxed on the computer system with respect to the second client scene graph;
the first client scene graph is sandboxed on the computer system with respect to the scene graph;
2. The method of claim 1, wherein the second client scene graph is sandboxed on the computer system with respect to the scene graph.
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、請求項1に記載の方法。 2. The method of claim 1, wherein the scene graph corresponds to a version of a versioned scene graph. 前記第1のグラフィカルデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィカルデータは、前記第1の処理スレッドから独立する前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、請求項1に記載の方法。 The first graphical data is communicated to the scene graph using a first processing thread of the computer system, and the second graphical data is communicated to the scene graph using a first processing thread of the computer system that is independent of the first processing thread. 2. The method of claim 1, wherein the scene graph is communicated using a second processing thread. 第1のクライアントアプリケーションからの第1の更新されるグラフィカルデータに基づいて更新されるべき、および、第2のクライアントアプリケーションからの第2の更新されるグラフィカルデータに基づいてさらに更新されるべきシーングラフを識別することと、
前記第2の更新されるグラフィカルデータに対して前記シーングラフをロックすることと、
前記第1の更新されるグラフィカルデータを用いて前記シーングラフを修正することと、
前記第2の更新されるグラフィカルデータに対して前記シーングラフをロック解除することと、
前記第2の更新されるグラフィカルデータを用いて前記シーングラフを修正することと
さらに含む、請求項1に記載の方法。
A scene graph to be updated based on first updated graphical data from a first client application and further updated based on second updated graphical data from a second client application. identifying the
locking the scene graph to the second updated graphical data;
modifying the scene graph using the first updated graphical data;
unlocking the scene graph to the second updated graphical data;
2. The method of claim 1, further comprising: modifying the scene graph using the second updated graphical data.
前記修正されたシーングラフは、前記複数の第1のノードのうちの少なくとも1つの第3のノードと前記複数の第2のノードのうちの少なくとも1つの第4のノードとの間の第2のオクルージョン関係を記述し、
前記修正されたシーングラフは、前記第2のオクルージョン関係に基づいて、レンダリングされる場面を作成するように構成され、少なくとも1つの第3のノードは、前記レンダリングされる場面において、少なくとも1つの第4のノードをオクルードする、請求項16に記載の方法。
The modified scene graph includes a second node between at least one third node of the plurality of first nodes and at least one fourth node of the plurality of second nodes. Describe the occlusion relationship,
The modified scene graph is configured to create a rendered scene based on the second occlusion relationship, and the at least one third node is configured to create a rendered scene based on the second occlusion relationship; 17. The method of claim 16, wherein four nodes are occluded.
JP2020570684A 2018-06-18 2019-06-18 Centralized rendering Active JP7411585B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022176196A JP2023011823A (en) 2018-06-18 2022-11-02 Unification rendering
JP2023196665A JP2024023346A (en) 2018-06-18 2023-11-20 Centralized rendering

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/011,413 2018-06-18
US16/011,413 US10977858B2 (en) 2017-03-30 2018-06-18 Centralized rendering
PCT/US2019/037811 WO2019246157A1 (en) 2018-06-18 2019-06-18 Centralized rendering

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2022176196A Division JP2023011823A (en) 2018-06-18 2022-11-02 Unification rendering
JP2023196665A Division JP2024023346A (en) 2018-06-18 2023-11-20 Centralized rendering

Publications (3)

Publication Number Publication Date
JP2021530024A JP2021530024A (en) 2021-11-04
JPWO2019246157A5 JPWO2019246157A5 (en) 2022-06-09
JP7411585B2 true JP7411585B2 (en) 2024-01-11

Family

ID=68984334

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020570684A Active JP7411585B2 (en) 2018-06-18 2019-06-18 Centralized rendering
JP2022176196A Pending JP2023011823A (en) 2018-06-18 2022-11-02 Unification rendering
JP2023196665A Pending JP2024023346A (en) 2018-06-18 2023-11-20 Centralized rendering

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2022176196A Pending JP2023011823A (en) 2018-06-18 2022-11-02 Unification rendering
JP2023196665A Pending JP2024023346A (en) 2018-06-18 2023-11-20 Centralized rendering

Country Status (4)

Country Link
EP (1) EP3807868A4 (en)
JP (3) JP7411585B2 (en)
CN (1) CN112513969A (en)
WO (1) WO2019246157A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076179A (en) 1999-09-07 2001-03-23 Multiterm Co Ltd Multi-user system sharing three-dimensional virtual space
JP2003228721A (en) 2001-10-18 2003-08-15 Microsoft Corp Intelligent caching data structure for immediate mode graphics
US20050182844A1 (en) 2004-02-17 2005-08-18 Sun Microsystems, Inc. Efficient communication in a client-server scene graph system
US20130120418A1 (en) 2008-07-16 2013-05-16 Robin Green Web-Based Graphics Rendering System
JP2020515967A (en) 2017-03-30 2020-05-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. Centralized rendering
JP2020526860A (en) 2017-07-25 2020-08-31 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Training data generation method, generator and semantic segmentation method of its image

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7102636B2 (en) * 2001-03-31 2006-09-05 Intel Corporation Spatial patches for graphics rendering
US8722597B2 (en) * 2010-06-15 2014-05-13 Adeka Corporation Lubricating oil composition for internal combustion engine
US8730264B1 (en) * 2011-09-26 2014-05-20 Google Inc. Determining when image elements intersect
EP2841991B1 (en) * 2012-04-05 2020-01-08 Magic Leap, Inc. Wide-field of view (fov) imaging devices with active foveation capability
US10062354B2 (en) * 2014-10-10 2018-08-28 DimensionalMechanics, Inc. System and methods for creating virtual environments
CN106056663B (en) * 2016-05-19 2019-05-24 京东方科技集团股份有限公司 Rendering method, processing module and augmented reality glasses in augmented reality scene
CN107909652A (en) * 2017-11-10 2018-04-13 上海电机学院 A kind of actual situation scene mutually blocks implementation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076179A (en) 1999-09-07 2001-03-23 Multiterm Co Ltd Multi-user system sharing three-dimensional virtual space
JP2003228721A (en) 2001-10-18 2003-08-15 Microsoft Corp Intelligent caching data structure for immediate mode graphics
US20050182844A1 (en) 2004-02-17 2005-08-18 Sun Microsystems, Inc. Efficient communication in a client-server scene graph system
US20130120418A1 (en) 2008-07-16 2013-05-16 Robin Green Web-Based Graphics Rendering System
JP2020515967A (en) 2017-03-30 2020-05-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. Centralized rendering
JP2020526860A (en) 2017-07-25 2020-08-31 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Training data generation method, generator and semantic segmentation method of its image

Also Published As

Publication number Publication date
WO2019246157A1 (en) 2019-12-26
EP3807868A1 (en) 2021-04-21
JP2023011823A (en) 2023-01-24
EP3807868A4 (en) 2021-09-22
CN112513969A (en) 2021-03-16
JP2021530024A (en) 2021-11-04
JP2024023346A (en) 2024-02-21

Similar Documents

Publication Publication Date Title
US11315316B2 (en) Centralized rendering
US11936733B2 (en) Application sharing
US11295518B2 (en) Centralized rendering
US11178376B1 (en) Metering for display modes in artificial reality
US20240061502A1 (en) Look to Pin on an Artificial Reality Device
JP7411585B2 (en) Centralized rendering
US20220130100A1 (en) Element-Based Switching of Ray Casting Rules
US20230419618A1 (en) Virtual Personal Interface for Control and Travel Between Virtual Worlds

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231225

R150 Certificate of patent or registration of utility model

Ref document number: 7411585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150