JP7168578B2 - 集中レンダリング - Google Patents

集中レンダリング Download PDF

Info

Publication number
JP7168578B2
JP7168578B2 JP2019553094A JP2019553094A JP7168578B2 JP 7168578 B2 JP7168578 B2 JP 7168578B2 JP 2019553094 A JP2019553094 A JP 2019553094A JP 2019553094 A JP2019553094 A JP 2019553094A JP 7168578 B2 JP7168578 B2 JP 7168578B2
Authority
JP
Japan
Prior art keywords
data
computer system
scenegraph
client application
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019553094A
Other languages
English (en)
Other versions
JP2020515967A (ja
Inventor
ジェイ ディー, プラヴィーン バブ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2020515967A publication Critical patent/JP2020515967A/ja
Application granted granted Critical
Publication of JP7168578B2 publication Critical patent/JP7168578B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/38Creation or generation of source code for implementing user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Description

(関連出願の相互参照)
本願は、2017年3月30日に出願された米国特許出願第62/479,134号の35 U.S.C. § 119(e)のもとでの利益を主張するものであり、該米国特許出願の内容は、あらゆる目的のためにその全体が参照により本明細書中に援用される。
本開示は、一般に、ディスプレイ上でグラフィックデータを視覚的にレンダリングするためのシステムおよび方法に関し、特に、単一のディスプレイ上で複数のコンピュータアプリケーションからデータを視覚的にレンダリングするためのシステムおよび方法に関する。
種々の技術が、コンピュータアプリケーションのグラフィックデータをディスプレイにレンダリングするために存在する。これらの技術が、グラフィックデータを現実的に、すなわち、物理的世界に基づいて視認者の期待に一致して、かつ効率的に、レンダリングすることが望ましくあり得る。また、レンダリング技術が、例えば、複数のアプリケーションが単一のディスプレイ上に表示されるグラフィックデータを寄与する、コンピュータシステムを含む、種々のトポロジのコンピュータシステムに適応することも望ましくあり得る。
従来的なシステムは、多くの場合、そのような多重アプリケーションシステムにおいてコンテンツを写実的かつ効率的にレンダリングすることができない。例えば、いくつかのそのようなシステムでは、単一のディスプレイ上に複数のアプリケーションからのグラフィックデータをレンダリングすることは、データをディスプレイ上で誤ってソートさせ、ディスプレイの現実感を侵害する、予期しない視覚結果を生成する。さらに、1つのアプリケーションからのグラフィックデータは、照明および影付け効果を介して、またはシェーダを介して等、別のアプリケーションからのグラフィックデータと現実的に相互作用することができない場合がある。加えて、いくつかのそのようなシステムは、不可視表面の抜粋等のレンダリング最適化を使用し、計算効率を増加させる、それらの能力が限定されている。
拡張現実(AR)または「複合現実」を伴うシステムは、特に、複数のアプリケーションからのグラフィックデータを単一のディスプレイにレンダリングすることの問題のより良好な解決策を要求する。例えば、ARシステムは、複数のユーザが、共有仮想空間内で、単一のディスプレイにレンダリングされる全てのユーザからの仮想コンテンツと相互作用する可能性を持つ。そのような相互作用が、真実味を持ち、ユーザにとって有意義であり、ARシステムのグラフィック出力が、説得力があり、ユーザの視覚期待と一致することを要求し得、異なるタイプおよび数のユーザ、ユーザハードウェア、およびユーザソフトウェア、およびユーザがシステムに関与することを所望し得る異なる方法に適応するために十分に柔軟であり、高いフレームレートで継続的動作を持続するため、かつモバイルデバイス上のバッテリ寿命を最大限にするために十分に効率的であることが望ましくあり得る。さらに、ARシステムにおける個々のユーザと関連付けられるアプリケーションおよびアプリケーションデータが、セキュリティ(信頼できないユーザ間のデータアクセスによって侵害され得る)を提供することと、特に、システムのユーザの数が大きくなるにつれて、スケーラビリティを維持することとの両方のために、他のユーザから独立したままであることが望ましくあり得る。また、そのようなシステムは、ユーザおよびユーザアプリケーションへの技術的制約を最小限にすることから利益を享受し得、例えば、ユーザがARシステムに参加するためのハードウェア要件を限定することは、より多くのユーザに参加するように促す。これは、個々のユーザまたはユーザのハードウェア上で起動するアプリケーションが複雑なレンダリング動作を実施する必要がある程度を限定することによって、例えば、そのような動作を専用ハードウェア上で起動するサーバ側ホストアプリケーション等の共有システムにオフロードすることによって、達成され得る。
本開示の実施例は、複数のアプリケーションが単一のディスプレイ上に表示されるグラフィックデータを与える、コンピュータシステムを説明する。本開示の実施例は、グラフィックデータを現実的に、すなわち、物理的世界に基づいて視認者の期待に一致して、かつ効率的に、レンダリングするために使用されることができる。本開示の実施例によると、第1のグラフィックデータは、第1のクライアントアプリケーションから受信されてもよく、第2のグラフィックデータは、第2の独立クライアントアプリケーションから受信されてもよい。第1および第2のグラフィックデータは、第1および第2のグラフィックデータによって表されるノード間の関係を表すために使用され得る、シーングラフ等の「集中」データ構造に組み合わせられてもよい。集中データ構造は、故に、現実的および効率的様式で、第1および第2のグラフィックデータを反映するシーンをディスプレイにレンダリングするために使用されることができる。
本明細書は、例えば、以下の項目も提供する。
(項目1)
方法であって、
コンピュータシステムの第1のクライアントアプリケーションから、第1のノードを備える第1のグラフィックデータを受信することと、
前記コンピュータシステムの第2のクライアントアプリケーションから、第2のノードを備える第2のグラフィックデータを受信することと、
シーングラフを生成することと
を含み、
前記シーングラフは、前記第1のノードと前記第2のノードとの間の関係を表し、
前記シーングラフは、前記コンピュータシステムのプロセッサによってトラバースされるとき、出力をレンダリングするように構成される、方法。
(項目2)
前記コンピュータシステムのプロセッサによって、前記シーングラフをトラバースすることをさらに含む、項目1に記載の方法。
(項目3)
前記コンピュータシステムは、ディスプレイと通信するように構成され、前記方法はさらに、前記ディスプレイ上に前記出力を表示することを含む、項目2に記載の方法。
(項目4)
前記コンピュータシステムにおいて、最適化を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目5)
前記最適化を適用することは、表面を抜粋することを含む、項目4に記載の方法。
(項目6)
前記コンピュータシステムにおいて、視覚効果を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目7)
前記視覚効果を適用することは、光量値を計算することを含む、項目6に記載の方法。
(項目8)
前記視覚効果を適用することは、シェーダを実行することを含む、項目6に記載の方法。
(項目9)
前記コンピュータシステムにおいて、物理的効果を前記出力に適用することをさらに含む、項目2に記載の方法。
(項目10)
前記物理的効果を適用することは、衝突を検出することを含む、項目9に記載の方法。
(項目11)
前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、項目1に記載の方法。
(項目12)
前記第1のグラフィックデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
前記第2のグラフィックデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、項目1に記載の方法。
(項目13)
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、項目1に記載の方法。
(項目14)
前記第1のグラフィックデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィックデータは、前記第1の処理スレッドから独立している前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、項目1に記載の方法。
(項目15)
方法であって、
ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、
前記シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、前記第1の3Dデータは、1つ以上のノードを備え、
前記シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、前記第2の3Dデータは、1つ以上のノードを備え、
前記第1のアプリケーションは、前記第2のアプリケーションに対して前記コンピュータシステム上でサンドボックス化され、
前記シーングラフは、前記第1の3Dデータのノードと前記第2の3Dデータのノードとの間の関係を備える、ことと、
前記ディスプレイ上で、前記シーングラフに対応する画像を表示することであって、
前記画像は、前記シーングラフをトラバースすることの出力に対応し、
前記画像は、前記関係を反映する、ことと
を含む、方法。
(項目16)
前記関係は、空間関係である、項目15に記載の方法。
(項目17)
前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に最適化を適用することをさらに含む、項目15に記載の方法。
(項目18)
前記最適化を適用することは、表面を抜粋することを含む、項目17に記載の方法。
(項目19)
前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に視覚効果を適用することをさらに含む、項目15に記載の方法。
(項目20)
前記視覚効果を適用することは、光量値を計算することを含む、項目19に記載の方法。
(項目21)
前記視覚効果を適用することは、シェーダを実行することを含む、項目19に記載の方法。
(項目22)
前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に物理的効果を適用することをさらに含む、項目15に記載の方法。
(項目23)
前記物理的効果を適用することは、衝突を検出することを含む、項目22に記載の方法。
(項目24)
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、項目15に記載の方法。
(項目25)
前記第1の3Dデータに対応するグラフィックデータは、前記コンピュータシステム上で実行されるホストアプリケーションによって前記シーングラフに通信される、項目15に記載の方法。
(項目26)
前記第1の3Dデータに対応するグラフィックデータは、前記ホストアプリケーションのクライアントによって前記ホストアプリケーションに通信される、項目25に記載の方法。
(項目27)
前記第1の3Dデータに対応する第1のグラフィックデータは、第1の処理スレッドを使用するホストアプリケーションによって、前記シーングラフに通信され、前記第2の3Dデータに対応する第2のグラフィックデータは、前記第1の処理スレッドから独立している第2の処理スレッドを使用する前記ホストアプリケーションによって、前記シーングラフに通信される、項目15に記載の方法。
(項目28)
コンピュータシステムであって、
1つ以上のプロセッサと、
命令を記憶するメモリであって、前記メモリは、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記コンピュータシステムにおいて、第1のクライアントアプリケーションから、第1のノードを備える第1のグラフィックデータを受信することと、
前記コンピュータシステムにおいて、前記第1のクライアントアプリケーションと異なる第2のクライアントアプリケーションから、第2のノードを備える第2のグラフィックデータを受信することと、
前記コンピュータシステムにおいて、シーングラフを生成することであって、
前記シーングラフは、前記第1のノードと前記第2のノードとの間の階層関係を表し、
前記シーングラフは、前記1つ以上のプロセッサによってトラバースされるとき、出力をレンダリングするように構成される、ことと
を含む方法を実施させる、メモリと
を備える、コンピュータシステム。
(項目29)
前記シーングラフをトラバースすることをさらに含む、項目28に記載のコンピュータシステム。
(項目30)
前記コンピュータシステムはさらに、ディスプレイを備え、前記方法はさらに、前記ディスプレイ上に前記画像を表示することを含む、項目29に記載のコンピュータシステム。
(項目31)
前記方法はさらに、前記シーングラフをトラバースすることの前記出力に最適化を適用することを含む、項目29に記載のコンピュータシステム。
(項目32)
前記最適化を適用することは、表面を抜粋することを含む、項目31に記載のコンピュータシステム。
(項目33)
前記方法はさらに、前記シーングラフをトラバースすることの前記出力に視覚効果を適用することを含む、項目29に記載のコンピュータシステム。
(項目34)
前記視覚効果を適用することは、光量値を計算することを含む、項目33に記載のコンピュータシステム。
(項目35)
前記視覚効果を適用することは、シェーダを実行することを含む、項目33に記載のコンピュータシステム。
(項目36)
前記方法はさらに、前記シーングラフをトラバースすることの前記出力に物理的効果を適用することを含む、項目29に記載のコンピュータシステム。
(項目37)
前記物理的効果を適用することは、衝突を検出することを含む、項目36に記載のコンピュータシステム。
(項目38)
前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、項目28に記載のコンピュータシステム。
(項目39)
前記第1のグラフィックデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
前記第2のグラフィックデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、項目28に記載のコンピュータシステム。
(項目40)
前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、項目28に記載のコンピュータシステム。
(項目41)
前記第1のグラフィックデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィックデータは、前記第1の処理スレッドから独立している前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、項目28に記載のコンピュータシステム。
(項目42)
コンピュータシステムであって、
1つ以上のプロセッサと、
記憶装置であって、
前記コンピュータシステムにおいて、第1のクライアントアプリケーションから第1のシーンデータを受信することと、
前記コンピュータシステムにおいて、第2のクライアントアプリケーションから第2のシーンデータを受信することと
を行うように構成される、記憶装置と、
命令を記憶するメモリであって、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記第1のシーンデータおよび前記第2のシーンデータに基づいて、グラフィックデータ構造を生成することであって、前記グラフィックデータ構造は、前記1つ以上のプロセッサによって実行されるレンダリング動作への入力として提供されるときに、ディスプレイ上の画像に対応する出力をもたらすように構成される、こと
を含む方法を実施させる、メモリと
を備える、コンピュータシステム。
(項目43)
前記グラフィックデータ構造は、表示リストおよび表示ツリーのうちの少なくとも1つである、項目42に記載のコンピュータシステム。
(項目44)
前記方法はさらに、入力として前記グラフィックデータ構造を使用して、前記レンダリング動作を実行することを含む、項目42に記載のコンピュータシステム。
(項目45)
前記コンピュータシステムはさらに、ディスプレイを備え、前記方法はさらに、前記ディスプレイ上に前記画像を表示することを含む、項目44に記載のコンピュータシステム。
(項目46)
前記第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであり、
前記第2のクライアントアプリケーションは、前記第1のデバイスの前記1つ以上のプロセッサによって実行される第2のアプリケーションである、項目42に記載のコンピュータシステム。
(項目47)
前記第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであり、
前記第2のクライアントアプリケーションは、第2のデバイスの前記1つ以上のプロセッサによって実行される第2のアプリケーションである、項目42に記載のコンピュータシステム。
(項目48)
前記記憶装置はさらに、第3のクライアントアプリケーションから第3のシーンデータを受信するように構成される、項目42に記載のコンピュータシステム。
(項目49)
前記方法はさらに、前記記憶装置から前記第1のシーンデータを削除することを含む、項目42に記載のコンピュータシステム。
(項目50)
前記グラフィックデータ構造は、第1のデータと、第2のデータとを備え、前記方法はさらに、
前記第1のデータが遮蔽ビューに対応するかまたは未遮蔽ビューに対応するかを決定することと、
前記第1のデータが未遮蔽ビューに対応するという決定に応答して、前記第1のデータに基づいて、前記未遮蔽ビューを備える画像をレンダリングすることと、
前記第1のデータが遮蔽ビューに対応するという決定に応答して、前記遮蔽ビューを備えない画像をレンダリングすることと
を含む、項目42に記載のコンピュータシステム。
(項目51)
前記記憶装置はさらに、前記第1のシーンデータを受信することに応答して、前記第1のシーンデータを第1のバージョンとしてバージョン制御システムの中に記憶するように構成される、項目42に記載のコンピュータシステム。
(項目52)
前記記憶装置はさらに、
前記第1のクライアントアプリケーションから第3のシーンデータを受信することと、
前記第3のシーンデータを第2のバージョンとして前記バージョン制御システムの中に記憶することと
を行うように構成される、項目51に記載のコンピュータシステム。
(項目53)
前記方法はさらに、前記グラフィックデータ構造を生成することに応答して、前記記憶装置から前記第1のバージョンを除去することを含む、項目51に記載のコンピュータシステム。
(項目54)
前記方法は、前記記憶装置が前記第3のシーンデータを受信することと並行して実施される、項目48に記載のコンピュータシステム。
(項目55)
前記記憶装置は、前記第2のシーンデータを受信することと並行して前記第1のシーンデータを受信するように構成される、項目42に記載のコンピュータシステム。
(項目56)
前記記憶装置は、第1のデータレートに対応する第1の間隔で前記第3のシーンデータを受信するように構成され、前記方法はさらに、第2のデータレートに対応するように前記第1の間隔の長さを調節することを含む、項目52に記載のコンピュータシステム。
(項目57)
前記第1のシーンデータは、新しいデータ、削除されたデータ、およびデータ間の関係の変化のうちの少なくとも1つを備える、項目42に記載のコンピュータシステム。
(項目58)
コンピュータシステムであって、前記コンピュータシステムは、サーバと、サーバデータと、第1のクライアントアプリケーションと、第2のクライアントアプリケーションとを備え、前記コンピュータシステムは、
前記サーバにおいて、前記第1のクライアントアプリケーションから第1の未処理シーンデータを受信することと、
前記サーバにおいて、前記第2のクライアントアプリケーションから第2の未処理シーンデータを受信することと、
前記サーバにおいて、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータ、前記第2のクライアントアプリケーションからの前記第2の未処理シーンデータ、および前記サーバデータを、集中シーンデータ構造に組み込むことと、
前記サーバにおいて、前記集中シーンデータ構造内に含有される前記データの少なくとも一部を実行することと、
前記集中シーンデータ構造内で実行された前記データに基づいて、グラフィックデータ構造を作成することと
を行うように構成される、コンピュータシステム。
(項目59)
前記グラフィックデータ構造は、表示リストまたは表示ツリーである、項目58に記載のコンピュータシステム。
(項目60)
前記グラフィックデータ構造を処理画像にレンダリングするように構成されるレンダリングエンジンをさらに備える、項目58に記載のコンピュータシステム。
(項目61)
前記処理画像を表示するように構成されるディスプレイをさらに備える、項目60に記載のコンピュータシステム。
(項目62)
前記ディスプレイは、物理的世界の少なくとも部分ビューを維持しながら、仮想コンテンツを表示することが可能である、項目61に記載のコンピュータシステム。
(項目63)
前記第1のクライアントアプリケーションおよび前記第2のクライアントアプリケーションは、単一の物理的デバイス上で起動する2つの異なるアプリケーションである、項目58に記載のコンピュータシステム。
(項目64)
前記第1のクライアントアプリケーションおよび前記第2のクライアントアプリケーションは、別個の物理的デバイス上でそれぞれ起動する2つの異なるアプリケーションである、項目58に記載のコンピュータシステム。
(項目65)
前記サーバは、第3のクライアントアプリケーションから第3の未処理シーンデータを受信するように構成される、項目58に記載のコンピュータシステム。
(項目66)
前記サーバは、前記第1のクライアントアプリケーションからの前記未処理シーンデータの実行後に、前記第1のクライアントアプリケーションから前記未処理シーンデータを削除するように構成される、項目58に記載のコンピュータシステム。
(項目67)
前記レンダリングエンジンはさらに、遮蔽モジュールを備え、前記遮蔽モジュールは、前記グラフィックデータ構造内のデータを第1の遮蔽カテゴリおよび第2の未遮蔽カテゴリに分離し、前記第2の未遮蔽カテゴリを表示するように構成される、項目60に記載のコンピュータシステム。
(項目68)
前記サーバは、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータを第1のバージョンとして記憶するように構成される、項目58に記載のコンピュータシステム。
(項目69)
前記サーバは、前記第1のクライアントアプリケーションからの第3の未処理シーンデータを第2のバージョンとして記憶するように構成される、項目68に記載のコンピュータシステム。
(項目70)
前記コンピュータシステムは、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータの第1のバージョンが前記サーバによって受信される時間から、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータが読み取られ、実行される時間まで、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータの第1のバージョンを記憶するように構成される、項目68に記載のコンピュータシステム。
(項目71)
前記サーバは、前記サーバが前記第2のクライアントから前記第2の未処理シーンデータを受信するのと同時に、前記第1のクライアントから前記第1の未処理シーンデータを受信するように構成される、項目58に記載のコンピュータシステム。
(項目72)
前記サーバは、前記第1のクライアントアプリケーションが未処理シーンデータを前記サーバに送信するレートを減速するように構成される、項目69に記載のコンピュータシステム。
(項目73)
前記第1および第2のクライアントアプリケーションから受信されるデータは、新しいデータ、削除されたデータ、前もって転送されたデータ間の関係の変化、および修正されたデータから成る群から選択される少なくとも1つである、項目58に記載のコンピュータシステム。
図1A-1Eは、本開示の実施例による、グラフィックディスプレイを含む、例示的コンピュータシステムを図示する。
図2Aは、本開示の実施例による、例示的コンピュータシステムにおけるデータの例示的フローを示す。
図2Bは、本開示の実施例による、例示的コンピュータシステムに対応する例示的レンダラ出力を示す。
図2Cは、本開示の実施例による、複数の独立アプリケーションを含む、例示的コンピュータシステムにおけるデータの例示的フローを示す。
図2Dは、本開示の実施例による、複数の独立アプリケーションを含む、例示的コンピュータシステムに対応する例示的レンダラ出力を示す。
図3Aは、本開示の実施例による、集中シーングラフを使用して、複数の独立アプリケーションからの3Dデータをディスプレイにレンダリングし得る、例示的コンピュータシステムのコンポーネントを図示する。
図3Bは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的クライアントアプリケーションの側面を図示する。
図3Cは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的クライアント・サーバインターフェースの側面を図示する。
図3Dは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的ホストアプリケーション340の側面を図示する。
図3Eは、本開示の実施例による、複数の独立クライアントアプリケーションを含む、例示的コンピュータシステムに関する例示的レンダラ360の側面を図示する。
図4は、本開示の実施例による、任意の携帯用または非携帯用デバイス内で具現化され得る、システムアーキテクチャの実施例を図示する。
以下の実施例の説明では、本明細書の一部を形成し、例証として、実践され得る具体的実施例が示される、付随する図面が参照される。他の実施例も使用され得、構造変更が、開示される実施例の範囲から逸脱することなく行われ得ることを理解されたい。
図1Aから1Eは、ディスプレイを伴う種々の例示的コンピュータシステムを図示する。図1Aは、外部モニタに接続される例示的デスクトップコンピュータを示す。図1Bは、ディスプレイを含む、例示的ラップトップを示す。図1Cは、統合ディスプレイを含む、例示的モバイルデバイスを示す。図1Dは、ディスプレイを含む、例示的テレビを示す。図1Eは、頭部搭載型ディスプレイを含む、例示的コンピュータシステムを示す。本開示は、いかなる特定のタイプのコンピュータシステムにも、いかなる特定のタイプのディスプレイにも、またはコンピュータシステムをディスプレイに接続するいかなる特定の手段にも限定されない。本開示はさらに、2次元ディスプレイに限定されず、特に、立体ディスプレイ等の3次元ディスプレイが、考慮される。
いくつかの例示的コンピュータシステムでは、ディスプレイ上にグラフィックで提示されるデータは、3次元空間内でオブジェクト(多角形を含む、2Dまたは3D幾何プリミティブ等)を表すデータ(「3Dデータ」)を含み、ディスプレイ上で3Dデータを提示することは、視認軸に沿って配向される視認起点から視認されるような3次元空間内のオブジェクトに対応する画像(「レンダリングされたシーン」)を提示することを含む。例えば、コンピュータシステム上で起動するソフトウェアアプリケーション(3Dエンジンを使用するビデオゲーム等)では、3Dデータは、3次元ゲーム世界の中のオブジェクトの空間座標、配向、および/または視覚性質、およびゲーム世界の中の視認起点および視認軸を表すデータを含んでもよい。3Dデータはまた、レンダリングされるオブジェクトと関連付けられるテクスチャに関するデータ、オブジェクトに関するシェーダパラメータ、およびオブジェクトが表示され得る方法に影響を及ぼす他の情報を含んでもよい。ゲームは、例えば、「レンダリング」または「描画」段階中に、ディスプレイ上にレンダリングされたシーンを提示するように、ソフトウェアおよび/またはハードウェア「パイプライン」に指図してもよい。そのような実施例では、概して、結果として生じる画像が、視覚世界についてのユーザの期待を反映することが望ましい。特に、概して、視認起点により近い第1の不透明なオブジェクトが、第1のオブジェクトの後ろの第2のオブジェクトを遮蔽することが望ましい。正しく遮蔽されていないオブジェクトは、ユーザを混乱させ得、オブジェクトが3次元空間内に位置する場所を明確に提示しない場合がある。いくつかの例示的コンピュータシステムでは、遮蔽は、視認起点により近いオブジェクトが、視認起点からより遠いオブジェクトの上でソートまたは描画される、ソーティングを通して達成される。
1つのオブジェクトが別のオブジェクトを現実的に遮蔽するように、ディスプレイ上に提示するために複数のオブジェクトをソートすることは、オブジェクト間の関係、例えば、3次元空間内のオブジェクト間の空間関係についての情報を要求する。いくつかの例示的コンピュータシステムは、シーングラフを利用し、シーンとしてレンダリングされるオブジェクト等の1つ以上のオブジェクトの間の関係(例えば、階層関係)を表す。本明細書で使用されるように、シーングラフは、そのような関係を表す任意のデータ構造である。例えば、シーングラフでは、レンダリングされるオブジェクトは、グラフではノードとして表されてもよく、ノード間の関係は、オブジェクト間の論理または空間関係を表す。レンダラは、次いで、当技術分野で公知の技法に従って、シーングラフをトラバースし、適切な遮蔽を達成するであろう様式で、オブジェクトを表示することができる。いくつかの実施例では、シーングラフは、3Dデータを含むアプリケーションと、その3Dデータを画面にレンダリングするためのレンダラとの間に位置する、中間データ構造であり、いくつかの実施例では、アプリケーションは、シーン情報をシーングラフに書き込み、シーングラフは、以降で、シーンをレンダリングするためにレンダラによって使用されてもよい。
図2Aは、例示的コンピュータシステム200におけるデータの例示的フローを示す。システム200では、単一のアプリケーション210は、レンダラ250がオブジェクト220をディスプレイ290にレンダリングするために使用し得る、シーングラフ240にデータを書き込むことができる。例えば、オブジェクト220は、2つの人間の手、すなわち、手232および手236の3D表現をともに構成するいくつかのオブジェクト(例えば、多角形)を含んでもよく、アプリケーションは、例えば、レンダリングまたは描画段階中に、視認軸に沿って配向される視認起点の視点からディスプレイ上にレンダリングされるようにオブジェクト220に指図してもよい。実施例では、手232および手236は、握手で相互係止され、手の相対位置付けにより、視認者は、視認起点および視認軸に対して、手232のいくつかの部分が手236の部分を遮蔽し、手236を構成するいくつかの多角形が手232の部分を遮蔽することを予期する。アプリケーション210は、他の多角形を遮蔽するはずである多角形、すなわち、他のものの上に表示するようにソートされるはずである多角形を識別するために使用され得る、オブジェクト220を構成する多角形の間の空間関係等のオブジェクト220の間の関係を表す情報を、シーングラフ240に書き込むことができる。例えば、シーングラフ240は、多角形234(手232に属する)が、視認起点と手236を構成する多角形との間に位置付けられ、したがって、手236の中のこれらの多角形を遮蔽するはずであり、多角形238(手236に属する)が、視認起点と手232を構成する多角形との間に位置付けられ、したがって、手232の中のこれらの多角形を遮蔽するはずであることを反映し得る。レンダラ250は、次いで、オブジェクト220を、所望の遮蔽と一致してディスプレイ290にレンダリングしてもよい。
図2Bは、図2Aに示される例示的コンピュータシステム200のレンダラ250の例示的出力を示す。図2Aに関して上記に説明される実施例では、オブジェクト220の相対位置に基づいて、視認者は、手232を構成するいくつかのオブジェクト(多角形234等)が手236を遮蔽し、手236を構成するいくつかのオブジェクト(多角形238等)が手232を遮蔽することを予期する。図2Bに示される例示的出力は、予期される遮蔽と一致する。すなわち、図2Aのオブジェクト220は、視認者の期待に一致する握手をディスプレイ290上に提示するように正しく表示される。
図2Aおよび2Bに示される例示的コンピュータシステム200では、シーングラフ240は、単一のアプリケーションのみによって、アプリケーション210に直接書き込まれる。レンダラ250は、次いで、シーングラフ240をトラバースし、適切な遮蔽を伴って手232および手236をレンダリングする。例示的コンピュータシステム200等のレンダリングプロセスの一部としてシーングラフを使用する従来的なシステムは、シーングラフ(例えば、シーングラフ240)が複数の独立アプリケーションから直接入力を受信するときに、オブジェクトを正しく遮蔽しない場合がある。これらの状況では、例示的コンピュータシステム200と異なり、ディスプレイ上でオブジェクトを正しくソートするために必要とされ得る、オブジェクト関係データの全てを伴うシーングラフを提供し得る、アプリケーションが1つも存在しない。
図2Cは、2つの独立アプリケーションを使用する、例示的コンピュータシステム201におけるデータの例示的フローを示し、上記に説明される遮蔽問題を図示する。上記に説明される例示的コンピュータシステム200と異なり、例示的コンピュータシステム201は、2つの独立アプリケーション、すなわち、アプリケーション212およびアプリケーション214とを含む。例示的コンピュータシステム201では、アプリケーション212およびアプリケーション214は両方とも、データをシーングラフ240に書き込み、それらの個別の3Dデータを単一のディスプレイ290にレンダリングする。図2Cでは、アプリケーション212は、オブジェクト222(手232を構成するオブジェクトを含む)をレンダリングしようとし、アプリケーション214は、オブジェクト224(手236を構成するオブジェクトを含む)をレンダリングしようとする。本実施例では、図2Aおよび2Bに説明される実施例のように、手232および手236は、同一の3D環境内で現在表示されている場合、視認者が、手232の部分が手236を遮蔽し、手236の部分が手232を遮蔽することを予期するであろうように、握手で相互係止されるであろう。
図2Cに示される実施例は、レンダリングされるオブジェクトの現実的な遮蔽を達成する困難を有し得る。実施例では、アプリケーション212は、オブジェクト222(手232を含む)に対応するデータをシーングラフ240に書き込むことができ、アプリケーション214は、オブジェクト224(手236を含む)に対応するデータを同一のシーングラフ240に書き込むことができる。しかしながら、例示的コンピュータシステム201では、アプリケーション212およびアプリケーション214が独立(「サンドボックス化された」)アプリケーションである場合、アプリケーション212は、アプリケーション214のオブジェクト224(手236およびその構成オブジェクトを含む)に関するデータにアクセスすることができず、同様に、アプリケーション214は、アプリケーション212のオブジェクト222(手232およびその構成オブジェクトを含む)に関するデータにアクセスすることができない。すなわち、いくつかの実施例では、アプリケーション212もアプリケーション214も、オブジェクト222とオブジェクト224との間の関係を完全に識別することができない。したがって、アプリケーション212もアプリケーション214も、他のオブジェクトを遮蔽するオブジェクト、またはオブジェクトがディスプレイ上でソートされるはずである順序を識別するために必要であり得る、情報をシーングラフ240に書き込むことができない。
図2Dは、図2Cに示される例示的コンピュータシステム201のレンダラ250の例示的出力を示す。図2Cに関して上記に説明される実施例では、オブジェクト222およびオブジェクト224の相対位置付けに基づいて、視認者は、手232のいくつかの部分が手236を遮蔽し、手236のいくつかの部分が手232を遮蔽することを予期する。しかしながら、図2Aおよび2Bと異なり、図2Cのシーングラフ240は、上記で説明されるように、オブジェクト222および224を正しくソートし、所望の遮蔽を生じることができない。代わりに、示される実施例では、オブジェクト222の全ては、オブジェクト224の全ての上にソートされる。図2Dに示される例示的出力は、したがって、予期される遮蔽と一致しない。結果として生じる握手画像は、したがって、アプリケーション212およびアプリケーション214においてオブジェクトを正確に反映せず、画像は、加えて、不自然に見え得、視認者にとって紛らわしくあり得る。
図2Aから2Dのシーングラフ240等の従来的なシーングラフの他の不利点は、例示的コンピュータシステム201の中等の複数の独立アプリケーションと併用されるときに、明白である。例えば、レンダリング効率は、図2Aのアプリケーション210の中等でレンダリングされるシーン全体に対応するデータを使用して、実現されることができる。例えば、遮蔽されるであろう表面を把握することによって、図2Aの例示的コンピュータシステム200は、これらの表面を抜粋するようにシステム200に命令し、それによって、計算リソースの不必要な支出を回避することができる。本抜粋は、各アプリケーションが、抜粋されるはずである表面を決定するためのシーン知識を保有しない場合があるため、図2Cの例示的コンピュータシステム201等の多重アプリケーションシステムでは可能ではない場合がある。さらに、例示的コンピュータシステム200等の単一のアプリケーションのみを伴う、いくつかの実施例では、有益な効果が、シーンの中の他のオブジェクトの存在に基づいて、オブジェクトに適用されてもよい。例えば、現実的な照明および影付け効果をオブジェクトに適用することは、近傍のオブジェクトに対応するデータを要求し得る。さらに、いくつかのシェーダ効果は、そのようなデータから利益を享受する。同様に、粒子システムまたは衝突検出システムによって生成される効果は、そのようなデータから利益を享受し得る。そのような効果は、そのような効果を適用するために必要なノード関係情報の全てを提供することが可能であり得るアプリケーションが1つも存在しないため、3Dデータが複数の独立アプリケーションによって提供されるシステムでは、限定される、または不可能であり得る。
本開示は、集中シーングラフを使用し、複数の独立アプリケーションからの3Dデータをレンダリングするシステムの上記の不利点に対処する、システムおよび方法を提示する。集中シーングラフが、複数の独立アプリケーションがレンダリングされる3Dデータを提供するシステム(図2Cの例示的コンピュータシステム201等)で、図2Cのシーングラフ240等の従来的なシーングラフの代わりに、使用されることができる。本明細書に説明されるように、いくつかの実施例では、集中シーングラフは、複数の個々の入力源から3Dデータを受信し、その3Dデータに対応する情報を中心の場所に書き込み、その3Dデータに基づいて画像をレンダリングするレンダラによるアクセスのためにその情報を維持する、システムを含むことができる。そのグラフィック出力は、現実的なオブジェクト遮蔽、計算効率、視覚効果(照明および影付け等)、または別様に集中シーングラフを利用しないシステムでは実現することが困難または不可能であろう物理的効果(衝突検出等)を反映してもよい。
いくつかの実施例では、例示的コンピュータシステムは、共通3D環境内の1つ以上のオブジェクトを表す3Dデータをそれぞれ含む、複数のアプリケーションを含む。複数のアプリケーションはそれぞれ、他のアプリケーションに依存しないままであるように、「サンドボックス化された」環境に存在してもよく、例えば、各個別のアプリケーションのデータは、各他のアプリケーションのデータから独立し得、各アプリケーションは、各他のアプリケーションのデータへのアクセスを有していない場合があり、アプリケーションのそれぞれの3Dデータが、同一の3D環境に対応し得る一方で、各アプリケーションは、3D環境のその独自のインスタンスを維持する。例えば、各アプリケーションは、各プレーヤが同一のゲーム世界のインスタンスまたは3D環境内に存在するが、他のプレーヤのデータへの直接アクセスが欠けている、オンラインマルチプレーヤビデオゲームの中のプレーヤを表してもよい。そのような実施例では、全てのプレーヤが、ゲーム世界の単一のインスタンスで同時にレンダリングされることが望ましくあり得るが、各プレーヤが、各他のクライアント参加者の3Dデータをレンダリングするために必要な情報を維持することは望ましくない場合がある(または計算的に法外に高価である)。さらに、セキュリティ目的のために、他のプレーヤに利用可能であるプレーヤの情報を限定することが望ましくあり得る。
いくつかの実施例では、複数のサンドボックス化されるアプリケーションはそれぞれ、独立して、その3Dデータに対応する情報をローカルシーングラフに書き込むことができ、その情報は、以降で共通集中シーングラフに書き込まれる。集中シーングラフは、次いで、各アプリケーションによって提供される集合的3Dデータに基づいて、ディスプレイに画像をレンダリングするように、レンダラによってトラバースされることができる。複数のサンドボックス化されたアプリケーションのそれぞれから単一の集中シーングラフに3Dデータを通信することによって、レンダラは、全てのアプリケーションの3Dデータの同時知識を要求する、またはそれから利益を享受する、遮蔽、照明効果、およびレンダリング最適化(表面抜粋等)等の有益な技法を適用することができる。これらの利益は、各サンドボックス化されたアプリケーションのために要求される計算オーバーヘッドを限定しながら、実現され、単一のアプリケーションの視点から、アプリケーションが行わなければならないことは、単一のシーングラフを更新し、その3Dデータを反映することのみであり、他の動作は、システムの別のコンポーネントによって実施される。さらに、セキュリティ利益が、サンドボックス化されたアプリケーションの間の分離を維持することによって、取得されることができる。
図3Aは、集中シーングラフを使用して、複数の独立アプリケーションからの3Dデータをディスプレイにレンダリングし得る、例示的コンピュータシステム300のコンポーネントを図示する。図示される実施例は、クライアント・サーバトポロジを利用するが、しかしながら、本開示は、クライアント・サーバ実施例に限定されない。例示的コンピュータシステム300では、第1のクライアントアプリケーション310および第2のクライアントアプリケーション320はそれぞれ、(いくつかの実施例では、ネットワークを経由して)3Dデータをクライアント・サーバインターフェース330に通信する。いくつかの実施例では、クライアントアプリケーション310および320は、相互から独立して動作し、独立してそれらの3Dデータをクライアント・サーバインターフェース330に通信する、「サンドボックス化された」アプリケーションである。クライアント・サーバインターフェース330は、クライアントアプリケーション310および320から更新された3Dデータを受信し、(いくつかの実施例では、ネットワークを経由して)その3Dデータをサーバ側ホストアプリケーション340に通信することができる。いくつかの実施例では、クライアント・サーバインターフェース330は、マルチスレッディング技法を使用し、複数のプロセッサスレッドを使用して、3Dデータを受信し、処理し、および/またはホストアプリケーション340に通信する。いくつかの実施例では、クライアント・サーバインターフェースは、3Dデータがホストアプリケーション340に通信されるレートを(抑制することによって等)制御するための論理を含む。ホストアプリケーション340は、クライアント・サーバインターフェースから受信される3Dデータを使用し、集中シーングラフ350がクライアントアプリケーション310および320から受信される3Dデータを反映するように、集中シーングラフ350を更新することができる。いくつかの実施例では、集中シーングラフ350は、シーングラフの複数のバージョンを備え、既知のバージョニング技法が、集中シーングラフ350への更新が並行して起こることを可能にするために使用される。レンダラ360は、次いで、集中シーングラフ350をトラバースし、適宜、最適化および効果を適用し、コンピュータモニタ等のディスプレイ370上に表示されるようにグラフィック出力を生成することができる。
図3Bは、図3Aに示される例示的コンピュータシステム300に関する例示的クライアントアプリケーション310の側面を図示する。示される実施例では、3Dデータ312は、ディスプレイ370上に描画される、3D環境内のグラフィックオブジェクト(幾何プリミティブ、例えば、多角形等)を表す。3Dデータ312は、クライアントアプリケーション310によって更新されてもよい(314)。例えば、クライアントアプリケーション310が、1秒あたり60回反復するレンダリングループを伴うアプリケーションである場合、クライアントアプリケーション310は、3Dデータ312を1秒あたり60回更新し、レンダリング出力で反映されるはずであるアプリケーションの動作の経過中に、そのデータへの変更を反映してもよい。いくつかの実施例では、3Dデータ312は、各クライアントアプリケーション310にローカルであり得る、ローカルシーングラフ316として表される。いくつかの実施例では、ローカルシーングラフ316は、集中シーングラフ350の中のデータに対応するデータ(ノード等)を含んでもよい。3Dデータ312が更新される(314)と、クライアントアプリケーション310は、ローカルシーングラフ316を更新し、3Dデータ312の直近のバージョンを反映することができる。ローカルシーングラフ316が更新されると、クライアントデータ318を生成する(317)ようにクライアントアプリケーション310によって使用されることができる。いくつかの実施例では、クライアントデータ318は、その全体としてローカルシーングラフ316を表してもよい。いくつかの実施例では、クライアントデータ318は、前のクライアントデータ318がクライアント・サーバインターフェース330に送信された以降にローカルシーングラフ316に行われた変更を表してもよい。例えば、クライアントデータ318は、ローカルシーングラフ316に追加された、またはそこから削除されたノード、ローカルシーングラフ316の中のノード間の関係の変更、またはローカルシーングラフ316の中のノードの性質の変更を含み得る。いくつかの実施例では、クライアントデータ318は、シーングラフノードに対応する識別番号等の識別子を使用し、ローカルシーングラフ316からのデータと集中シーングラフ350上の対応するデータとの間の関係を識別してもよい。クライアントデータ318は、次いで、ホストアプリケーション340への最終的な通信のために、クライアント・サーバインターフェース330に通信されることができる。いくつかの実施例では、クライアント・サーバインターフェース330へのクライアントデータ318の通信は、ネットワークを経由して起こってもよい。いくつかの実施例では、クライアントヘルパアプリケーションが、ローカルシーングラフ316から、または3Dデータ312から、クライアントデータ318を生成するために、クライアントアプリケーション310と併せて使用されてもよい。
クライアントアプリケーション310に関して説明される側面は、同様に、クライアントアプリケーション320、または(クライアントアプリケーション310とともに)例示的コンピュータシステム300を備える他のクライアントアプリケーションを説明し得る。本明細書に説明されるシステムおよび方法は、任意の数のクライアントアプリケーションおよびクライアントデータを含むように拡張され得、本開示は、いかなるそのような数にも限定されず、さらに、いくつかの利益(例えば、計算効率の向上)が、ますます増加するクライアントアプリケーションを用いるとより明白になり得ることが、当業者によって理解されるであろう。上記で説明されるように、クライアントアプリケーション310および320は、データまたは機能性を共有しない、サンドボックス化されたアプリケーションであってもよい。例えば、例示的コンピュータシステム300では、クライアントアプリケーション320は、クライアントアプリケーション310に属する、3Dデータ312およびローカルシーングラフ316から独立している、その独自の3Dデータおよびローカルシーングラフを有してもよい。しかしながら、例示的コンピュータシステム300を含む、いくつかの実施例では、単一のクライアント・サーバインターフェース300が、クライアントアプリケーション310および320等の複数のクライアントアプリケーションによって共有される。
図3Cは、図3Aおよび3Bに示される例示的コンピュータシステム300に関する例示的クライアント・サーバインターフェース330の側面を図示する。実施例では、クライアントデータ318およびクライアントデータ328は、図3Bに関して上記で説明されるように、個別のクライアントアプリケーション310および320に通信される、またはそれによって更新される、クライアントデータである。いくつかの実施例では、クライアントデータ318および328は、異なるレートにおいてクライアント・サーバインターフェース330上で更新されてもよい。これは、例えば、1つのクライアントアプリケーションが、別のクライアントアプリケーションよりも能力が低いコンピューティングハードウェア上で実行される(そのクライアントアプリケーションに、そのクライアントデータを低頻度で更新させる)場合、1つのクライアントアプリケーションが、別のクライアントアプリケーションよりも低い帯域幅のネットワークを経由してクライアント・サーバインターフェース330と通信する場合、または1つのクライアントアプリケーションと関連付けられるクライアントデータが、別のクライアントアプリケーションと関連付けられるクライアントデータよりも複雑である(かつ生成するためにより多くの処理時間を要求する)場合に、起こり得る。クライアント・サーバインターフェース330上でクライアントデータを更新する異なるレートはまた、ネットワーク故障がクライアントアプリケーションを一時的にオフラインにさせる場合等の動作条件の一時的急変の結果であってもよい。例えば、コンピュータシステム300が、クライアントデータを更新する異なるレートに耐えることが望ましく、例えば、1つのクライアントアプリケーションに影響を及ぼすネットワーク故障が、他のクライアントアプリケーションからのクライアントデータを使用して集中シーングラフ350を更新するレート、またはシーンがレンダリングされるレートに悪影響を及ぼさないことが望ましくあり得る。また、集中シーングラフ350を更新する際に、クライアントアプリケーションに対する集中シーングラフまたはレンダリングされた表示の不安定化または非同期化をもたらし得るため、1つのクライアントアプリケーションからのクライアントデータが、他のクライアントアプリケーションからのクライアントデータに過剰に遅れて遅延しない、またはその前で過剰に先導しないことを確実にすることが望ましくあり得る。
いくつかの実施例では、クライアント・サーバインターフェース330の役割は、クライアントデータを更新するレートの差異または変動に対処することである。図3Cを参照すると、例示的クライアント・サーバインターフェース330は、それぞれ、独立処理スレッド332および334を介してクライアントデータ318および328を受信してもよく、スレッドに対処するためのスレッドマネージャ336を含んでもよい。複数のスレッドを利用し、クライアントアプリケーション310およびクライアントアプリケーション320等の異なるソースからのクライアントデータを更新することは、1つのソースに関する問題が他のソースからのデータを遮断することまたは別様に悪影響を及ぼすことを防止することができる。示される実施例では、スレッドマネージャ336は、それぞれ、スレッド332および334を使用して、クライアントアプリケーション310および320からクライアントデータ318および328を入力し、ホストデータ319および329(それぞれ、クライアントデータ318および328、クライアントアプリケーション310および320、およびスレッド332および334に対応する)をホストアプリケーション340に出力してもよい。スレッドマネージャ336は、スレッド332および334を処理するため、スループット問題およびスレッド332および334に関する他の問題を識別し、対処するため、および/またはホストデータ319および329の出力を制御するための論理を含んでもよい。例えば、クライアントデータ318およびクライアントデータ328が、(それぞれ、スレッド332および334を介して)ほぼ同一のレートで更新している場合、スレッドマネージャ336は、単純に、ほぼ同一のレートでホストデータ319および329(それぞれ、クライアントデータ318および319に対応する)を更新してもよい。しかしながら、クライアントデータ318がクライアントデータ328よりもはるかに速いレートで更新される場合、スレッドマネージャ336は、(例えば、低頻度でそれをホストアプリケーション340に通信することによって)クライアントデータ318を抑制し、それがクライアントデータ328をはるかに上回ることを防止してもよい。スレッドマネージャ336はまた、ホストデータが更新される全体的レートを制御してもよい。例えば、スレッドマネージャ336は、ホストデータ319および/または329を更新するレートを抑制し、本ホストデータが、ホストアプリケーション340がそれを処理し得るよりも速く更新すること(クライアントアプリケーション310および/または320、集中シーングラフ350、およびディスプレイ370への出力の望ましくない非同期化をもたらし得る)を防止する。
図3Dは、図3A-3Cに示される例示的コンピュータシステム300に関する例示的ホストアプリケーション340の側面を図示する。本明細書では、スレッド341がホストアプリケーション340内で付加的スレッドと同時に実行され得る、ホストアプリケーション340内のスレッド341内で実行される動作が説明される。いくつかの実施例では、ホストアプリケーション340内のマルチスレッド処理は、複数のクライアントアプリケーションまたはホストデータの複数のセットが、(いくつかの実施例では、集中シーングラフの異なるバージョンを更新することによって)同一の集中シーングラフ350を同時に更新することを可能にするという利点を持ち得る。これは、ひいては、レンダリングされた表示へのクライアントデータの全体的スループットを増加させ得る。いくつかの実施例では、マルチスレッディングは、例えば、スレッドが不注意に同一のデータに書き込むことを防止するために、ロックが集中シーングラフデータ上に設置されることを要求し得る。しかしながら、いくつかの実施例では、説明される動作のうちの1つ以上のものは、スレッド内で実行されない場合がある。
図3Dに示される実施例では、ホストデータ319(クライアントアプリケーション310およびクライアントデータ318に対応する)が、図3Cに関して上記で説明されるように更新される(342)。ホストアプリケーション340は、次いで、ホストデータ319が集中シーングラフ350の前のバージョンに行い得る変更を識別してもよい。例えば、ホストアプリケーション340は、集中シーングラフ350に関して、ホストデータ319がノードを追加する、ノードを削除する、2つのノード間の関係を変更する、またはノードの性質を変更するであろうことを識別してもよい。(図3Dに示される実施例等のいくつかの実施例では、ホストアプリケーション340は、ホストデータハンドラ344を使用して、これらの動作またはその他を実施してもよい)。ホストアプリケーション340は、ホストデータ319に従って作成または更新される集中シーングラフ350のバージョンを識別してもよい(352)。いくつかの実施例では、集中シーングラフ350のバージョン352に書き込むことに先立って、ホストアプリケーション340は、そのバージョンをロックし、他のプロセスがそれを同時に処理することを防止してもよい。ホストアプリケーション340は、(例えば、ホストデータ319に対応するようにバージョン352の中のシーングラフノードを追加または削除することによって)バージョン352に変更を行い、ホストデータ319を反映してもよい。いくつかの実施例では、ホストアプリケーション340は、次いで、バージョン352をロック解除し、バージョン352に対応するバージョン番号の値を更新してもよい(356)。ホストアプリケーション340は、次いで、ホストデータを更新し(342)、図3Dに示されるプロセスを繰り返してもよい。集中シーングラフ350が個々のクライアントアプリケーションから導出される個々のホストデータを反映するように更新されると、集中シーングラフ350は、個々のクライアントアプリケーションが「サンドボックス化され」、相互から独立し得ても、複数のクライアントアプリケーションからの集合的ホストデータを反映するであろう。
図3Eは、図3A-3Dに示される例示的コンピュータシステム300に関する例示的レンダラ360の側面を図示する。いくつかの実施例では、レンダラ360は、ホストアプリケーション340の一部を備える。いくつかの実施例では、レンダラ360は、例示的コンピュータシステム300の別のコンポーネントの一部であってもよい、または別個のコンポーネントまたはアプリケーションであってもよい。いくつかの実施例では、レンダラ360は、例示的コンピュータシステム300の1つ以上のコンポーネンと異なる物理的ハードウェアで実装されてもよく、ネットワークを経由してこれらのコンポーネントのうちの1つ以上のものと通信してもよい。
図3Eに示される実施例では、レンダラ360は、集中シーングラフ350のバージョン352に作用する。実施例では、レンダラの役割は、集中シーングラフ350のバージョン352に基づいて、グラフィック出力をディスプレイ370にレンダリングすることである。本目的の一部として、レンダラ360は、既知のシーングラフトラバース技法を使用して、バージョン352をトラバースしてもよい(362)。トラバース362中または後に、レンダラ360は、適宜、集中シーングラフ350を更新(364)し、トラバースの結果を反映してもよい。例えば、トラバース362の一部として、レンダラ360は、集中シーングラフ350から削除されるはずである、放棄されたノードを識別してもよい。トラバース362および/または更新364後に、レンダラ360は、種々の最適化366をシーンに適用してもよい。例えば、レンダラ360は、曖昧なまたは不可視の表面を抜粋し、不必要な計算リソースを消費することを回避してもよい。トラバース362および/または更新364後に、レンダラ360は、1つ以上の視覚効果367をシーンに適用してもよい。例えば、いくつかの実施例では、レンダラ360は、照明効果または影効果を適用する、1つ以上のシェーダを適用する、粒子効果を適用する、および/または物理的効果を適用してもよい。最後に、レンダラ360は、データをグラフィック出力パイプラインに出力することができ、その結果は、ディスプレイ370上にグラフィック出力を表示することができる。
コンピュータシステムの上記の例示的プロセスは、任意の好適な論理回路によって提供されてもよい。好適な論理回路は、ソフトウェアプログラムで実装される命令を実行するときにプロセスを実施する、1つ以上のコンピュータプロセッサ(例えば、CPU、GPU等)を含んでもよい。加えて、そのようなプロセスはまた、プロセスを提供する論理設計を実装する、プログラマブル論理(例えば、PLD、FPGA等)またはカスタマイズされた論理(例えば、ASIC等)等のハードウェア論理回路で実装される、対応する論理設計を介して、提供されることもできる。さらに、そのようなプロセスは、ソフトウェアおよびハードウェア論理回路を起動する、両方の1つ以上のプロセッサを組み合わせる実装を介して、提供されることができる。
図4は、上記の実施例のうちのいずれかまたは全てを実装するために使用され得る、例示的システム400を図示する。上記の実施例(全体的または部分的)は、任意の携帯用デバイス(ウェアラブルデバイスを含む)または非携帯用デバイス、例えば、通信デバイス(例えば、携帯電話、スマートフォン)、マルチメディアデバイス(例えば、MP3プレーヤ、TV、ラジオ)、携帯用またはハンドヘルドコンピュータ(例えば、タブレット、ノートブック、ラップトップ)、デスクトップコンピュータ、一体型デスクトップ、周辺デバイス、頭部搭載型デバイス(例えば、統合ディスプレイを含み得る)、またはこれらのタイプのデバイスのうちの2つ以上のものの組み合わせを含む、例示的システムアーキテクチャ400の包含に適合可能な任意の他のシステムまたはデバイス内で具現化されてもよい。上記の実施例は、無線ネットワークを介して通信する2つ以上のコンピュータ等の2つ以上の物理的に別個のデバイスで具現化されてもよい。上記の実施例は、データを、頭部搭載型ディスプレイへ、および/またはそこから通信する、ベルトパック等の2つ以上の物理的に異なるデバイスで具現化されてもよい。図4は、概して、1つ以上のコンピュータ可読媒体401と、処理システム404と、I/Oサブシステム406と、高周波(RF)回路408と、オーディオ回路410と、センサ回路411とを含む、システム400の一実施例のブロック図である。これらのコンポーネントは、1つ以上の通信バスまたは信号ライン403によって結合されてもよい。
図4に示されるアーキテクチャは、システム400の1つの例示的アーキテクチャにすぎず、システム400は、示されるものよりも多いまたは少ないコンポーネント、またはコンポーネントの異なる構成を有し得ることが明白となるはずである。図4に示される種々のコンポーネントは、1つ以上の信号処理および/または特定用途向け集積回路を含む、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装されることができる。
図4の例示的システムアーキテクチャ400を参照すると、RF回路408は、1つ以上の他のデバイスへの無線リンクまたはネットワークを経由して情報を送信および受信するために使用されることができ、本機能を果たすための周知の回路を含む。RF回路408およびオーディオ回路410は、周辺機器インターフェース416を介して処理システム404に結合されることができる。インターフェース416は、周辺機器と処理システム404との間の通信を確立および維持するための種々の既知のコンポーネントを含むことができる。オーディオ回路410は、オーディオスピーカ450およびマイクロホン452に結合されることができ、インターフェース416から受信される音声信号を処理し、ユーザが他のユーザとリアルタイムで通信することを可能にするための既知の回路を含むことができる。いくつかの実施例では、オーディオ回路410は、ヘッドホンジャック(図示せず)を含むことができる。
センサ回路411は、限定ではないが、1つ以上の発光ダイオード(LED)または他の光エミッタ、1つ以上のフォトダイオードまたは他の光センサ、1つ以上の光熱センサ、磁力計、加速度計、ジャイロスコープ、気圧計、コンパス、近接性センサ、カメラ、周囲光センサ、温度計、GPSセンサ、電気眼球図記録(EOG)センサ、および残存バッテリ寿命、電力消費量、プロセッサ速度、CPU負荷、および同等物を感知し得る種々のシステムセンサを含む、種々のセンサに結合されることができる。頭部搭載型デバイスを伴うこと等の実施例では、1つ以上のセンサは、ユーザの眼移動を追跡すること、またはその眼の画像に基づいてユーザを識別すること等のユーザの眼に関連する機能性に関連して採用されてもよい。
周辺機器インターフェース416は、システムの入力および出力周辺機器を、プロセッサ418およびコンピュータ可読媒体401に結合することができる。1つ以上のプロセッサ418は、コントローラ44を介して1つ以上のコンピュータ可読媒体401と通信してもよい。コンピュータ可読媒体401は、1つ以上のプロセッサ418によって使用するためのコードおよび/またはデータを記憶し得る、任意のデバイスまたは媒体(信号を除外する)であり得る。いくつかの実施例では、媒体401は、非一過性のコンピュータ可読記憶媒体であり得る。媒体401は、限定ではないが、キャッシュ、メインメモリ、および二次メモリを含む、メモリ階層を含むことができる。メモリ階層は、RAM(例えば、SRAM、DRAM、DDRAM)、ROM、FLASH、ディスクドライブ、磁気テープ、CD(コンパクトディスク)、およびDVD(デジタルビデオディスク)等の磁気および/または光学記憶デバイスの任意の組み合わせを使用して、実装されることができる。媒体401はまた、(信号を除外し、信号が変調される搬送波を除外するが)コンピュータ命令またはデータを示す情報伝達信号を搬送するための伝送媒体を含んでもよい。例えば、伝送媒体は、限定ではないが、インターネット(ワールドワイドウェブとも称される)、イントラネット、ローカエルエリアネットワーク(LAN)、ワイドローカルエリアネットワーク(WLAN)、ストレージエリアネットワーク(SAN)、メトロポリタンエリアネットワーク(MAN)、および同等物を含む、通信ネットワークを含んでもよい。
1つ以上のプロセッサ418は、媒体401の中に記憶された種々のソフトウェアコンポーネントを起動し、システム400のための種々の機能を果たすことができる。いくつかの実施例では、ソフトウェアコンポーネントは、オペレーティングシステム422と、通信モジュール(または命令のセット)424と、I/O処理モジュール(または命令のセット)426と、グラフィックスモジュール(または命令のセット)428と、1つ以上のアプリケーション(または命令のセット)430とを含むことができる。これらのモジュールおよび上記のアプリケーションはそれぞれ、上記に説明される1つ以上の機能および本願に説明される方法(例えば、コンピュータ実装方法および本明細書に説明される他の情報処理方法)を実施するための命令のセットに対応することができる。これらのモジュール(すなわち、命令のセット)は、別個のソフトウェアプログラム、プロシージャ、またはモジュールとして実装される必要はなく、したがって、これらのモジュールの種々のサブセットは、種々の実施例では、組み合わせられる、または別様に再配列されてもよい。いくつかの実施例では、媒体401は、上記で識別されるモジュールおよびデータ構造のサブセットを記憶してもよい。さらに、媒体401は、上記に説明されていない付加的モジュールおよびデータ構造を記憶してもよい。
オペレーティングシステム422は、一般的システムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理等)を制御および管理するための種々のプロシージャ、命令のセット、ソフトウェアコンポーネント、および/またはドライバを含むことができ、種々のハードウェアとソフトウェアコンポーネントとの間の通信を促進する。
通信モジュール424は、1つ以上の外部ポート436を経由して、またはRF回路408を介して、他のデバイスとの通信を促進することができ、RF回路408および/または外部ポート436から受信されるデータを取り扱うための種々のソフトウェアコンポーネントを含むことができる。
グラフィックスモジュール428は、1つ以上のディスプレイ表面上でグラフィックオブジェクトをレンダリング、動画化、および表示するための種々の既知のソフトウェアコンポーネントを含むことができる。ディスプレイ表面は、2Dまたは3Dディスプレイを含んでもよい。ディスプレイ表面は、例示的システム400の1つ以上のコンポーネントに直接または間接的に結合されてもよい。タッチ感知ディスプレイ(例えば、タッチスクリーン)を伴う実施例では、グラフィックスモジュール428は、タッチ感知ディスプレイ上でオブジェクトをレンダリング、表示、および動画化するためのコンポーネントを含むことができる。いくつかの実施例では、グラフィックスモジュール428は、遠隔ディスプレイをレンダリングするためのコンポーネントを含むことができる。カメラを組み込むもの等のいくつかの実施例では、グラフィックスモジュール428は、レンダリングされたグラフィックオブジェクトとカメラデータ(頭部搭載型カメラから捕捉されるもの等)または写真データ(衛星によって捕捉された画像等)を合成することによって形成される画像を作成および/または表示するためのコンポーネントを含むことができる。いくつかの実施例では、グラフィックスモジュールは、画像を頭部搭載型ディスプレイデバイスにレンダリングするためのコンポーネントを含むことができる。いくつかの実施例では、画像は、仮想コンテンツの要素のビュー(例えば、3次元仮想環境内のオブジェクト)および/または物理的世界のビュー(例えば、ユーザの物理的周辺を示すカメラ入力)を含んでもよい。いくつかの実施例では、ディスプレイは、仮想コンテンツおよび物理的世界のビューの合成画像を提示してもよい。いくつかの実施例では、物理的世界のビューは、レンダリングされた画像であってもよく、いくつかの実施例では、物理的世界のビューは、カメラからの画像であってもよい。
1つ以上のアプリケーション430は、限定ではないが、ブラウザ、アドレス帳、連絡先リスト、Eメール、インスタントメッセージ、文書処理、キーボードエミュレーション、ウィジェット、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、音声複製、場所決定能力(全地球測位システム(GPS)によって提供されるもの等)、音楽プレーヤ等を含む、システム400上にインストールされた任意のアプリケーションを含むことができる。
I/Oサブシステム406は、眼I/Oデバイス412および種々の機能を制御する、または果たすための1つ以上のI/Oデバイス414に結合されることができる。例えば、眼I/Oデバイス412は、眼入力(例えば、眼追跡のためのセンサ)またはユーザジェスチャ入力(例えば、光学センサ)を処理するための種々のコンポーネントを含み得る、眼I/Oデバイスコントローラ432を介して、処理システム404と通信することができる。1つ以上の他のI/Oコントローラ434は、電気信号を他のI/Oデバイス414に送信し、そこから受信することができる。他のI/Oデバイス414は、物理的ボタン、ダイヤル、スライダスイッチ、スティック、キーボード、タッチパネル、付加的ディスプレイ画面、またはそれらの任意の組み合わせを含んでもよい。
I/O処理モジュール426は、限定ではないが、眼I/Oデバイスコントローラ432を介して眼I/Oデバイス412から、またはI/Oコントローラ434を介して他のI/Oデバイス414から受信される、入力を受信および処理することを含む、眼I/Oデバイス412および/または他のI/Oデバイス414と関連付けられる種々のタスクを実施するための種々のソフトウェアコンポーネントを含むことができる。いくつかの実施例では、I/Oデバイス414および/またはI/O処理モジュール426は、触知または非触知手段によって提供され得る、ジェスチャ入力と関連付けられる種々のタスクを実施してもよい。いくつかの実施例では、ジェスチャ入力は、例えば、ユーザの眼、腕、手、および/または指の移動を検出するためのカメラまたは別のセンサによって提供されてもよい。いくつかの実施例では、I/Oデバイス414および/またはI/O処理モジュール426は、ユーザが相互作用することを所望するディスプレイ上のオブジェクト、例えば、ユーザが指し示しているGUI要素を識別するように構成されてもよい。いくつかの実施例では、眼I/Oデバイス412および/またはI/O処理モジュール426は、ユーザが見ているオブジェクトまたはディスプレイ上の領域を識別すること等の眼追跡タスクを実施するように(光学またはEOGセンサの助けを借りて等)構成されてもよい。いくつかの実施例では、デバイス(ハードウェア「ビーコン」等)が、2Dまたは3D環境に対するユーザの手の場所を識別すること等のジェスチャ関連タスクを伴うI/Oデバイス412および/またはI/O処理モジュール426のタッチを補助するように、ユーザによって装着または保持されてもよい。いくつかの実施例では、眼I/Oデバイス412および/またはI/O処理モジュール426は、ユーザの眼に関するカメラセンサからのデータ等のセンサ入力に基づいて、ユーザを識別するように構成されてもよい。
いくつかの実施例では、グラフィックスモジュール428は、GUI内で視覚出力をユーザに表示することができる。視覚出力は、テキスト、グラフィック、ビデオ、およびそれらの任意の組み合わせを含んでもよい。視覚出力の一部または全ては、ユーザインターフェースオブジェクトに対応してもよい。いくつかの実施例では、I/Oデバイス412および/または414および/またはコントローラ432および/または434は(媒体401内の任意の関連付けられるモジュールおよび/または命令のセットとともに)、ジェスチャおよび/または眼移動を検出および追跡することができ、検出されたジェスチャおよび/または眼移動を、1つ以上のユーザインターフェースオブジェクト等のグラフィックオブジェクトとの相互作用に変換することができる。眼I/Oデバイス412および/または眼I/Oデバイスコントローラ432が、ユーザの眼移動を追跡するように構成される、実施例では、ユーザは、グラフィックオブジェクトを見ることによって、それらと直接相互作用することができる。
フィードバックが、表示されているものおよび/またはコンピューティングシステムの1つまたは複数の状態に基づいて、眼I/Oデバイス412または別のI/Oデバイス414によって等、提供されてもよい。フィードバックは、光学的に(例えば、光信号または表示された画像)、機械的に(例えば、触知フィードバック、タッチフィードバック、力フィードバック、または同等物)、電気的に(例えば、電気刺激)、嗅覚、音響的に(例えば、ビープ音または同等物)、または同等物、またはそれらの任意の組み合わせで、かつ可変または非可変様式で、伝送されてもよい。
システム400はまた、種々のハードウェアコンポーネントに給電するための電力システム444を含むことができ、電力管理システム、1つ以上の電源、再充電システム、停電検出回路、電力コンバータまたはインバータ、電力状態インジケータ、および典型的には携帯用デバイスにおける電力の生成、管理、および分配と関連付けられる任意の他のコンポーネントを含んでもよい。
いくつかの実施例では、周辺機器インターフェース416、1つ以上のプロセッサ418、およびメモリコントローラ420は、処理システム404等の単一のチップ上に実装されてもよい。いくつかの他の実施例では、それらは、別個のチップ上に実装されてもよい。
いくつかの実施例では、方法が開示される。本方法は、コンピュータシステムの第1のクライアントアプリケーションから、第1のノードを備える、第1のグラフィックデータを受信することと、コンピュータシステムの第2のクライアントアプリケーションから、第2のノードを備える、第2のグラフィックデータを受信することと、シーングラフを生成することとを含んでもよく、シーングラフは、第1のノードと第2のノードとの間の関係を表し、シーングラフは、コンピュータシステムのプロセッサによってトラバースされるとき、出力をレンダリングするように構成される。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムのプロセッサによって、シーングラフをトラバースすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、ディスプレイと通信するように構成されてもよく、方法はさらに、ディスプレイ上に出力を表示することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面を抜粋することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、コンピュータシステム上で実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、コンピュータシステム上で実行される第2のアプリケーションであってもよく、第1のクライアントアプリケーションは、第2のクライアントアプリケーションに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィックデータは、第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応してもよく、第2のグラフィックデータは、第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応してもよく、第1のクライアントシーングラフは、第2のクライアントシーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第1のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第2のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィックデータは、コンピュータシステムの第1の処理スレッドを使用して、シーングラフに通信されてもよく、第2のグラフィックデータは、第1の処理スレッドから独立しているコンピュータシステムの第2の処理スレッドを使用して、シーングラフに通信されてもよい。
いくつかの実施例では、方法が開示される。本方法は、ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、第1の3Dデータは、1つ以上のノードを備え、シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、第2の3Dデータは、1つ以上のノードを備え、第1のアプリケーションは、第2のアプリケーションに対してコンピュータシステム上でサンドボックス化され、シーングラフは、第1の3Dデータのノードと第2の3Dデータのノードとの間の関係を備える、ことと、ディスプレイ上で、シーングラフに対応する画像を表示することであって、画像は、シーングラフをトラバースすることの出力に対応し、画像は、関係を反映する、こととを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、関係は、空間関係であってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面を抜粋することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィックデータは、コンピュータシステム上で実行されるホストアプリケーションによってシーングラフに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィックデータは、ホストアプリケーションのクライアントによってホストアプリケーションに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応する第1のグラフィックデータは、第1の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよく、第2の3Dデータに対応する第2のグラフィックデータは、第1の処理スレッドから独立している第2の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよい。
いくつかの実施例では、コンピュータシステムが開示される。本システムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、上記に説明される方法のうちの1つ以上のものを実施させる、命令を記憶する、メモリとを備えてもよい。
いくつかの実施例では、非一過性のコンピュータ可読記憶媒体が開示される。非一過性のコンピュータ可読記憶媒体は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、コンピュータシステムの第1のクライアントアプリケーションから、第1のノードを備える、第1のグラフィックデータを受信することと、コンピュータシステムの第2のクライアントアプリケーションから、第2のノードを備える、第2のグラフィックデータを受信することと、シーングラフを生成することであって、シーングラフは、第1のノードと第2のノードとの間の関係を表し、シーングラフは、コンピュータシステムのプロセッサによってトラバースされるとき、出力をレンダリングするように構成される、こととを含む、方法を実施させる、命令を記憶してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムのプロセッサによって、シーングラフをトラバースすることを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、ディスプレイと通信するように構成されてもよく、方法はさらに、ディスプレイ上に出力を表示することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面を抜粋することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、コンピュータシステム上で実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、コンピュータシステム上で実行される第2のアプリケーションであってもよく、第1のクライアントアプリケーションは、第2のクライアントアプリケーションに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィックデータは、第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応してもよく、第2のグラフィックデータは、第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応してもよく、第1のクライアントシーングラフは、第2のクライアントシーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第1のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよく、第2のクライアントシーングラフは、シーングラフに対してコンピュータシステム上でサンドボックス化されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のグラフィックデータは、コンピュータシステムの第1の処理スレッドを使用して、シーングラフに通信されてもよく、第2のグラフィックデータは、第1の処理スレッドから独立しているコンピュータシステムの第2の処理スレッドを使用して、シーングラフに通信されてもよい。
いくつかの実施例では、非一過性のコンピュータ可読記憶媒体が開示される。非一過性のコンピュータ可読記憶媒体は、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、第1の3Dデータは、1つ以上のノードを備え、シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、第2の3Dデータは、1つ以上のノードを備え、第1のアプリケーションは、第2のアプリケーションに対してコンピュータシステム上でサンドボックス化され、シーングラフは、第1の3Dデータのノードと第2の3Dデータのノードとの間の関係を備える、ことと、ディスプレイ上で、シーングラフに対応する画像を表示することであって、画像は、シーングラフをトラバースすることの出力に対応し、画像は、関係を反映する、こととを含む、方法を実施させる、命令を記憶してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、関係は、空間関係であってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、最適化を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、最適化を適用することは、表面を抜粋することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、視覚効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、光量値を計算することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、視覚効果を適用することは、シェーダを実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、コンピュータシステムにおいて、物理的効果を、シーングラフをトラバースすることの出力に適用することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、物理的効果を適用することは、衝突を検出することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、シーングラフは、バージョン付きシーングラフのバージョンに対応してもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィックデータは、コンピュータシステム上で実行されるホストアプリケーションによってシーングラフに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応するグラフィックデータは、ホストアプリケーションのクライアントによってホストアプリケーションに通信されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1の3Dデータに対応する第1のグラフィックデータは、第1の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよく、第2の3Dデータに対応する第2のグラフィックデータは、第1の処理スレッドから独立している第2の処理スレッドを使用するホストアプリケーションによって、シーングラフに通信されてもよい。
いくつかの実施例では、コンピュータシステムが開示される。本システムは、1つ以上のプロセッサと、コンピュータシステムにおいて、第1のクライアントアプリケーションから第1のシーンデータを受信し、コンピュータシステムにおいて、第2のクライアントアプリケーションから第2のシーンデータを受信するように構成される、記憶装置と、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、第1のシーンデータおよび第2のシーンデータに基づいて、グラフィックデータ構造を生成することであって、グラフィックデータ構造は、1つ以上のプロセッサによって実行されるレンダリング動作への入力として提供されるときに、ディスプレイ上の画像に対応する出力をもたらすように構成される、ことを含む、方法を実施させる、命令を記憶する、メモリとを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィックデータ構造は、表示リストおよび表示ツリーのうちの少なくとも1つであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、入力としてグラフィックデータ構造を使用して、レンダリング動作を実行することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、ディスプレイを備えてもよく、本方法はさらに、ディスプレイ上に画像を表示することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第2のアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであってもよく、第2のクライアントアプリケーションは、第2のデバイスの1つ以上のプロセッサによって実行される第2のアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第3のクライアントアプリケーションから第3のシーンデータを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、記憶装置から第1のシーンデータを削除することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィックデータ構造は、第1のデータと、第2のデータとを備えてもよく、本方法はさらに、第1のデータが遮蔽ビューに対応するかまたは未遮蔽ビューに対応するかを決定することと、第1のデータが未遮蔽ビューに対応するという決定に応答して、第1のデータに基づいて、未遮蔽ビューを備える画像をレンダリングすることと、第1のデータが遮蔽ビューに対応するという決定に応答して、遮蔽ビューを備えない画像をレンダリングすることとを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第1のシーンデータを受信することに応答して、第1のシーンデータを第1のバージョンとしてバージョン制御システムの中に記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置はさらに、第1のクライアントアプリケーションから第3のシーンデータを受信し、第3のシーンデータを第2のバージョンとしてバージョン制御システムの中に記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法はさらに、グラフィックデータ構造を生成することに応答して、記憶装置から第1のバージョンを除去することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、本方法は、記憶装置が第3のシーンデータを受信することと並行して実施されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置は、第2のシーンデータを受信することと並行して第1のシーンデータを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、記憶装置は、第1のデータレートに対応する第1の間隔で第3のシーンデータを受信するように構成されてもよく、本方法はさらに、第2のデータレートに対応するように第1の間隔の長さを調節することを含んでもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のシーンデータは、新しいデータ、削除されたデータ、およびデータ間の関係の変化のうちの少なくとも1つを備えてもよい。
いくつかの実施例では、コンピュータシステムが開示される。コンピュータシステムは、サーバと、サーバデータと、第1のクライアントアプリケーションと、第2のクライアントアプリケーションとを備えてもよく、サーバにおいて、第1のクライアントアプリケーションから第1の未処理シーンデータを受信し、サーバにおいて、第2のクライアントアプリケーションから第2の未処理シーンデータを受信し、サーバにおいて、第1のクライアントアプリケーションからの第1の未処理シーンデータ、第2のクライアントアプリケーションからの第2の未処理シーンデータ、およびサーバデータを、集中シーンデータ構造に組み込み、サーバにおいて、集中シーンデータ構造内に含有されるデータの少なくとも一部を実行し、集中シーンデータ構造内で実行されたデータに基づいて、グラフィックデータ構造を作成するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、グラフィックデータ構造は、表示リストまたは表示ツリーであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、グラフィックデータ構造を処理画像にレンダリングするように構成される、レンダリングエンジンを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムはさらに、処理画像を表示するように構成されるディスプレイを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、ディスプレイは、物理的世界の少なくとも部分ビューを維持しながら、仮想コンテンツを表示することが可能であり得る。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションおよび第2のクライアントアプリケーションは、単一の物理的デバイス上で起動する、2つの異なるアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1のクライアントアプリケーションおよび第2のクライアントアプリケーションは、別個の物理的デバイス上でそれぞれ起動する、2つの異なるアプリケーションであってもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第3のクライアントアプリケーションから第3の未処理シーンデータを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの未処理シーンデータの実行後に、第1のクライアントアプリケーションから未処理シーンデータを削除するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、レンダリングエンジンはさらに、遮蔽モジュールであって、グラフィックデータ構造内のデータを第1の遮蔽カテゴリおよび第2の非遮蔽カテゴリに分離し、第2の非遮蔽カテゴリを表示するように構成される、遮蔽モジュールを備えてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの第1の未処理シーンデータを第1のバージョンとして記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションからの第3の未処理シーンデータを第2のバージョンとして記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、コンピュータシステムは、第1のクライアントアプリケーションからの第1の未処理シーンデータの第1のバージョンがサーバによって受信される時間から、第1のクライアントアプリケーションからの第1の未処理シーンデータが読み取られ、実行される時間まで、第1のクライアントアプリケーションからの第1の未処理シーンデータの第1のバージョンを記憶するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、サーバが第2のクライアントから第2の未処理シーンデータを受信するのと同時に、第1のクライアントから第1の未処理シーンデータを受信するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、サーバは、第1のクライアントアプリケーションが未処理シーンデータをサーバに送信するレートを減速するように構成されてもよい。上記の実施例のうちの1つ以上のものに加えて、またはその代替として、第1および第2のクライアントアプリケーションから受信されるデータは、新しいデータ、削除されたデータ、前もって転送されたデータ間の関係の変化、および修正されたデータから成る群から選択される少なくとも1つであってもよい。
開示される実施例は、付随する図面を参照して完全に説明されているが、種々の変更および修正が当業者により明白でとなるであろうことに留意されたい。例えば、1つ以上の実装の要素が、さらなる実装を形成するように組み合わせられる、削除される、修正される、または補完されてもよい。そのような変更および修正は、添付の請求項によって定義されるような開示される実施例の範囲内に含まれると理解されるものである。

Claims (68)

  1. 方法であって、
    コンピュータシステムの第1のクライアントアプリケーションから、第1のノードを備える第1のグラフィックデータを受信することと、
    第1のシステムにおいて、第1のデータレートで、前記コンピュータシステムの第1のクライアントアプリケーションから、更新された第1のグラフィックデータを受信することと、
    前記コンピュータシステムの第2のクライアントアプリケーションから、第2のノードを備える第2のグラフィックデータを受信することと、
    前記第1のシステムにおいて、第2のデータレートで、前記コンピュータシステムの第2のクライアントアプリケーションから、更新された第2のグラフィックデータを受信することであって、前記第2のデータレートは、前記第1のデータレートと異なる、ことと、
    前記第2のデータレートが過剰に高いという決定に応答して、前記第2のデータレートより低い第3のデータレートで前記第2のグラフィックデータを更新することと、
    シーングラフを生成することと
    を含み、
    前記シーングラフは、前記第1および第2のクライアントアプリケーションに関して同期化され、
    前記シーングラフは、前記第1のノードと前記第2のノードとの間の関係を表し、
    前記シーングラフを生成することは、
    前記第3のデータレートに従って、前記更新された第1のグラフィックデータに基づいて、前記シーングラフの第1のバージョンを更新することと、
    前記第3のデータレートに従って前記更新された第2のグラフィックデータに基づいて、前記第1のバージョンと同時に、前記シーングラフの第2のバージョンを更新することと、
    前記更新された第1のバージョンおよび前記更新された第2のバージョンに基づいて、前記シーングラフを生成することと
    を含み、
    前記シーングラフは、前記コンピュータシステムのプロセッサによってトラバースされるとき、出力をレンダリングするように構成される、方法。
  2. 前記コンピュータシステムのプロセッサによって、前記シーングラフをトラバースすることをさらに含む、請求項1に記載の方法。
  3. 前記コンピュータシステムは、ディスプレイと通信するように構成され、前記方法はさらに、前記ディスプレイ上に前記出力を表示することを含む、請求項2に記載の方法。
  4. 前記コンピュータシステムにおいて、最適化を前記出力に適用することをさらに含む、請求項2に記載の方法。
  5. 前記最適化を適用することは、表面を抜粋することを含む、請求項4に記載の方法。
  6. 前記コンピュータシステムにおいて、視覚効果を前記出力に適用することをさらに含む、請求項2に記載の方法。
  7. 前記視覚効果を適用することは、光量値を計算することを含む、請求項6に記載の方法。
  8. 前記視覚効果を適用することは、シェーダを実行することを含む、請求項6に記載の方法。
  9. 前記コンピュータシステムにおいて、物理的効果を前記出力に適用することをさらに含む、請求項2に記載の方法。
  10. 前記物理的効果を適用することは、衝突を検出することを含む、請求項9に記載の方法。
  11. 前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、請求項1に記載の方法。
  12. 前記第1のグラフィックデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
    前記第2のグラフィックデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
    前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
    前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
    前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、請求項1に記載の方法。
  13. 前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、請求項1に記載の方法。
  14. 前記第1のグラフィックデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィックデータは、前記第1の処理スレッドから独立している前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、請求項1に記載の方法。
  15. 方法であって、
    ディスプレイを伴うコンピュータシステムのシーングラフをトラバースすることであって、
    前記シーングラフは、第1のアプリケーションと関連付けられる第1の3Dデータを備え、前記第1の3Dデータは、1つ以上のノードを備え、
    前記シーングラフは、第2のアプリケーションと関連付けられる第2の3Dデータを備え、前記第2の3Dデータは、1つ以上のノードを備え、
    前記第1のアプリケーションは、前記第2のアプリケーションに対して前記コンピュータシステム上でサンドボックス化され、
    前記シーングラフは、前記第1および第2のアプリケーションに関して同期化され、
    前記シーングラフは、前記第1の3Dデータのノードと前記第2の3Dデータのノードとの間の関係を備える、ことと、
    前記ディスプレイ上で、前記シーングラフに対応する画像を表示することであって、
    前記画像は、前記シーングラフをトラバースすることの出力に対応し、
    前記画像は、前記関係を反映し、
    前記第1の3Dデータは、前記コンピュータシステムの第1のアプリケーションから第1のシステムにおいて第1のデータレートで受信された更新された第1の3Dデータを含み、
    前記第2の3Dデータは、前記コンピュータシステムの第2のアプリケーションから前記第1のシステムにおいて第2のデータレートで受信された更新された第2の3Dデータを含み、前記第2のデータレートは、前記第1のデータレートと異なり、
    前記更新された第2の3Dデータは、前記第2のデータレートが過剰に高いという決定に応答して、前記第2のデータレートより低い第3のデータレートで更新されたデータを含み、
    前記シーングラフの第1のバージョンは、前記第3のデータレートに従って、前記更新された第1の3Dデータに基づいて、更新され、
    前記シーングラフの第2のバージョンは、前記第3のデータレートに従って前記更新された第2の3Dデータに基づいて、前記シーングラフの第1のバージョンと同時に、更新され、
    前記シーングラフは、前記更新された第1のバージョンおよび前記更新された第2のバージョンに基づいて生成される、ことと
    を含む、方法。
  16. 前記関係は、空間関係である、請求項15に記載の方法。
  17. 前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に最適化を適用することをさらに含む、請求項15に記載の方法。
  18. 前記最適化を適用することは、表面を抜粋することを含む、請求項17に記載の方法。
  19. 前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に視覚効果を適用することをさらに含む、請求項15に記載の方法。
  20. 前記視覚効果を適用することは、光量値を計算することを含む、請求項19に記載の方法。
  21. 前記視覚効果を適用することは、シェーダを実行することを含む、請求項19に記載の方法。
  22. 前記コンピュータシステムにおいて、前記シーングラフをトラバースすることの前記出力に物理的効果を適用することをさらに含む、請求項15に記載の方法。
  23. 前記物理的効果を適用することは、衝突を検出することを含む、請求項22に記載の方法。
  24. 前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、請求項15に記載の方法。
  25. 前記第1の3Dデータに対応するグラフィックデータは、前記コンピュータシステム上で実行されるホストアプリケーションによって前記シーングラフに通信される、請求項15に記載の方法。
  26. 前記第1の3Dデータに対応するグラフィックデータは、前記ホストアプリケーションのクライアントによって前記ホストアプリケーションに通信される、請求項25に記載の方法。
  27. コンピュータシステムであって、
    1つ以上のプロセッサと、
    命令を記憶するメモリであって、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    前記コンピュータシステムにおいて、第1のクライアントアプリケーションから、第1のノードを備える第1のグラフィックデータを受信することと、
    前記コンピュータシステムにおいて、第1のデータレートで、前記コンピュータシステムの第1のクライアントアプリケーションから、更新された第1のグラフィックデータを受信することと、
    前記コンピュータシステムにおいて、前記第1のクライアントアプリケーションと異なる第2のクライアントアプリケーションから、第2のノードを備える第2のグラフィックデータを受信することと、
    前記コンピュータシステムにおいて、第2のデータレートで、前記コンピュータシステムの第2のクライアントアプリケーションから、更新された第2のグラフィックデータを受信することであって、前記第2のデータレートは、前記第1のデータレートと異なる、ことと、
    前記第2のデータレートが過剰に高いという決定に応答して、前記第2のデータレートより低い第3のデータレートで前記第2のグラフィックデータを更新することと、
    前記コンピュータシステムにおいて、シーングラフを生成することであって、
    前記シーングラフは、前記第1および第2のクライアントアプリケーションに関して同期化され、
    前記シーングラフは、前記第1のノードと前記第2のノードとの間の階層関係を表し、
    前記シーングラフを生成することは、
    前記第3のデータレートに従って、前記更新された第1のグラフィックデータに基づいて、前記シーングラフの第1のバージョンを更新することと、
    前記第3のデータレートに従って前記更新された第2のグラフィックデータに基づいて、前記第1のバージョンと同時に、前記シーングラフの第2のバージョンを更新することと、
    前記更新された第1のバージョンおよび前記更新された第2のバージョンに基づいて、前記シーングラフを生成することと
    を含み、
    前記シーングラフは、前記1つ以上のプロセッサによってトラバースされるとき、出力をレンダリングするように構成される、ことと
    を含む方法を実施させる、メモリと
    を備える、コンピュータシステム。
  28. 前記方法はさらに、前記シーングラフをトラバースすることを含む、請求項27に記載のコンピュータシステム。
  29. 前記コンピュータシステムはさらに、ディスプレイを備え、前記方法はさらに、前記ディスプレイ上に画像を表示することを含む、請求項28に記載のコンピュータシステム。
  30. 前記方法はさらに、前記シーングラフをトラバースすることの前記出力に最適化を適用することを含む、請求項28に記載のコンピュータシステム。
  31. 前記最適化を適用することは、表面を抜粋することを含む、請求項30に記載のコンピュータシステム。
  32. 前記方法はさらに、前記シーングラフをトラバースすることの前記出力に視覚効果を適用することを含む、請求項28に記載のコンピュータシステム。
  33. 前記視覚効果を適用することは、光量値を計算することを含む、請求項32に記載のコンピュータシステム。
  34. 前記視覚効果を適用することは、シェーダを実行することを含む、請求項32に記載のコンピュータシステム。
  35. 前記方法はさらに、前記シーングラフをトラバースすることの前記出力に物理的効果を適用することを含む、請求項28に記載のコンピュータシステム。
  36. 前記物理的効果を適用することは、衝突を検出することを含む、請求項35に記載のコンピュータシステム。
  37. 前記第1のクライアントアプリケーションは、前記コンピュータシステム上で実行される第1のアプリケーションであり、前記第2のクライアントアプリケーションは、前記コンピュータシステム上で実行される第2のアプリケーションであり、前記第1のクライアントアプリケーションは、前記第2のクライアントアプリケーションに対して前記コンピュータシステム上でサンドボックス化される、請求項27に記載のコンピュータシステム。
  38. 前記第1のグラフィックデータは、前記第1のクライアントアプリケーションと関連付けられる第1のクライアントシーングラフに対応し、
    前記第2のグラフィックデータは、前記第2のクライアントアプリケーションと関連付けられる第2のクライアントシーングラフに対応し、
    前記第1のクライアントシーングラフは、前記第2のクライアントシーングラフに対して前記コンピュータシステム上でサンドボックス化され、
    前記第1のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化され、
    前記第2のクライアントシーングラフは、前記シーングラフに対して前記コンピュータシステム上でサンドボックス化される、請求項27に記載のコンピュータシステム。
  39. 前記シーングラフは、バージョン付きシーングラフのバージョンに対応する、請求項27に記載のコンピュータシステム。
  40. 前記第1のグラフィックデータは、前記コンピュータシステムの第1の処理スレッドを使用して、前記シーングラフに通信され、前記第2のグラフィックデータは、前記第1の処理スレッドから独立している前記コンピュータシステムの第2の処理スレッドを使用して、前記シーングラフに通信される、請求項27に記載のコンピュータシステム。
  41. コンピュータシステムであって、
    1つ以上のプロセッサと、
    記憶装置であって、
    前記コンピュータシステムにおいて、第1のクライアントアプリケーションから第1のシーンデータを受信することと、
    前記コンピュータシステムにおいて、第1のデータレートで、前記コンピュータシステムの第1のクライアントアプリケーションから、更新された第1のシーンデータを受信することと、
    前記コンピュータシステムにおいて、第2のクライアントアプリケーションから第2のシーンデータを受信することと
    前記コンピュータシステムにおいて、第2のデータレートで、前記コンピュータシステムの第2のクライアントアプリケーションから、更新された第2のシーンデータを受信することであって、前記第2のデータレートは、前記第1のデータレートと異なる、ことと、
    前記第2のデータレートが過剰に高いという決定に応答して、前記第2のデータレートより低い第3のデータレートで前記第2のシーンデータを更新することと
    を行うように構成される、記憶装置と、
    命令を記憶するメモリであって、前記命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
    前記更新された第1のシーンデータおよび前記更新された第2のシーンデータに基づいて、グラフィックデータ構造を生成することであって、前記グラフィックデータ構造は、前記1つ以上のプロセッサによって実行されるレンダリング動作への入力として提供されるときに、ディスプレイ上の画像に対応する出力をもたらすように構成される、こと
    を含む方法を実施させ
    前記グラフィックデータ構造を生成することは、
    前記第3のデータレートに従って、前記更新された第1のシーンデータに基づいて、前記グラフィックデータ構造の第1のバージョンを更新することと、
    前記第3のデータレートに従って前記更新された第2のシーンデータに基づいて、前記第1のバージョンと同時に、前記グラフィックデータ構造の第2のバージョンを更新することと、
    前記更新された第1のバージョンおよび前記更新された第2のバージョンに基づいて、前記グラフィックデータ構造を生成することと
    をさらに含み、
    前記グラフィックデータ構造は、前記第1および第2のクライアントアプリケーションに関して同期化される、メモリと
    を備える、コンピュータシステム。
  42. 前記グラフィックデータ構造は、表示リストおよび表示ツリーのうちの少なくとも1つである、請求項41に記載のコンピュータシステム。
  43. 前記方法はさらに、入力として前記グラフィックデータ構造を使用して、前記レンダリング動作を実行することを含む、請求項41に記載のコンピュータシステム。
  44. 前記コンピュータシステムはさらに、ディスプレイを備え、前記方法はさらに、前記ディスプレイ上に前記画像を表示することを含む、請求項43に記載のコンピュータシステム。
  45. 前記第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであり、
    前記第2のクライアントアプリケーションは、前記第1のデバイスの前記1つ以上のプロセッサによって実行される第2のアプリケーションである、請求項41に記載のコンピュータシステム。
  46. 前記第1のクライアントアプリケーションは、第1のデバイスの1つ以上のプロセッサによって実行される第1のアプリケーションであり、
    前記第2のクライアントアプリケーションは、第2のデバイスの1つ以上のプロセッサによって実行される第2のアプリケーションである、請求項41に記載のコンピュータシステム。
  47. 前記記憶装置はさらに、第3のクライアントアプリケーションから第3のシーンデータを受信するように構成される、請求項41に記載のコンピュータシステム。
  48. 前記方法はさらに、前記記憶装置から前記第1のシーンデータを削除することを含む、請求項41に記載のコンピュータシステム。
  49. 前記グラフィックデータ構造は、第1のデータと、第2のデータとを備え、前記方法はさらに、
    前記第1のデータが遮蔽ビューに対応するかまたは未遮蔽ビューに対応するかを決定することと、
    前記第1のデータが未遮蔽ビューに対応するという決定に応答して、前記第1のデータに基づいて、前記未遮蔽ビューを備える画像をレンダリングすることと、
    前記第1のデータが遮蔽ビューに対応するという決定に応答して、前記遮蔽ビューを備えない画像をレンダリングすることと
    を含む、請求項41に記載のコンピュータシステム。
  50. 前記記憶装置はさらに、前記第1のシーンデータを受信することに応答して、前記第1のシーンデータを第1のバージョンとしてバージョン制御システムの中に記憶するように構成される、請求項41に記載のコンピュータシステム。
  51. 前記記憶装置はさらに、
    前記第1のクライアントアプリケーションから第3のシーンデータを受信することと、
    前記第3のシーンデータを第2のバージョンとして前記バージョン制御システムの中に記憶することと
    を行うように構成される、請求項50に記載のコンピュータシステム。
  52. 前記方法はさらに、前記グラフィックデータ構造を生成することに応答して、前記記憶装置から前記第1のバージョンを除去することを含む、請求項50に記載のコンピュータシステム。
  53. 前記方法は、前記記憶装置が前記第3のシーンデータを受信することと並行して実施される、請求項47に記載のコンピュータシステム。
  54. 前記記憶装置は、前記第2のシーンデータを受信することと並行して前記第1のシーンデータを受信するように構成される、請求項41に記載のコンピュータシステム。
  55. コンピュータシステムであって、前記コンピュータシステムは、サーバと、サーバデータと、第1のクライアントアプリケーションと、第2のクライアントアプリケーションとを備え、前記コンピュータシステムは、
    前記サーバにおいて、前記第1のクライアントアプリケーションから第1の未処理シーンデータを受信することと、
    前記サーバにおいて、第1のデータレートで、前記第1のクライアントアプリケーションから、更新された第1の未処理シーンデータを受信することと、
    前記サーバにおいて、前記第2のクライアントアプリケーションから第2の未処理シーンデータを受信することと、
    前記サーバにおいて、第2のデータレートで、前記第2のクライアントアプリケーションから、更新された第2の未処理シーンデータを受信することであって、前記第2のデータレートは、前記第1のデータレートと異なる、ことと、
    前記第2のデータレートが過剰に高いという決定に応答して、前記第2のデータレートより低い第3のデータレートで前記第2の未処理シーンデータを更新することと、
    前記サーバにおいて、前記第1のクライアントアプリケーションからの前記更新された第1の未処理シーンデータ、前記第3のデータレートに従って更新された前記第2のクライアントアプリケーションからの前記更新された第2の未処理シーンデータ、および前記サーバデータを、集中シーンデータ構造に組み込むことであって、前記集中シーンデータ構造は、前記第1および第2のクライアントアプリケーションに関して同期化される、ことと、
    前記サーバにおいて、前記集中シーンデータ構造内に含有される前記データの少なくとも一部を実行することと、
    前記集中シーンデータ構造内で実行された前記データに基づいて、グラフィックデータ構造を作成することと
    を行うように構成され
    前記グラフィックデータ構造を作成することは、
    前記第3のデータレートに従って、前記更新された第1の未処理シーンデータに基づいて、前記グラフィックデータ構造の第1のバージョンを更新することと、
    前記第3のデータレートに従って前記更新された第2の未処理シーンデータに基づいて、前記第1のバージョンと同時に、前記グラフィックデータ構造の第2のバージョンを更新することと、
    前記更新された第1のバージョンおよび前記更新された第2のバージョンに基づいて、前記グラフィックデータ構造を生成することと
    をさらに含む、コンピュータシステム。
  56. 前記グラフィックデータ構造は、表示リストまたは表示ツリーである、請求項55に記載のコンピュータシステム。
  57. 前記グラフィックデータ構造を処理画像にレンダリングするように構成されるレンダリングエンジンをさらに備える、請求項55に記載のコンピュータシステム。
  58. 前記処理画像を表示するように構成されるディスプレイをさらに備える、請求項57に記載のコンピュータシステム。
  59. 前記ディスプレイは、物理的世界の少なくとも部分ビューを維持しながら、仮想コンテンツを表示することが可能である、請求項58に記載のコンピュータシステム。
  60. 前記第1のクライアントアプリケーションおよび前記第2のクライアントアプリケーションは、単一の物理的デバイス上で起動する2つの異なるアプリケーションである、請求項55に記載のコンピュータシステム。
  61. 前記第1のクライアントアプリケーションおよび前記第2のクライアントアプリケーションは、別個の物理的デバイス上でそれぞれ起動する2つの異なるアプリケーションである、請求項55に記載のコンピュータシステム。
  62. 前記サーバは、第3のクライアントアプリケーションから第3の未処理シーンデータを受信するように構成される、請求項55に記載のコンピュータシステム。
  63. 前記サーバは、前記第1のクライアントアプリケーションからの前記未処理シーンデータの実行後に、前記第1のクライアントアプリケーションから前記未処理シーンデータを削除するように構成される、請求項55に記載のコンピュータシステム。
  64. 前記レンダリングエンジンはさらに、遮蔽モジュールを備え、前記遮蔽モジュールは、前記グラフィックデータ構造内のデータを第1の遮蔽カテゴリおよび第2の未遮蔽カテゴリに分離し、前記第2の未遮蔽カテゴリを表示するように構成される、請求項57に記載のコンピュータシステム。
  65. 前記サーバは、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータを第1のバージョンとして記憶するように構成される、請求項55に記載のコンピュータシステム。
  66. 前記サーバは、前記第1のクライアントアプリケーションからの第3の未処理シーンデータを第2のバージョンとして記憶するように構成される、請求項65に記載のコンピュータシステム。
  67. 前記コンピュータシステムは、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータの第1のバージョンが前記サーバによって受信される時間から、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータが読み取られ、実行される時間まで、前記第1のクライアントアプリケーションからの前記第1の未処理シーンデータの第1のバージョンを記憶するように構成される、請求項65に記載のコンピュータシステム。
  68. 前記サーバは、前記サーバが前記第2のクライアントから前記第2の未処理シーンデータを受信するのと同時に、前記第1のクライアントから前記第1の未処理シーンデータを受信するように構成される、請求項55に記載のコンピュータシステム。
JP2019553094A 2017-03-30 2018-03-29 集中レンダリング Active JP7168578B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762479134P 2017-03-30 2017-03-30
US62/479,134 2017-03-30
PCT/US2018/025298 WO2018183778A1 (en) 2017-03-30 2018-03-29 Centralized rendering

Publications (2)

Publication Number Publication Date
JP2020515967A JP2020515967A (ja) 2020-05-28
JP7168578B2 true JP7168578B2 (ja) 2022-11-09

Family

ID=63671060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553094A Active JP7168578B2 (ja) 2017-03-30 2018-03-29 集中レンダリング

Country Status (9)

Country Link
US (2) US11017592B2 (ja)
EP (1) EP3602495A4 (ja)
JP (1) JP7168578B2 (ja)
KR (2) KR20240036150A (ja)
CN (1) CN110476188B (ja)
AU (1) AU2018243460B2 (ja)
CA (1) CA3058421A1 (ja)
IL (2) IL269545B2 (ja)
WO (1) WO2018183778A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017592B2 (en) 2017-03-30 2021-05-25 Magic Leap, Inc. Centralized rendering
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
CN112513969A (zh) * 2018-06-18 2021-03-16 奇跃公司 集中式渲染
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
JP7445642B2 (ja) 2018-08-13 2024-03-07 マジック リープ, インコーポレイテッド クロスリアリティシステム
JP2022512600A (ja) 2018-10-05 2022-02-07 マジック リープ, インコーポレイテッド 任意の場所における場所特有の仮想コンテンツのレンダリング
WO2020190565A1 (en) * 2019-03-19 2020-09-24 Highwire Games Llc Dynamic 3d environment generation
US11132827B2 (en) * 2019-09-19 2021-09-28 Facebook Technologies, Llc Artificial reality system architecture for concurrent application execution and collaborative 3D scene rendering
CN114616534A (zh) 2019-10-15 2022-06-10 奇跃公司 具有无线指纹的交叉现实系统
CN114600064A (zh) 2019-10-15 2022-06-07 奇跃公司 具有定位服务的交叉现实系统
JP2023504775A (ja) 2019-11-12 2023-02-07 マジック リープ, インコーポレイテッド 位置特定サービスおよび共有場所ベースのコンテンツを伴うクロスリアリティシステム
EP4073763A4 (en) 2019-12-09 2023-12-27 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH SIMPLIFIED PROGRAMMING OF VIRTUAL CONTENT
US11410395B2 (en) 2020-02-13 2022-08-09 Magic Leap, Inc. Cross reality system with accurate shared maps
US11562525B2 (en) 2020-02-13 2023-01-24 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
WO2021163295A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
CN115461787A (zh) 2020-02-26 2022-12-09 奇跃公司 具有快速定位的交叉现实系统
WO2021222371A1 (en) 2020-04-29 2021-11-04 Magic Leap, Inc. Cross reality system for large scale environments
US11568610B2 (en) * 2020-05-12 2023-01-31 Magic Leap, Inc. Privacy preserving expression generation for augmented or virtual reality client applications
US20220134222A1 (en) * 2020-11-03 2022-05-05 Nvidia Corporation Delta propagation in cloud-centric platforms for collaboration and connectivity
US11935149B2 (en) 2020-11-13 2024-03-19 Samsung Electronics Co., Ltd Electronic device and image rendering method thereof for adjusting frame rate
WO2022103225A1 (ko) * 2020-11-13 2022-05-19 삼성전자 주식회사 전자 장치 및 전자 장치의 이미지 렌더링 방법
CN114283245B (zh) * 2022-03-04 2022-06-14 中科计算技术创新研究院 基于三维模型层次化隐式场的渲染方法
CN117785343A (zh) * 2022-09-22 2024-03-29 华为终端有限公司 界面生成方法及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228721A (ja) 2001-10-18 2003-08-15 Microsoft Corp イミーディエイトモードグラフィックスのためのインテリジェントキャッシングデータ構造
JP2004272928A (ja) 1998-08-20 2004-09-30 Apple Computer Inc 進歩したディファード・シェーディング・グラフィクス・パイプライン・プロセッサ
JP2012503811A (ja) 2008-09-24 2012-02-09 ザ・ベイカリー 複雑な3次元シーンのレンダリングまたはインターラクティブライティングをするための方法およびシステム
JP2015069638A (ja) 2013-09-30 2015-04-13 アップリフィエル オーユーApplifier Oy グラフィカル画像データを取り込むソフトウェア開発キット

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130670A (en) 1997-02-20 2000-10-10 Netscape Communications Corporation Method and apparatus for providing simple generalized conservative visibility
US6456285B2 (en) 1998-05-06 2002-09-24 Microsoft Corporation Occlusion culling for complex transparent scenes in computer generated graphics
US7050955B1 (en) 1999-10-01 2006-05-23 Immersion Corporation System, method and data structure for simulated interaction with graphical objects
AU2002245076A1 (en) * 2000-12-06 2002-07-16 Sun Microsystems, Inc. Using ancillary geometry for visibility determination
US7443401B2 (en) * 2001-10-18 2008-10-28 Microsoft Corporation Multiple-level graphics processing with animation interval generation
US7088374B2 (en) * 2003-03-27 2006-08-08 Microsoft Corporation System and method for managing visual structure, timing, and animation in a graphics processing system
US7290216B1 (en) * 2004-01-22 2007-10-30 Sun Microsystems, Inc. Method and apparatus for implementing a scene-graph-aware user interface manager
US7800614B2 (en) * 2004-02-17 2010-09-21 Oracle America, Inc. Efficient communication in a client-server scene graph system
US7450130B2 (en) * 2005-09-14 2008-11-11 Microsoft Corporation Adaptive scheduling to maintain smooth frame rate
US8275031B2 (en) * 2005-12-15 2012-09-25 Broadcom Corporation System and method for analyzing multiple display data rates in a video system
US8244051B2 (en) * 2006-03-15 2012-08-14 Microsoft Corporation Efficient encoding of alternative graphic sets
US7911950B2 (en) * 2006-07-03 2011-03-22 Cisco Technology, Inc. Adapter and method to support long distances on existing fiber
US20080122838A1 (en) 2006-09-27 2008-05-29 Russell Dean Hoover Methods and Systems for Referencing a Primitive Located in a Spatial Index and in a Scene Index
US20090278852A1 (en) * 2008-05-09 2009-11-12 Production Resource Group L.L.C Control of 3D objects in a light displaying device
US8368705B2 (en) 2008-07-16 2013-02-05 Google Inc. Web-based graphics rendering system
US8253730B1 (en) 2008-08-29 2012-08-28 Adobe Systems Incorporated System and method for construction of data structures for ray tracing using bounding hierarchies
US9270783B2 (en) * 2008-12-06 2016-02-23 International Business Machines Corporation System and method for photorealistic imaging workload distribution
FR2974474B1 (fr) 2011-04-19 2017-11-17 Prologue Procedes et appareils de production et de traitement de representations de scenes multimedias
US20130127849A1 (en) 2011-05-26 2013-05-23 Sebastian Marketsmueller Common Rendering Framework and Common Event Model for Video, 2D, and 3D Content
US20150199788A1 (en) * 2012-04-12 2015-07-16 Google Inc. Accelerating graphical rendering through legacy graphics compilation
US9069554B2 (en) * 2012-09-24 2015-06-30 Qualcomm Innovation Center, Inc. Systems and methods to coordinate resource usage in tightly sandboxed environments
US9075618B2 (en) * 2012-11-02 2015-07-07 Microsoft Technology Licensing, Llc Cross-platform data visualizations using common descriptions
US9717982B2 (en) * 2012-12-21 2017-08-01 Microsoft Technology Licensing, Llc Client rendering of latency sensitive game features
US9811936B2 (en) * 2013-03-15 2017-11-07 Dreamworks Animation L.L.C. Level-based data sharing for digital content production
US9230294B2 (en) 2013-03-15 2016-01-05 Dreamworks Animation Llc Preserving and reusing intermediate data
EP2793127B1 (en) * 2013-04-19 2021-11-17 Huawei Technologies Co., Ltd. Method for displaying a 3D scene graph on a screen
US11570114B2 (en) * 2014-03-04 2023-01-31 Mobophiles, Inc. System and method of adaptive rate control and traffic management
AU2014403813A1 (en) * 2014-08-20 2017-02-02 Landmark Graphics Corporation Optimizing computer hardware resource utilization when processing variable precision data
KR102244619B1 (ko) 2014-09-30 2021-04-26 삼성전자 주식회사 가속 구조를 생성 및 탐색하는 방법
US10062354B2 (en) 2014-10-10 2018-08-28 DimensionalMechanics, Inc. System and methods for creating virtual environments
EP3104271A1 (en) * 2015-06-08 2016-12-14 Hans-Henry Sandbaek Running remote java applications through a local, plugin-free web browser
US10417803B2 (en) 2016-06-17 2019-09-17 The Boeing Company Multiple-pass rendering of a digital three-dimensional model of a structure
US20180114368A1 (en) * 2016-10-25 2018-04-26 Adobe Systems Incorporated Three-dimensional model manipulation and rendering
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
US11017592B2 (en) 2017-03-30 2021-05-25 Magic Leap, Inc. Centralized rendering

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004272928A (ja) 1998-08-20 2004-09-30 Apple Computer Inc 進歩したディファード・シェーディング・グラフィクス・パイプライン・プロセッサ
JP2003228721A (ja) 2001-10-18 2003-08-15 Microsoft Corp イミーディエイトモードグラフィックスのためのインテリジェントキャッシングデータ構造
JP2012503811A (ja) 2008-09-24 2012-02-09 ザ・ベイカリー 複雑な3次元シーンのレンダリングまたはインターラクティブライティングをするための方法およびシステム
JP2015069638A (ja) 2013-09-30 2015-04-13 アップリフィエル オーユーApplifier Oy グラフィカル画像データを取り込むソフトウェア開発キット

Also Published As

Publication number Publication date
US20210312708A1 (en) 2021-10-07
US11017592B2 (en) 2021-05-25
JP2020515967A (ja) 2020-05-28
KR20240036150A (ko) 2024-03-19
AU2018243460A1 (en) 2019-10-17
IL303169A (en) 2023-07-01
EP3602495A1 (en) 2020-02-05
IL269545B1 (en) 2023-06-01
IL269545A (en) 2019-11-28
IL303169B1 (en) 2024-04-01
US11315316B2 (en) 2022-04-26
CA3058421A1 (en) 2018-10-04
AU2018243460B2 (en) 2023-01-05
US20180286116A1 (en) 2018-10-04
IL269545B2 (en) 2023-10-01
CN110476188A (zh) 2019-11-19
EP3602495A4 (en) 2020-12-16
CN110476188B (zh) 2024-03-22
WO2018183778A1 (en) 2018-10-04
KR20190134694A (ko) 2019-12-04
KR102648256B1 (ko) 2024-03-14

Similar Documents

Publication Publication Date Title
JP7168578B2 (ja) 集中レンダリング
US11936733B2 (en) Application sharing
US11178376B1 (en) Metering for display modes in artificial reality
US11295518B2 (en) Centralized rendering
US11829529B2 (en) Look to pin on an artificial reality device
JP7411585B2 (ja) 一元化レンダリング
US11947862B1 (en) Streaming native application content to artificial reality devices
US20230419618A1 (en) Virtual Personal Interface for Control and Travel Between Virtual Worlds

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7168578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150