JP2013536502A - マルチスケール3次元配向 - Google Patents

マルチスケール3次元配向 Download PDF

Info

Publication number
JP2013536502A
JP2013536502A JP2013522014A JP2013522014A JP2013536502A JP 2013536502 A JP2013536502 A JP 2013536502A JP 2013522014 A JP2013522014 A JP 2013522014A JP 2013522014 A JP2013522014 A JP 2013522014A JP 2013536502 A JP2013536502 A JP 2013536502A
Authority
JP
Japan
Prior art keywords
environment
indicator
visible portion
objects
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013522014A
Other languages
English (en)
Other versions
JP5592011B2 (ja
Inventor
トヴィ グロスマン,
アザム カーン,
マイケル グリュック,
ジェームス マクレー,
Original Assignee
オートデスク,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オートデスク,インコーポレイテッド filed Critical オートデスク,インコーポレイテッド
Publication of JP2013536502A publication Critical patent/JP2013536502A/ja
Application granted granted Critical
Publication of JP5592011B2 publication Critical patent/JP5592011B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Abstract

マルチスケールデータエンジンは、マルチスケール3Dデータセットに基づいて、3次元(3D)環境を生成するように構成される。マルチスケールデータエンジンはまた、3D環境内の3Dオブジェクトを選択的にグループ化することによって、3D環境内の空間的階層を生成するようにも構成される。マルチスケールデータエンジンは、3D環境内の特定の3Dオブジェクトを、エンドユーザから受け取られた入力に応答して、且つ、それらの3Dオブジェクトに関連付けられた空間特性に基づいて、識別するようにさらに構成される。マルチスケールデータエンジンはまた、エンドユーザが3D環境をナビゲートできるようにする、様々なナビゲーショングラフィカルユーザインタフェース(GUI)を生成するようにも構成される。
【選択図】 図4

Description

関連出願の相互参照
[0001]本出願は、2010年7月30日に出願した米国特許仮出願第61/369635号、及び、2011年7月28日に出願した米国特許出願第13/193531号の権利を主張する。これらの出願の各々は、参照により本明細書に組み込まれる。
発明の背景
発明の分野
[0002]本発明は、コンピュータアニメーションの分野に関し、特に、マルチスケール3次元(3D)配向に関する。
関連技術の説明
[0003]3Dコンピュータグラフィックス及び対話のより最近の研究は、単一のオブジェクトオーサリング及び検査の狭い領域を越えて進んでおり、複雑なマルチスケールオブジェクト及び環境を検討し始めている。設計空間のモデリング及び理解のための従来のコンピュータグラフィックス手法は、よく理解されているが、これらの新しい、より複雑なグラフィックス環境に対して、やや制限されることが判明している。これらの新しいグラフィックス環境内で適切に、且つ、より効率的に作業するためには、設計空間のより豊かな理解が必要とされる。
[0004]上記が示すように、当技術分野において、複雑なマルチスケール3D環境を理解し、その環境と対話するための、改善された技術が必要である。
[0005]本発明の一実施形態は、マルチスケール3Dデータセットに関連付けられた3次元(3D)環境をナビゲートするためのナビゲーショングラフィカルユーザインタフェース(GUI)を生成するためのコンピュータ実装方法を含む。この方法は、3D環境内の現在位置を受け取るステップであって、3D環境の可視部分が、現在位置の視点からの表示のためにレンダリングされる、ステップと、3D環境の不可視部分内に存在する3Dオブジェクトを識別するステップと、オブジェクトインジケータを3D環境の可視部分内に表示させるステップであって、オブジェクトインジケータが、3D環境の不可視部分内の3Dオブジェクトの位置を、現在位置に対して示す向きを有する、ステップとを含む。
[0006]エンドユーザには、幅広い種類の異なるスケールで観測可能な特性を含む、複雑な3D環境と対話するための、様々な方法が提供されるので、有利である。そのような手法は、そのような3D環境の各別個のスケールに関連付けられる、視覚的に没入できる詳細でユーザを引き付けるためには、非常に重要である。
[0007]本発明の上記の特徴が詳細に理解されうるように、上記で簡単にまとめた本発明のより詳細な説明は、実施形態を参照することによって行われうるものであり、実施形態の一部が添付の図面に示される。しかし、添付の図面は、本発明の典型的な実施形態のみを示し、したがって、その範囲を限定するものとして見なされるべきでなく、その理由は、本発明が他の等しく有効な実施形態を認めることができるためであることに留意されたい。
[0008] 本発明の1つ又は複数の態様を実装するように構成されたシステムのブロック図である。 [0009] 本発明の一実施形態による、図1Aのシステムメモリのより詳細な例示の図である。 [0010] 本発明の一実施形態による、3Dシーン内に存在する様々な要素を示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0011] 本発明の一実施形態による、3D環境の異なるスクリーンショットを示す図である。 [0012] 本発明の一実施形態による、マルチスケール3Dデータセットを可視化するための方法ステップのフローチャートである。 [0013] 本発明の一実施形態による、マルチスケール3Dデータセットをクエリするための方法ステップのフローチャートである。 [0014] 本発明の一実施形態による、マルチスケール3Dデータセットに基づいて、ナビゲーションGUIを生成するための方法ステップのフローチャートである。
詳細な説明
[0015]以下の説明では、本発明のより完全な理解をもたらすために、多数の特定の詳細が示される。しかし、本発明をこれらの特定の詳細のうち1つ又は複数なしに実施できることは、当業者には明らかであろう。他の場合には、本発明を不明瞭にすることを避けるために、周知の特徴は記載されていない。
ハードウェアの概観
[0016]図1は、本発明の実施形態が実装されうる、システム100の1つのアーキテクチャを示す。この図は、決して本発明の範囲を限定するものではなく、又は、そのように意図されるものではない。システム100は、パーソナルコンピュータ、ビデオゲームコンソール、携帯情報端末、レンダリングエンジン、又は、本発明の1つ若しくは複数の実施形態を実施するために適した任意の他のデバイスであってもよい。
[0017]図示のように、システム100は、メモリブリッジ105を含みうるバス経路を介して通信する、中央処理装置(CPU)102及びシステムメモリ104を含む。CPU102は、1つ又は複数の処理コアを含み、動作中、CPU102は、他のシステム構成要素の動作を制御且つ調整する、システム100のマスタプロセッサである。システムメモリ104は、CPU102によって使用するためのソフトウェアアプリケーション及びデータを格納する。CPU102は、ソフトウェアアプリケーション、及び、随意にオペレーティングシステムを実行する。メモリブリッジ105は、例えば、ノースブリッジチップであってもよく、バス又は他の通信経路(例えば、ハイパートランスポートリンク)を介して、I/O(入出力)ブリッジ107に接続される。I/Oブリッジ107は、例えば、サウスブリッジチップであってもよく、ユーザ入力を1つ又は複数のユーザ入力デバイス108(例えば、キーボード、マウス、ジョイスティック、デジタイザタブレット、タッチパッド、タッチスクリーン、スチール若しくはビデオカメラ、動きセンサ、及び/又は、マイクロフォン)から受け取り、その入力をCPU102へ、メモリブリッジ105を介して転送する。
[0018]表示プロセッサ112は、メモリブリッジ105へ、バス又は他の通信経路(例えば、PCI Express、アクセラレーテッドグラフィックスポート、又は、ハイパートランスポートリンク)を介して結合され、一実施形態では、表示プロセッサ112は、少なくとも1つのグラフィックス処理装置(GPU)及びグラフィックスメモリを含む、グラフィックスサブシステムである。グラフィックスメモリは、出力画像の画素ごとの画素データを格納するために使用される、表示メモリ(例えば、フレームバッファ)を含む。グラフィックスメモリを、GPUと同じデバイス内に統合、別のデバイスとしてGPUと接続、及び/又は、システムメモリ104内に実装することができる。
[0019]表示プロセッサ112は、画素を表示デバイス110(例えば、画面、又は、従来のCRT、プラズマ、OLED、SED若しくはLCDベースのモニタ若しくはテレビ)へ、定期的に送出する。加えて、表示プロセッサ112は、コンピュータにより生成された画像を写真フィルム上に再現するように構成されたフィルムレコーダに、画素を出力してもよい。表示プロセッサ112は、表示デバイス110に、アナログ又はデジタル信号を供給することができる。
[0020]システムディスク114もまた、I/Oブリッジ107に接続され、CPU102及び表示プロセッサ112によって使用するためのコンテンツ及びアプリケーション及びデータを格納するように構成されてもよい。システムディスク114は、アプリケーション及びデータのための不揮発性記憶を提供し、固定又はリムーバブルのハードディスクドライブ、フラッシュメモリデバイス、及び、CD−ROM、DVD−ROM、Blu−ray、HD−DVD、又は、他の磁気、光学若しくはソリッドステート記憶装置が含まれうる。
[0021]スイッチ116は、I/Oブリッジ107と、ネットワークアダプタ118並びに様々なアドインカード120及び121など、他の構成要素との間の接続を提供する。ネットワークアダプタ118は、システム100が電子通信ネットワークを介して他のシステムと通信できるようにし、ローカルエリアネットワーク、及び、インターネットなど、ワイドエリアネットワークを介した、有線又は無線通信を含んでもよい。
[0022]USB又は他のポート接続、フィルム記録デバイスなどを含む、他の構成要素(図示せず)もまた、I/Oブリッジ107に接続されてもよい。例えば、音声プロセッサは、CPU102、システムメモリ104、又は、システムディスク114によって供給された命令及び/又はデータから、アナログ又はデジタル音声出力を生成するために使用されてもよい。図1の様々な構成要素を相互接続する通信経路は、PCI(Peripheral Component Interconnect)、PCI Express(PCI−E)、AGP(アクセラレーテッドグラフィックスポート)、ハイパートランスポート、又は、任意の他のバス若しくはポイントツーポイント通信プロトコル(複数可)など、任意の適切なプロトコルを使用して実装されてもよく、異なるデバイス間の接続は、当技術分野で知られているように、異なるプロトコルを使用してもよい。
[0023]一実施形態では、表示プロセッサ112は、例えば、ビデオ出力回路を含む、グラフィックス及びビデオ処理のために最適化された回路を組み込み、グラフィックス処理装置(GPU)を構成する。別の実施形態では、表示プロセッサ112は、汎用処理のために最適化された回路を組み込む。さらに別の実施形態では、表示プロセッサ112は、メモリブリッジ105、CPU102及びI/Oブリッジ107など、1つ又は複数の他のシステム要素と共に統合されて、システムオンチップ(SoC)が形成されてもよい。また別の実施形態では、表示プロセッサ112は省略され、CPU102によって実行されたソフトウェアが、表示プロセッサ112の機能を行う。
[0024]画素データを、CPU102から直接、表示プロセッサ112へ供給することができる。本発明のいくつかの実施形態では、シーンを表す命令及び/又はデータが、ネットワークアダプタ118又はシステムディスク114を介して、それぞれシステム100に類似しているレンダーファーム又はサーバコンピュータのセットに供給される。レンダーファームは、供給された命令及び/又はデータを使用して、そのシーンの1つ又は複数のレンダリングされた画像を生成する。これらのレンダリングされた画像は、コンピュータ可読媒体にデジタル形式で格納されてもよく、随意に表示のためにシステム100へ返されてもよい。同様に、表示プロセッサ112によって処理されたステレオ画像対は、表示のために他のシステムへ出力されてもよく、システムディスク114に格納されてもよく、又は、コンピュータ可読媒体にデジタル形式で格納されてもよい。
[0025]別法として、CPU102は、表示プロセッサ112に、ステレオ画像対の間のオフセットの特徴付け及び/又は調整を含む、所望の出力画像を定義するデータ及び/又は命令を供給し、そのデータ及び/又は命令から、表示プロセッサ112は、1つ又は複数の出力画像の画素データを生成する。この所望の出力画像を定義するデータ及び/又は命令を、システムメモリ104、又は、表示プロセッサ112内のグラフィックスメモリに格納することができる。一実施形態では、表示プロセッサ112は、シーンのためのジオメトリ、ライティングシェーディング、テクスチャリング、動き、及び/又は、カメラパラメータを定義する命令及びデータから、出力画像のための画素データを生成するための、3Dレンダリング機能を含む。表示プロセッサ112は、シェーダプログラム、トーンマッピングプログラムなどを実行することができる、1つ又は複数のプログラム可能な実行ユニットをさらに含みうる。
[0026]CPU102、レンダーファーム、及び/又は、表示プロセッサ112は、ラスタライゼーション、スキャンラインレンダリングREYES若しくはマイクロポリゴンレンダリング、レイキャスティング、レイトレーシング、画像ベースのレンダリング技術、並びに/又は、当技術分野で知られているこれら及び任意の他のレンダリング若しくは画像処理技術の組み合わせを含む、当技術分野で知られている任意のサーフェス又はボリュームレンダリング技術を採用して、供給されたデータ及び命令から1つ又は複数のレンダリングされた画像を作成することができる。
[0027]本明細書で示されたシステムは例示的であり、変形及び修正が可能であることは理解されよう。ブリッジの数及び配置を含む、接続トポロジは、必要に応じて修正されてもよい。例として、いくつかの実施形態では、システムメモリ104は、ブリッジを通してではなく、CPU102に直接接続され、他のデバイスは、メモリブリッジ105及びCPU102を介してシステムメモリ104と通信する。他の代替トポロジでは、表示プロセッサ112は、メモリブリッジ105にではなく、I/Oブリッジ107に、又は、CPU102に直接接続される。さらに他の実施形態では、I/Oブリッジ107及びメモリブリッジ105は、単一のチップに統合されうる。本明細書で示された個々の構成要素は随意であり、例として、任意の数のアドインカード又は周辺機器がサポートされうる。いくつかの実施形態では、スイッチ116は除去され、ネットワークアダプタ118及びアドインカード120、121は、I/Oブリッジ107に直接接続する。
ソフトウェアの概観
[0028]図1Bは、本発明の一実施形態による、図1Aのシステムメモリ104のより詳細な例示である。図示のように、システムメモリ104は、マルチスケール3Dデータセット132にアクセスするように構成されるマルチスケールデータエンジン130を含み、マルチスケール3Dデータセット132は、複数の異なるスケールで観測可能な特性を有してもよい、3D環境を表す。
[0029]例えば、マルチスケール3Dデータセット132は、地球の3Dモデルを表す地理空間データセットでありうる。この例では、マルチスケール3Dデータセット132は、地球を表す大きい球体を含むことがあり、この球体は「惑星」スケールに対応する。さらに、マルチスケール3Dデータセット132は、都市を表す、球体の表面上に配置された3Dの長方形のグループを含むことがあり、これらの3Dの長方形のグループは「都市」スケールに対応する。所与の「都市」内で、各「建築物」は、例えば、梁、桁、階段又は窓など、様々な建築物要素を含むことがあり、これらの建築物要素は「建築物」スケールに対応する。マルチスケール3Dデータセット132は、任意のタイプの3D環境を表すことができ、加えて、幅広い種類の可能なデータ構造及び/又はデータ形式を使用してそのように行うことができることは、当業者には理解されよう。
[0030]一実施形態では、マルチスケール3Dデータセット132は、地理情報システム(GIS)データベースから得られるデータに基づいて、3D環境を表す。例えば、マルチスケール3Dデータセット132は、3D高度マップを表すことができ、マップ内の各点は、一意のGISタグを有する。マルチスケール3Dデータセット132はまた、異なるデータ構造及び/又はデータ形式を実装して、3D環境内で異なる各スケールを表すこともできる。例えば、マルチスケール3Dデータセット132は、ある都市の3Dモデルを、各々がその都市内の異なる建築物に対応する様々な点群として表すことができる。各点群は、GISデータを使用して、「惑星」スケールで位置決めされうる。より小さい「建築物」スケールで、所与の点群内の点は、その点群のGISタグに関連して定義されうる。
[0031]マルチスケール3Dデータセット132は、3D環境を、各々がその3D環境の異なるスケールに対応する1つ又は複数の異なる3Dデータセットを使用して、表すことができる。いくつかの実施形態では、マルチスケール3Dデータセット132内の各3Dデータセットは、他の3Dデータセットと共に整列され、又は、マルチスケール3Dデータセット132内で、他の3Dデータセットに対してネストされる。さらに後述するように、マルチスケール3Dデータセット132に関連付けられた3D環境に、エンドユーザによって、マルチスケールデータエンジン130を使用してアクセスすることができる。
[0032]マルチスケールデータエンジン130は、可視化エンジン134、クエリエンジン136、及び、ナビゲーションエンジン138を含み、各々は、マルチスケール3Dデータセット132による様々な処理動作を行うように構成される。エンドユーザは、入力デバイス108を介して、マルチスケールデータエンジン130内の様々なエンジンにコマンドを発行することができ、表示デバイス110を介して、それらのエンジンによって生成された出力を受け取ることができる。図2及び図10に関連して以下でさらに詳細に説明するように、可視化エンジン134は、表示デバイス110への出力のために、マルチスケール3Dデータセット132に基づいて、3D環境をレンダリングするように構成される。クエリエンジン136は、図2及び図11に関連して以下でさらに詳細に説明するように、入力デバイス108を介してエンドユーザから受け取られたクエリに基づいて、マルチスケール3Dデータセット132内の3Dオブジェクトを識別するように構成される。ナビゲーションエンジン138は、図3〜図9及び図12に関連して以下でさらに詳細に説明するように、エンドユーザが、マルチスケールデータセット132に関連付けられた3D環境をナビゲートできるようにするために、マルチスケール3Dデータセット132に基づいて、様々なナビゲーションGUIを生成するように構成される。
マルチスケール3Dデータセットの可視化、クエリ及びナビゲート
[0033]図2は、本発明の一実施形態による、3Dシーン200内に存在する様々な要素の3人称視点を示す。3Dシーン200は、図1Bに関連して上述したように、マルチスケール3Dデータセット132に関連付けられた3D環境の3人称スナップショットを表すことができる。図示のように、3Dシーン200は、3Dオブジェクト202、204及び206、並びに、カメラ208を含む。図1Bに関連して上述された可視化エンジン134は、カメラ208の視点から、エンドユーザへの表示のための画像をレンダリングするように構成される。
[0034]可視化エンジン134はまた、3Dオブジェクトを、それらのオブジェクトに関連付けられた空間特性に基づいて選択的にグループ化することによって、3D環境内で3Dオブジェクトの「空間的階層」を生成するようにも構成される。このように、可視化エンジン134は、本明細書で例として説明するように、可視の3Dオブジェクトの数を減らすことによって、3D環境を「片付ける」ことができる。
[0035]可視化エンジン134は、3Dオブジェクト202、204及び206のうち2つ以上を、それらのオブジェクト間の直線距離、カメラ208に対するそれらのオブジェクト間の角距離に基づいて、及び/又は、それらのオブジェクトとカメラ210の間の距離に基づいて、グループ化するように構成される。3Dシーン200では、δは、3Dオブジェクト202及び204の間の直線距離を表し、δは、3Dオブジェクト204及び206の間の直線距離を表し、αは、3Dオブジェクト202及び204の間の角距離を表し、αは、3Dオブジェクト204及び206の間の角距離を表す。加えて、δ、δ及びδは、3Dオブジェクト202、204及び206とカメラ208の間の距離をそれぞれ表す。
[0036]本発明の一実施形態では、可視化エンジン134は、3Dオブジェクト202、204及び206のうち2つ以上を、それらのオブジェクト間の直線距離が所与の直線閾値未満であるとき、グループ化するように構成されてもよい。例えば、δが直線閾値未満である場合、可視化エンジン134は、3Dオブジェクト202及び204をグループ化するようになる。
[0037]本発明の別の実施形態では、可視化エンジン134は、3Dオブジェクト202、204及び206のうち2つ以上を、カメラ208に対するそれらのオブジェクト間の角距離が所与の角閾値未満であるとき、グループ化するように構成されてもよい。例えば、αが角閾値未満である場合、可視化エンジン134は、3Dオブジェクト204及び206をグループ化するようになる。
[0038]本発明のさらに別の実施形態では、可視化エンジン134は、3Dオブジェクト202、204及び206のうち2つ以上を、これらの3Dオブジェクト間の直線距離、カメラ208に対するこれらの3Dオブジェクト間の角距離、又は、各3Dオブジェクトとカメラ208の間の距離の任意の組み合わせに基づいて、グループ化するように構成されてもよい。
[0039]表示のために画像をレンダリングするとき、可視化エンジン134は、3Dオブジェクトのグループを、そのグループを表す単一の3Dオブジェクトとして表してもよい。例えば、3Dオブジェクト202及び204をグループ化するとき、可視化エンジン134は、そのグループを表す単一の3Dオブジェクトをレンダリングすることができる。このように、可視化エンジン134は、多数の3Dオブジェクトを有する3Dシーンの複雑さを低減することができる。可視化エンジン134は、任意の数の3Dオブジェクトを、それらの3Dオブジェクトに関連付けられた幅広い種類の空間特性に基づいて共にグループ化できること、及び、上記の例は例示のためのものにすぎないことは、当業者には理解されよう。
[0040]図2の3Dシーン200を再度参照すると、クエリエンジン136は、3Dオブジェクト202、204及び206のうち1つ又は複数を、それらのオブジェクトに関連付けられた空間特性に基づいて識別するように構成される。この技術によって、クエリエンジン136は、エンドユーザが、検索基準に合致する特定の3Dオブジェクトを決定するために、マルチスケール3Dデータセット132に関連付けられた3Dオブジェクトの検索を実施できるようにする。例えば、エンドユーザは、カメラ208の特定の距離内に位置決めされた3Dオブジェクトを求めて検索することを望むことがある。その距離がδ未満であるが、δ及びδよりも大きい場合、クエリエンジン136は、エンドユーザのために3Dオブジェクト206を識別することができる。
[0041]クエリエンジン136はまた、それらの3Dオブジェクトの他の非空間特性に基づいて、マルチスケール3Dデータセット132に関連付けられた3Dオブジェクトの検索を実施するようにも構成される。例えば、クエリエンジン136は、1つ又は複数の3Dオブジェクトを、それらのオブジェクトの記述、それらのオブジェクトが可視化エンジン134によってグループ化されているかどうか、又は、とりわけ、それらの3Dオブジェクトが存在するスケールに基づいて、識別してもよい。クエリエンジン136はまた、1つ又は複数の3Dオブジェクトを、それらのオブジェクトに関連付けられた異なる特性の任意の組み合わせに基づいて識別してもよい。クエリエンジン136が1つ又は複数の3Dオブジェクトを識別した後、クエリエンジン136は、それらのオブジェクトの指示をエンドユーザに対して表示させてもよい。クエリエンジン136は、マルチスケール3Dデータセット132に関連付けられた3Dオブジェクトの検索を、幅広い種類の空間及び/又は非空間特性に基づいて実施できること、及び、上記の例は例示のためのものにすぎないことは、当業者には理解されよう。
[0042]マルチスケール3Dデータセット132を可視化且つ検索するための技術を提供することに加えて、マルチスケールデータエンジン130はまた、マルチスケール3Dデータセット132によって表された3D環境をナビゲートするための様々な技術をも提供する。具体的には、マルチスケールデータエンジン130内のナビゲーションエンジン138は、図3A〜図9及び図12に関連して以下でさらに詳細に説明するように、エンドユーザがその3D環境をナビゲートできるようにする、様々なナビゲーションGUIを生成するように構成される。
[0043]図3Aは、本発明の一実施形態による、3D環境のスクリーンショット300を示す。スクリーンショット300は、図2に関連して説明したように、カメラ208の視点から、可視化エンジン134によって生成されうる画像を表す。スクリーンショット300は、マルチスケール3Dデータセット132に関連付けられた3D環境を表し、表示デバイス110を介してエンドユーザに対して表示されてもよい。図示のように、スクリーンショット300は、カーソル302、方向円錐(direction cone)304、及び、3Dサムネイル画像306を含む。
[0044]ナビゲーションエンジン138は、3D環境内で画面外3Dオブジェクトを示すために、方向円錐304を生成するように構成される。図3Aに示す例示的実施形態では、画面外オブジェクトは、スクリーンショット300が取り込まれた視点の後ろに、右上に向かって存在する。エンドユーザがカーソル302を方向円錐304の上に乗せるとき、ナビゲーションエンジン138は、3Dサムネイル画像306を生成する。3Dサムネイル画像306は、画面外オブジェクトを表す(この場合、画面外オブジェクトは円環体である)。ナビゲーションエンジン138は、様々な視点から画面外オブジェクトを表すために、3Dサムネイル画像306を回転させてもよく、3Dサムネイル画像306を適切なサイズにスケールしてもよい。加えて、エンドユーザがカーソル302を使用して、方向円錐304を選択するとき、ナビゲーションエンジン138は、エンドユーザを、方向円錐304によって表された3Dオブジェクトへナビゲートしてもよく、すなわち、ナビゲーションエンジン138は、3Dオブジェクトが画面上にあるように、エンドユーザに関連付けられたカメラ位置を変更してもよい。ナビゲーションエンジン138はまた、図3Bに関連して以下でさらに詳細に説明するように、3Dオブジェクトのグループを表す方向円錐を生成するようにも構成される。
[0045]図3Bは、本発明の一実施形態による、3D環境のスクリーンショット320を示す。図3Aのスクリーンショット300と同様に、スクリーンショット320は、マルチスケール3Dデータセット132に関連付けられた3D環境を表すために、可視化エンジン134によって生成されうる。図示のように、スクリーンショット320は、カーソル302、方向円錐324、及び、分割円板326を含む。分割円板は、円板部分326−1乃至326−5を含む。
[0046]ナビゲーションエンジン138は、3D環境内で画面外の3Dオブジェクトのグループを示すために、方向円錐324を生成するように構成される。画面外の3Dオブジェクトのグループは、例えば、可視化エンジン134によって生成されうる。図3Bに示す例示的実施形態では、画面外の3Dオブジェクトのグループは、スクリーンショット320が取り込まれた視点の後ろに、左上に向かって存在する。ナビゲーションエンジン138はまた、画面外グループ内に含まれた3Dオブジェクトの数を示すために、分割円板326を生成するようにも構成される。図示のように、分割円板326は、5個のオブジェクトが画面外グループ内に含まれることを示す。ナビゲーションエンジン138はまた、画面外オブジェクトの数を、方向円錐324及び/又は分割円板326と共に明示的に表示させてもよい。
[0047]一実施形態では、ナビゲーションエンジン138は、方向円錐324を、オブジェクトのグループに関連付けられていない他の方向円錐(例えば、図3Aの方向円錐304など)に対して、一意の色及び/又はテクスチャで表示させてもよい。この技術によって、ナビゲーションエンジン138は、3Dオブジェクトのグループを示す方向円錐と、単一の3Dオブジェクトを示す方向円錐とを区別する。
[0048]エンドユーザがカーソル302を方向円錐324の上に乗せるとき、ナビゲーションエンジン138は、画面外グループ内の3Dオブジェクトを表す様々な3Dサムネイル画像を表示させてもよく、それらの3Dサムネイル画像を適切なサイズにスケールしてもよい。加えて、エンドユーザがカーソル302を使用して、方向円錐324を選択するとき、ナビゲーションエンジン138は、エンドユーザを、3Dオブジェクトのグループへナビゲートしてもよく、すなわち、ナビゲーションエンジン138は、3Dオブジェクトのグループが画面上にあるように、エンドユーザに関連付けられたカメラ位置を変更してもよい。
[0049]ナビゲーションエンジン138はまた、図4〜図9に関連して以下でさらに詳細に説明するように、異なる「ナビゲーションGUI」を生成するために、1つ又は複数の方向円錐、例えば、上記の1つ又は複数の方向円錐304及び/又は324を、様々な他のグラフィカル要素と共に組み込むようにも構成される。
[0050]図4は、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット400を示す。図示のように、スクリーンショット400は、円錐の輪(cone ring)402を含む。円錐の輪402は、前述したように、ナビゲーションエンジン138によって生成された「ナビゲーションGUI」である。円錐の輪402は、2次元(2D)円形境界414に沿って配置される方向円錐404、406、408、410及び412を含む。円形境界414は、円錐の輪402内の方向円錐の好ましい分布を示すためにのみ、スクリーンショット400内に示され、一般に、エンドユーザにとって可視ではないことがある。
[0051]ナビゲーションエンジン138は、現在は画面外である3Dオブジェクト及び/又は3Dオブジェクトのグループ、すなわち、エンドユーザにとって可視ではない3Dオブジェクトを示すために、円錐の輪402を生成するように構成される。円錐の輪402内に含まれる各方向円錐は、それぞれ図3A及び図3Bに関連して上述した方向円錐304又は方向円錐324に、実質的に類似している。例えば、方向円錐406、408及び410は、図3Aの方向円錐304と同様の方式で、単一の画面外3Dオブジェクトを表す。加えて、方向円錐404及び412は、図3Bの方向円錐324と同様の方式で、画面外3Dオブジェクトのグループを表す。方向円錐304及び324の場合と同様に、エンドユーザは、カーソル302を円錐の輪402内の方向円錐のうち1つの上に乗せてもよく、それに応答して、ナビゲーションエンジン138は、1つ又は複数の3Dサムネイル画像を表示してもよい。さらに、エンドユーザは、円錐の輪402内の方向円錐のうち1つを選択してもよく、それに応答して、ナビゲーションエンジン138は、その方向円錐によって表された3Dオブジェクト又はオブジェクトのグループへ、エンドユーザをナビゲートしてもよい。
[0052]ナビゲーションエンジン138は、3D環境内の円錐の輪402を、エンドユーザから所与の距離で、すなわち、エンドユーザに関連付けられたカメラ位置から所与の距離で位置決めするように構成される。その距離は、エンドユーザから受け取られた入力に基づいて設定可能であってもよい。ナビゲーション138はまた、円錐の輪402を、設定可能な半径を有する円形境界414と共に生成するようにも構成される。一実施形態では、ナビゲーションエンジン138は、円錐の輪402内の各方向円錐の位置及び向きを、3D環境内のエンドユーザの現在位置に基づいて決定する。別の実施形態では、ナビゲーションエンジン138は、円錐の輪402内の各方向円錐の位置及び向きを、3D環境内の円錐の輪402の現在位置に基づいて決定してもよい。
[0053]さらに別の実施形態では、ナビゲーションエンジン138は、円錐の輪402内の各方向円錐の位置及び向きを、エンドユーザの位置の変化、及び/又は、円錐の輪402の位置の変化に応じて、動的に変更してもよい。ナビゲーションエンジン138が、円錐の輪402内の所与の方向円錐の位置を変更するとき、その方向円錐は一般に、円形境界414に沿って移動するように制約される。加えて、ナビゲーションエンジン138が、円錐の輪402内の所与の方向円錐の向きを変更するとき、その方向円錐は一般に、円錐の輪402の中心に向かって、又は中心から離れるようにポイントするように制約される。
[0054]ナビゲーションエンジン138は、画面上オブジェクトが画面外へ移動するとき、追加の方向円錐を円錐の輪402に追加するようにさらに構成される。この状況では、ナビゲーションエンジン138は、その画面外オブジェクトを示す方向円錐を追加する。一実施形態では、ナビゲーションエンジン138は、画面外オブジェクト及び画面上オブジェクトを共に示すために、円錐の輪402内に方向円錐を含めてもよい。この実施形態では、ナビゲーションエンジン138は、3Dオブジェクトが円形境界414内に存在するとき、円錐の輪402の中心に向かってポイントする方向円錐を提供してもよい。
[0055]別の実施形態では、ナビゲーションエンジン138は、3Dオブジェクト(又は、3Dオブジェクトのグループ)を、その3Dオブジェクト(又は、3Dオブジェクトのグループ)の位置に基づいて、方向円錐で示すかどうかを決定してもよい。例えば、所与の3Dオブジェクトがエンドユーザの現在位置から十分に遠い場合、ナビゲーションエンジン138は、円錐の輪402内にその3Dオブジェクトを示す方向円錐を含めないことがある。
[0056]図5に関連して以下でさらに詳細に説明するように、ナビゲーションエンジン138は、上記の円錐の輪402と同様の特性を有してもよい「円錐の球体(cone sphere)」ナビゲーションGUIを生成するようにさらに構成される。
[0057]図5は、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット500を示す。図示のように、スクリーンショット500は、円錐の球体502を含む。円錐の球体502は、ナビゲーションエンジン138によって生成されたナビゲーションGUIであり、方向円錐504、506、508、510、512、514及び516を含む。円錐の球体502内に含まれる方向円錐は、3D球面境界518に沿って配置される。球面境界518は、円錐の球体502内の方向円錐の好ましい分布を示すためにのみ、スクリーンショット500内に示され、一般に、エンドユーザにとって可視ではないことがある。
[0058]上述の円錐の輪402の場合と同様に、ナビゲーションエンジン138は、現在は画面外である3Dオブジェクト及び/又は3Dオブジェクトのグループ、すなわち、エンドユーザにとって可視ではない3Dオブジェクトを示すために、円錐の球体502を生成するように構成される。円錐の球体502内に含まれる各方向円錐は、それぞれ図3A及び図3Bに関連して上述した方向円錐304又は方向円錐324に、実質的に類似している。例えば、方向円錐504、506、512、514及び516は、図3Aの方向円錐304と同様の方式で、単一の画面外3Dオブジェクトを表す。加えて、方向円錐508及び510は、図3Bの方向円錐324と同様の方式で、画面外3Dオブジェクトのグループを表す。方向円錐304及び324の場合と同様に、エンドユーザは、カーソル302を円錐の輪402内の方向円錐のうち1つの上に乗せてもよく、それに応答して、ナビゲーションエンジン138は、1つ又は複数のサムネイル3D画像を表示してもよい。さらに、エンドユーザは、円錐の輪402内の方向円錐のうち1つを選択してもよく、それに応答して、ナビゲーションエンジン138は、その方向円錐によって表された3Dオブジェクト又はオブジェクトのグループへ、エンドユーザをナビゲートしてもよい。
[0059]ナビゲーションエンジン138は、3D環境内の円錐の球体502を、エンドユーザから所与の距離で、すなわち、エンドユーザに関連付けられたカメラ位置から所与の距離で位置決めするように構成される。その距離は、エンドユーザから受け取られた入力に基づいて設定可能であってもよい。ナビゲーション138はまた、円錐の球体502を、設定可能な半径を有する球面境界518と共に生成するようにも構成される。一実施形態では、ナビゲーションエンジン138は、円錐の球体502内の各方向円錐の位置及び向きを、3D環境内のエンドユーザの現在位置に基づいて決定する。別の実施形態では、ナビゲーションエンジン138は、円錐の球体502内の各方向円錐の位置及び向きを、3D環境内の円錐の球体502の現在位置に基づいて決定してもよい。
[0060]さらに別の実施形態では、ナビゲーションエンジン138は、円錐の球体502内の各方向円錐の位置及び向きを、エンドユーザの位置の変化、及び/又は、円錐の球体502の位置の変化に応じて、動的に変更してもよい。ナビゲーションエンジン138が、円錐の球体502内の所与の方向円錐の位置を変更するとき、その方向円錐は一般に、球面境界518に沿って移動するように制約される。加えて、ナビゲーションエンジン138が、円錐の球体502内の所与の方向円錐の向きを変更するとき、その方向円錐は一般に、円錐の球体502の中心に向かって、又は中心から離れるようにポイントするように制約される。
[0061]ナビゲーションエンジン138は、画面上オブジェクトが画面外へ移動するとき、追加の方向円錐を円錐の球体502に追加するようにさらに構成される。この状況では、ナビゲーションエンジン138は、その画面外オブジェクトを示す方向円錐を追加する。一実施形態では、ナビゲーションエンジン138は、画面外オブジェクト及び画面上オブジェクトを共に示すために、円錐の球体502内に方向円錐を含めてもよい。この実施形態では、ナビゲーションエンジン138は、3Dオブジェクトが球面境界518内に存在するとき、円錐の球体502の中心に向かってポイントする方向円錐を提供してもよい。
[0062]別の実施形態では、ナビゲーションエンジン138は、3Dオブジェクト(又は、3Dオブジェクトのグループ)を、その3Dオブジェクト(又は、3Dオブジェクトのグループ)の位置に基づいて、方向円錐で示すかどうかを決定してもよい。例えば、所与の3Dオブジェクトがエンドユーザの現在位置から十分に遠い場合、ナビゲーションエンジン138は、その3Dオブジェクトを示す円錐の球体502内の方向円錐を含めないことがある。
[0063]ナビゲーションエンジン138は、図5に関連して以下でさらに詳細に説明するように、円錐の球体502の表面を2D平面に変換することによって、円錐の球体502の2D表現を生成するように構成される。
[0064]図6は、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット600を示す。図示のように、スクリーンショット600は、グリッド602を含む。ナビゲーションエンジン138は、円錐の球体502の球面境界518を2D平面上に投影することによって、グリッド602を生成する。グリッド602は、方向円錐604、608、610、612及び616を含む。グリッド602内の方向円錐は、円錐の球体502の表面上に配置された方向円錐に直接対応してもよい。
[0065]方向円錐608、610及び616は、図3Aの方向円錐304と同様に、単一の画面外3Dオブジェクトを表す。加えて、方向円錐608、614及び620はまた、それぞれ拡張底面610、616及び618をも含む。所与の方向円錐の周囲の拡張底面には、エンドユーザの現在位置から、その円錐に関連付けられた3Dオブジェクトまでの距離に基づいて、陰影が付けられる。このように、拡張底面610、616及び618は、エンドユーザの現在位置から、それらの拡張底面に対応する方向円錐に関連付けられた3Dオブジェクトまでの距離を示す。
[0066]方向円錐604及び612は、図3Bの方向円錐324と同様に、画面外3Dオブジェクトのグループを表す。方向円錐604及び612はまた、それぞれ分割円板606及び614をも含む。分割円板606は、円板部分606−1乃至606−4を含むが、分割円板614は、円板部分614−1及び614−2を含む。加えて、拡張底面610、616及び618のように、所与の方向円錐の周囲の分割円板には、その円錐に関連付けられた3Dオブジェクトまでの距離に基づいて、陰影が付けられる。このように、分割円板606及び614は、それらの分割円板に対応する方向円錐に関連付けられた3Dオブジェクトまでの距離を示す。一実施形態では、エンドユーザは、方向円錐604又は614のうち1つにズームインしてもよく、それに応答して、ナビゲーションエンジン138は次いで、その方向円錐によって表されたグループ内の3Dオブジェクトに対応する3Dサムネイル画像を表示する。
[0067]図4〜図6に関連して説明したナビゲーションGUIは、図7〜図9に関連して以下でさらに詳細に説明するように、画面外に位置決めされる3Dオブジェクト及び3Dオブジェクトのグループの表現を表示するように、さらに拡張されてもよい。
[0068]図7Aは、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット700を示す。図示のように、スクリーンショット700は、ミラーボール702を含む。ミラーボール702は、ナビゲーションエンジン138によって生成された別のナビゲーションGUIである。ミラーボール702は、画面外オブジェクトの画像が現れることができる、反射表面704を有する。ミラーボール702の反射表面704は、ボロノイ領域710、720、730、740、750及び760に分割される。反射表面704上の各ボロノイ領域は、周囲の3D環境の異なる領域の反射画像を表示することができる。各ボロノイ領域はまた、そのボロノイ領域に対応する3D環境の領域内に存在する3Dオブジェクト又は3Dオブジェクトのグループの反射画像を表示することもできる。例えば、ボロノイ領域760は、画面外ボールの画像764を反射する。同様に、ボロノイ領域750は、画面外円環体の画像752を反射する。ナビゲーションエンジン138は、反射表面704によって反射されたあらゆる画像が同様のサイズを有するように、反射表面704によって反射された画像をスケールするように構成される。
[0069]所与のボロノイ領域が、3Dオブジェクト又は3Dオブジェクトのグループを含む3D環境の画像を反射するとき、ナビゲーションエンジン138は、そのボロノイ領域内の方向円錐を含む。図示のように、ボロノイ領域720は方向円錐722を含み、ボロノイ領域740は方向円錐742を含み、ボロノイ領域750は方向円錐752を含み、ボロノイ領域760は方向円錐762を含む。所与のボロノイ領域内の方向円錐は、それぞれ図3A及び図3Bに関連して上述した方向円錐304又は方向円錐324に、実質的に類似していてもよい。
[0070]一実施形態では、ナビゲーションエンジン138は、ボロノイ領域内の方向円錐の高さを、ミラーボール702と、そのボロノイ領域に関連付けられた3Dオブジェクト若しくは3Dオブジェクトのグループ、及び/又は、3D環境内のエンドユーザのカメラ位置との間の距離に基づいて決定する。別の実施形態では、ナビゲーションエンジン138は、各ボロノイ領域に、ミラーボール702と、そのボロノイ領域に関連付けられた3Dオブジェクト若しくは3Dオブジェクトのグループ、及び/又は、3D環境内のエンドユーザのカメラ位置との間の距離に基づいて、陰影を付けるように構成される。例えば、図示のように、ボロノイ領域740及び760は陰影付きで現れ、対応する3Dオブジェクト又は3Dオブジェクトのグループがミラーボール702から比較的遠く離れていることを示す。
[0071]ナビゲーションエンジン138はまた、図7Bに関連して以下でさらに詳細に説明するように、エンドユーザが3Dオブジェクトのグループをナビゲートできるようにするために、3D環境内で複数のミラーボールを生成するようにも構成される。
[0072]図7Bは、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット770を示す。図示のように、スクリーンショット770は、ミラーボール群788を含む。ミラーボール群788は、ナビゲーションエンジン138によって生成された別のナビゲーションGUIであり、3Dオブジェクト772に対して配置された親ミラーボール774及び子ミラーボール778を含む。一般に、ミラーボール群788は、エンドユーザが親ミラーボール774を介して、子ミラーボール778を見ることができるようにする。ミラーボール群788はまた、エンドユーザが子ミラーボール778を介して、3Dオブジェクト772を見ることもできるようにする。
[0073]ナビゲーションエンジン138は、より大きい3Dオブジェクトのグループの一部でありうる、3Dオブジェクト772に対して、その3Dオブジェクトのグループをよりよく見ることを可能にするために、親ミラーボール774及び子ミラーボール778を生成且つ位置決めするように構成される。補助線784は、親ミラーボール774と子ミラーボール778の間の親子関係を示すが、補助線786は、子ミラーボール778と3Dオブジェクト772の間の関係を示す。親ミラーボール774及び子ミラーボール778の各々は、図7Aに関連して上述したミラーボール702に実質的に類似している。親ミラーボールは、ボロノイ領域776を含むが、子ミラーボールは、ボロノイ領域780を含む。図示のように、ボロノイ領域780は、3Dオブジェクト772の画像782を反射する。
[0074]ミラーボール群788を使用して、3D環境をナビゲートするとき、エンドユーザは典型的には、親ミラーボール774に依拠して、3Dオブジェクト及び3Dオブジェクトのグループを識別する。ナビゲーションエンジン138は、子ミラーボール778を使用して、3Dオブジェクトのグループを表すことを、親ミラーボール774に行わせるように構成される。したがって、ボロノイ領域776は、子ミラーボール778の画像を反射することができ、子ミラーボール778はさらに、3Dオブジェクト772を表すことができる。このように、ナビゲーションエンジン138は、親子ミラーボールの空間的階層を生成するように構成される。ナビゲーションエンジン138はまた、エンドユーザがその空間的階層をナビゲートできるようにもする。例えば、エンドユーザは、親ミラーボール774内で子ミラーボール778の反射画像を選択することができ、それに応答して、ナビゲーションエンジン138は、エンドユーザのカメラ位置を、子ミラーボール778の方へ向けられるように移動させるようにする。さらに、エンドユーザは次いで、画像782を選択することができ、それに応答して、ナビゲーションエンジン138は、エンドユーザのカメラ位置を、3Dオブジェクト772の方へ向けられるように移動させるようにする。一実施形態では、親ミラーボール774及び子ミラーボール778はそれぞれ、マルチスケール3Dデータセット132内の異なる3Dデータセットに対応する。
[0075]ナビゲーションエンジン138はまた、図8に関連して以下でさらに詳細に説明するように、ミラーボールの2D表現を、そのミラーボールの表面を2D空間に投影することによって生成するようにも構成される。
[0076]図8は、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット800を示す。図示のように、スクリーンショット800は、展開表面802を含む。ナビゲーションエンジン138は、ミラーボールの反射表面を展開すること、及び、その反射表面を2D平面上に投影することによって、展開表面802を生成する。展開表面802は、球体の表面を広げるための、任意の技術的に実現可能なアルゴリズムを使用して、ミラーボールに基づいて生成されうることは、当業者には理解されよう。展開表面802は、ボロノイ領域810、820、830、840、850、860、870、880及び890を含む。ボロノイ領域810、820及び880は、方向円錐812、822及び882をそれぞれ含む。
[0077]展開表面802のボロノイ領域内に配置された所与の方向円錐は、そのボロノイ領域に関連付けられたオブジェクト又はオブジェクトのグループを示す。例えば、方向円錐812は、3Dオブジェクト814を示し、方向円錐822は、3Dオブジェクト824及び826を含む3Dオブジェクトのグループを示し、方向円錐882は、3Dオブジェクト884を示す。ナビゲーションエンジン138は、所与の方向円錐に関連付けられた所与の3Dオブジェクト又は3Dオブジェクトのグループを、その方向円錐の上の特定の高さで位置決めするように構成される。ナビゲーションエンジン138は、エンドユーザのカメラ位置と、3Dオブジェクト又は3Dオブジェクトのグループとの間の距離に基づいて、その高さを決定する。図7Aに関連して上述したミラーボール702の場合と同様に、エンドユーザは、展開表面902を使用して、特定の3Dオブジェクト又は3Dオブジェクトのグループへナビゲートすることができる。
[0078]ナビゲーションエンジン138はまた、以下で図9でさらに詳細に説明するように、エンドユーザが3D環境の圧縮表現を見ることができるようにする、「アナモルフィックレンズ」ナビゲーションGUIを生成するようにも構成される。
[0079]図9は、本発明の一実施形態による、マルチスケール3Dデータセット132に関連付けられた3D環境のスクリーンショット900を示す。図示のように、スクリーンショット900は、アナモルフィックレンズ802、並びに、3Dオブジェクト814、824及び864を含む。アナモルフィックレンズ802の表面は、ボロノイ領域810、820、830、840、850及び860に分割される。各ボロノイ領域は、3D環境の異なる領域に対応する画像を表示することができる。ナビゲーションエンジン138は、アナモルフィックレンズ802に、水平及び垂直の両方で180度の視野内にある、3D環境の領域からの画像を表示させる。したがって、アナモルフィックレンズ802は、画面上3Dオブジェクト及び画面外3Dオブジェクトの両方の画像を表示することができる。
[0080]ボロノイ領域810は、3Dオブジェクト814の画像812を表示し、ボロノイ領域820は、3Dオブジェクト824の画像822を表示し、ボロノイ領域850は、画面外3Dオブジェクトの画像を表示し、ボロノイ領域860は、3Dオブジェクト864の画像862を表示する。ナビゲーションエンジン138は、各ボロノイ領域が、エンドユーザのカメラ位置から、そのボロノイ領域に関連付けられた3Dオブジェクト又は3Dオブジェクトのグループまでの距離に基づいて、陰影を付けられるようにするように構成される。例えば、3Dオブジェクト824は、エンドユーザのカメラ位置に比較的近く、そのため、ボロノイ領域820は淡く着色される。逆に、3Dオブジェクト864は、エンドユーザのカメラ位置から比較的遠く離れており、そのため、ボロノイ領域860には比例的に陰影が付けられる。
[0081]ナビゲーションエンジン138はまた、あらゆる画像が同様のサイズを有するように、各ボロノイ領域内の画像をスケールするようにも構成される。例えば、3Dオブジェクト824はかなり大きく見えるのに対し、3Dオブジェクト814はかなり小さく見えるが、それらの3Dオブジェクトに対応する画像(それぞれ、画像822及び812)は、同様のサイズに見える。一実施形態では、ナビゲーションエンジン138は、エンドユーザのカメラ位置の後ろに存在する3Dオブジェクト及び3Dオブジェクトのグループを表示するために、アナモルフィックレンズ802をミラーボール702と共に実装する。
[0082]ナビゲーションエンジン138は、マルチスケール3Dデータセット132に関連付けられた3D環境をエンドユーザがナビゲートできるようにするとき、図3A〜図9に関連して上述したナビゲーションGUIのうち任意のもの、及び、それらの任意の組み合わせを実装してもよいことは、当業者には理解されよう。加えて、ナビゲーションエンジン138は、とりわけ、マルチスケール3Dデータセット132、マルチスケール3Dデータセット132内の特定の3Dデータセット、ユーザ入力及び/若しくはユーザの好み、又は、3D環境の現在のスケールに基づいて、特定のナビゲーションGUIを選択してもよい。さらに、ナビゲーションエンジン138は、ナビゲーションGUIのうち任意のものを共に関連付けることによって、3D環境内の親子関係の空間的階層を生成してもよい。
[0083]図10は、本発明の一実施形態による、マルチスケール3Dデータセット132を可視化するための方法ステップのフローチャートである。これらの方法ステップは、図1A及び図1Bのシステムに関連して説明されるが、これらの方法ステップを任意の順序で行うように構成されたいかなるシステムも、本発明の範囲内であることは、当業者には理解されよう。
[0084]図示のように、方法1000はステップ1002で開始し、そこで、マルチスケールデータエンジン130内の可視化エンジン134は、1つ又は複数の3Dオブジェクトを3D環境内で表示する。可視化エンジン134は、マルチスケール3Dデータセット132に基づいて、3D環境を生成する。ステップ1004で、可視化エンジン134は、各3Dオブジェクト間の直線距離を決定する。ステップ1006で、可視化エンジン134は、エンドユーザに関連付けられたカメラ位置に対する、各3Dオブジェクト間の角距離を決定する。実際には、可視化エンジン134は、そのカメラ位置の視点から表示するために、3D環境をレンダリングしてもよい。ステップ1008で、可視化エンジン134は、各3Dオブジェクトと、エンドユーザに関連付けられたカメラ位置との間の距離を決定する。
[0085]ステップ1010で、可視化エンジン134は、3Dオブジェクト間の直線距離、カメラ位置に対する3Dオブジェクト間の角距離、及び/又は、3Dオブジェクトとカメラ位置の間の距離に基づいて、1つ又は複数のオブジェクトグループを決定する。ステップ1012で、可視化エンジン134は、オブジェクトグループを3D環境内で表示させる。方法1000を実装することによって、可視化エンジン134は、可視の3Dオブジェクトの数を減らすことによって、3D環境を「片付ける」ことができる。
[0086]図11は、本発明の一実施形態による、マルチスケール3Dデータセット132をクエリするための方法ステップのフローチャートである。これらの方法ステップは、図1A及び図1Bのシステムに関連して説明されるが、これらの方法ステップを任意の順序で行うように構成されたいかなるシステムも、本発明の範囲内であることは、当業者には理解されよう。
[0087]図示のように、方法1100はステップ1102で開始し、そこで、マルチスケールデータエンジン130内のクエリエンジン136は、所望の3Dオブジェクトのセットに関連付けられた1つ又は複数の空間特性を指定する、エンドユーザからのクエリを受け取る。空間特性は、例えば、カメラ位置までの最大距離でありうる。一実施形態では、クエリはまた、所望の3Dオブジェクトに関連付けられたカテゴリなど、非空間特性をも指定してもよい。ステップ1104で、クエリエンジン136は、クエリ内で指定された空間特性に合致するいかなる3Dオブジェクトをも識別する。それらの3Dオブジェクトは、マルチスケール3Dデータセット132に関連付けられた3D環境内に存在する。ステップ1106で、クエリエンジン136は、識別された3Dオブジェクトの指示を表示させる。指示は、例えば、識別された3Dオブジェクトの周囲の輝きでありうる。方法1100を実装することによって、クエリエンジン136は、指定された特性に合致する3Dオブジェクトをエンドユーザが識別できるようにする。
[0088]図12は、本発明の一実施形態による、マルチスケール3Dデータセット132に基づいて、ナビゲーションGUIを生成するための方法ステップのフローチャートである。これらの方法ステップは、図1A及び図1Bのシステムに関連して説明されるが、これらの方法ステップを任意の順序で行うように構成されたいかなるシステムも、本発明の範囲内であることは、当業者には理解されよう。
[0089]図示のように、方法1200はステップ1202で開始し、そこで、マルチスケールデータエンジン130内のナビゲーションエンジン138は、マルチスケール3Dデータセット132に関連付けられた3D環境内の現在のカメラ位置を受け取る。現在のカメラ位置を使用して、エンドユーザに対して表示するために3D環境の画像をレンダリングしてもよい。ステップ1204で、ナビゲーションエンジン138は、3D環境内で3Dオブジェクトのセットを識別する。3Dオブジェクトは、個々の3Dオブジェクト、又は、3Dオブジェクトのグループでありうる。ステップ1206で、ナビゲーションエンジン138は、3Dオブジェクトに関連付けられた1つ又は複数の空間特性を決定する。ステップ1208で、ナビゲーションエンジン138は、1つ又は複数のナビゲーションGUIを、1つ又は複数の空間特性に基づいて表示させる。
[0090]エンドユーザがナビゲーションGUIを使用して、3D環境中をナビゲートするとき、方法1200が繰り返し実装されうることは、当業者には理解されよう。例えば、ナビゲーションエンジン138が、方法1200を実装することによって、ナビゲーションGUIを表示させた後、エンドユーザは、カメラを3D環境内の異なる位置へ移動させるために、ナビゲーションGUIを操作してもよい。ナビゲーションエンジン138は次いで、方法1200を再度実装することによって、別のナビゲーションGUIを表示させてもよい。方法1200をこのように1回又は複数回実装することによって、ナビゲーションエンジン138は、様々な異なるナビゲーションGUIを表示させてもよい。
[0091]要するに、マルチスケールデータエンジンは、マルチスケール3Dデータセットにアクセスするように、且つ、そのマルチスケール3Dデータセットに基づいて3D環境を生成するように構成される。マルチスケールデータエンジンは、その環境内で様々な3Dオブジェクトをグループ化するために、3D環境を操作する。マルチスケールデータエンジンはまた、エンドユーザから受け取られた検索基準に合致する3Dオブジェクトを識別するために、3D環境の検索をも実施してもよい。加えて、マルチスケールデータエンジンは、エンドユーザが3D環境をナビゲートできるようにする、様々なナビゲーションGUIを生成するように構成される。エンドユーザには、幅広い種類の異なるスケールで観測可能な特性を含む、複雑な3D環境と対話するための、様々な技術が提供されるので、有利である。そのような手法は、そのような3D環境の各別個のスケールに関連付けられる、視覚的に没入できる詳細でユーザを引き付けるためには、非常に重要である。
[0092]本発明の一実施形態は、コンピュータシステムで使用するためのプログラム製品として実装されてもよい。プログラム製品のプログラム(複数可)は、実施形態の機能(本明細書に記載の方法を含む)を定義し、様々なコンピュータ可読記憶媒体に含まれうる。例示的コンピュータ可読記憶媒体には、限定はされないが、(i)情報が永続的に格納される、書き込み不可能な記憶媒体(例えば、CD−ROMドライブによって可読なCD−ROMディスク、フラッシュメモリ、ROMチップ、又は、任意のタイプのソリッドステート不揮発性半導体メモリなど、コンピュータ内のリードオンリーメモリデバイス)、及び、(ii)変更可能な情報が格納される、書き込み可能な記憶媒体(例えば、ディスケットドライブ内のフロッピーディスク若しくはハードディスクドライブ、又は、任意のタイプのソリッドステートランダムアクセス半導体メモリ)が含まれる。
[0093]本発明を、上記で具体的な実施形態を参照して説明した。しかし、添付の特許請求の範囲に記載したような本発明のより広い精神及び範囲から逸脱することなく、様々な修正及び変更が行われうることは、当業者には理解されよう。上記の説明及び図面は、したがって、限定的な意味ではなく、例示的な意味で見なされるべきである。本発明を、以下の特許請求の範囲に記載する。

Claims (20)

  1. マルチスケール3Dデータセットに関連付けられた3次元(3D)環境をナビゲートするためのナビゲーショングラフィカルユーザインタフェース(GUI)を生成するためのコンピュータ実装方法であって、
    前記3D環境内の現在位置を受け取るステップであり、前記3D環境の可視部分が、前記現在位置に関連付けられた視点に基づいて、表示するためにレンダリングされる、ステップと、
    前記3D環境の不可視部分内に存在する3Dオブジェクトを識別するステップと、
    オブジェクトインジケータを前記3D環境の前記可視部分内に表示させるステップであり、前記オブジェクトインジケータが、前記3D環境の前記不可視部分内の前記3Dオブジェクトの位置を、前記現在位置に対して示す向きを有する、ステップと
    を含む、コンピュータ実装方法。
  2. 前記3D環境の前記可視部分内の前記オブジェクトインジケータの位置が、同じく前記可視部分内に存在する円形境界に制約され、前記方法が、
    前記3D環境内の更新された位置を受け取るステップと、
    前記更新された位置に基づいて、前記オブジェクトインジケータを前記円形境界上で再位置決めするステップと、
    前記オブジェクトインジケータを再配向して、前記更新された位置に対して前記3D環境の前記不可視部分内の前記3Dオブジェクトの前記位置を示すようにするステップと
    をさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記3D環境の前記可視部分内の前記オブジェクトインジケータの位置が、同じく前記可視部分内に存在する球面境界に制約される、請求項1に記載のコンピュータ実装方法。
  4. 前記3D環境内の更新された位置を受け取るステップと、
    前記更新された位置に基づいて、前記オブジェクトインジケータを前記球面境界上で再位置決めするステップと、
    前記オブジェクトインジケータを再配向して、前記更新された位置に対して前記3D環境の前記不可視部分内の前記3Dオブジェクトの前記位置を示すようにするステップと
    をさらに含む、請求項3に記載のコンピュータ実装方法。
  5. 前記方法が、前記球面境界を、前記3D環境の前記可視部分内に存在する2次元(2D)平面上に投影するステップと、前記配向インジケータが前記2D平面上に現れるようにするステップとをさらに含み、前記配向インジケータが、前記現在位置と前記3Dオブジェクトの間の距離を示す、請求項3に記載のコンピュータ実装方法。
  6. 前記球面境界が、前記3D環境の前記不可視部分から得られる1つ又は複数の画像を反射することができる反射表面を有し、前記球面境界が、前記3D環境の前記可視部分内から、前記3D環境の前記不可視部分内の前記3Dオブジェクトの画像を反射する、請求項3に記載のコンピュータ実装方法。
  7. 前記3D環境が追加の球面境界を含み、前記追加の球面境界が反射表面を有し、前記3D環境の前記不可視部分内に存在し、前記追加の球面境界が、前記3D環境の前記不可視部分内から、前記3Dオブジェクトの画像を反射し、前記球面境界が、前記3D環境の前記可視部分内から、前記追加の球面境界の画像を反射する、請求項6に記載のコンピュータ実装方法。
  8. 前記球面境界を、前記3D環境の前記可視部分内に存在する2D平面上に投影するステップと、前記3Dオブジェクトの3Dサムネイル画像が、前記現在位置と前記3Dオブジェクトの間の距離を示す高さで、前記2D平面上に現れるようにするステップとをさらに含む、請求項6に記載のコンピュータ実装方法。
  9. 前記オブジェクトインジケータが2D円板の表面に制約され、前記2D円板がアナモルフィックレンズを備え、前記3D環境の前記可視部分内に存在し、前記アナモルフィックレンズが、前記3D環境の前記可視部分及び前記3D環境の前記不可視部分の両方からの画像を表示するように構成される、1に記載のコンピュータ実装方法。
  10. 命令を含む非一時的コンピュータ可読媒体であって、前記命令が、処理ユニットによって実行されたとき、前記処理ユニットに、
    前記3D環境内の現在位置を受け取るステップであり、前記3D環境の可視部分が、前記現在位置に関連付けられた視点に基づいて、表示するためにレンダリングされる、ステップと、
    前記3D環境の不可視部分内に存在する3Dオブジェクトを識別するステップと、
    オブジェクトインジケータを前記3D環境の前記可視部分内に表示させるステップであり、前記オブジェクトインジケータが、前記3D環境の前記不可視部分内の前記3Dオブジェクトの位置を、前記現在位置に対して示す向きを有する、ステップと
    を行うことによってマルチスケール3Dデータセットに関連付けられた3D環境をナビゲートするためのナビゲーションGUIを生成させる、非一時的コンピュータ可読媒体。
  11. 前記3D環境の前記可視部分内の前記オブジェクトインジケータの位置が、同じく前記可視部分内に存在する円形境界に制約され、前記非一時的コンピュータ可読媒体が、
    前記3D環境内の更新された位置を受け取るステップと、
    前記更新された位置に基づいて、前記オブジェクトインジケータを前記円形境界上で再位置決めするステップと、
    前記オブジェクトインジケータを再配向して、前記更新された位置に対して前記3D環境の前記不可視部分内の前記3Dオブジェクトの前記位置を示すようにするステップと
    をさらに含む、請求項10に記載の非一時的コンピュータ可読媒体。
  12. 前記3D環境の前記可視部分内の前記オブジェクトインジケータの位置が、同じく前記可視部分内に存在する球面境界に制約される、請求項10に記載の非一時的コンピュータ可読媒体。
  13. 前記3D環境内の更新された位置を受け取るステップと、
    前記更新された位置に基づいて、前記オブジェクトインジケータを前記球面境界上で再位置決めするステップと、
    前記オブジェクトインジケータを再配向して、前記更新された位置に対して前記3D環境の前記不可視部分内の前記3Dオブジェクトの前記位置を示すようにするステップと
    をさらに含む、請求項12に記載の非一時的コンピュータ可読媒体。
  14. 前記非一時的コンピュータ可読媒体が、前記球面境界を、前記3D環境の前記可視部分内に存在する2D平面上に投影するステップと、前記配向インジケータが前記2D平面上に現れるようにするステップとをさらに含み、前記配向インジケータが、前記現在位置と前記3Dオブジェクトの間の距離を示す、請求項12に記載の非一時的コンピュータ可読媒体。
  15. 前記球面境界が、前記3D環境の前記不可視部分から得られる1つ又は複数の画像を反射することができる反射表面を有し、前記球面境界が、前記3D環境の前記可視部分内から、前記3D環境の前記不可視部分内の前記3Dオブジェクトの画像を反射する、請求項12に記載の非一時的コンピュータ可読媒体。
  16. 前記3D環境が追加の球面境界を含み、前記追加の球面境界が反射表面を有し、前記3D環境の前記不可視部分内に存在し、前記追加の球面境界が、前記3D環境の前記不可視部分内から、前記3Dオブジェクトの画像を反射し、前記球面境界が、前記3D環境の前記可視部分内から、前記追加の球面境界の画像を反射する、請求項15に記載の非一時的コンピュータ可読媒体。
  17. 前記球面境界を、前記3D環境の前記可視部分内に存在する2D平面上に投影するステップと、前記3Dオブジェクトの3Dサムネイル画像が、前記現在位置と前記3Dオブジェクトの間の距離を示す高さで、前記2D平面上に現れるようにするステップとをさらに含む、請求項15に記載の非一時的コンピュータ可読媒体。
  18. 前記オブジェクトインジケータが2D円板の表面に制約され、前記2D円板がアナモルフィックレンズを備え、前記3D環境の前記可視部分内に存在し、前記アナモルフィックレンズが、前記3D環境の前記可視部分及び前記3D環境の前記不可視部分の両方からの画像を表示するように構成される、請求項10に記載の非一時的コンピュータ可読媒体。
  19. マルチスケール3Dデータセットに関連付けられた3D環境をナビゲートするためのナビゲーションGUIを生成するように構成されたコンピューティングデバイスであって、
    前記3D環境内の現在位置を受け取ることであり、前記3D環境の可視部分が、前記現在位置に関連付けられた視点に基づいて、表示するためにレンダリングされること、
    前記3D環境の不可視部分内に存在する3Dオブジェクトを識別すること、及び
    オブジェクトインジケータを前記3D環境の前記可視部分内に表示させることであり、前記オブジェクトインジケータが、前記3D環境の前記不可視部分内の前記3Dオブジェクトの位置を、前記現在位置に対して示す向きを有すること
    を行うように構成された処理ユニットを備える、コンピューティングデバイス。
  20. 前記コンピューティングデバイスが、プログラム命令を格納するメモリをさらに備え、前記プログラム命令が、前記プロセッサによって実行されたとき、
    前記3D環境内の前記現在位置を受け取ること、
    前記3Dオブジェクトを識別すること、及び
    オブジェクトインジケータを前記3D環境の前記可視部分内に表示させること
    を行うように、前記プロセッサを構成する、請求項19に記載のコンピューティングデバイス。
JP2013522014A 2010-07-30 2011-07-29 マルチスケール3次元配向 Active JP5592011B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US36963510P 2010-07-30 2010-07-30
US61/369,635 2010-07-30
US13/193,531 US10140000B2 (en) 2010-07-30 2011-07-28 Multiscale three-dimensional orientation
US13/193,531 2011-07-28
PCT/US2011/046026 WO2012016220A1 (en) 2010-07-30 2011-07-29 Multiscale three-dimensional orientation

Publications (2)

Publication Number Publication Date
JP2013536502A true JP2013536502A (ja) 2013-09-19
JP5592011B2 JP5592011B2 (ja) 2014-09-17

Family

ID=45528001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013522014A Active JP5592011B2 (ja) 2010-07-30 2011-07-29 マルチスケール3次元配向

Country Status (6)

Country Link
US (1) US10140000B2 (ja)
EP (1) EP2598982A4 (ja)
JP (1) JP5592011B2 (ja)
CN (1) CN103052933A (ja)
DE (1) DE202011110655U1 (ja)
WO (1) WO2012016220A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143203A (ja) * 2015-01-30 2016-08-08 富士フイルム株式会社 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818220B2 (en) 2011-12-28 2017-11-14 General Electric Company Method and system for indicating light direction for a volume-rendered image
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US9786097B2 (en) * 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US20140062998A1 (en) * 2012-09-04 2014-03-06 Google Inc. User Interface for Orienting a Camera View Toward Surfaces in a 3D Map and Devices Incorporating the User Interface
US10019130B2 (en) * 2013-04-21 2018-07-10 Zspace, Inc. Zero parallax drawing within a three dimensional display
WO2015090421A1 (en) * 2013-12-19 2015-06-25 Metaio Gmbh Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US9986225B2 (en) * 2014-02-14 2018-05-29 Autodesk, Inc. Techniques for cut-away stereo content in a stereoscopic display
US10209871B2 (en) * 2015-10-21 2019-02-19 International Business Machines Corporation Two-dimensional indication in contents
CN106345118B (zh) * 2016-08-24 2019-07-30 网易(杭州)网络有限公司 一种渲染方法及装置
US11395020B2 (en) * 2016-09-08 2022-07-19 Telefonaktiebolaget Lm Ericsson (Publ) Bitrate control in a virtual reality (VR) environment
US10922895B2 (en) * 2018-05-04 2021-02-16 Microsoft Technology Licensing, Llc Projection of content libraries in three-dimensional environment
JP7052613B2 (ja) * 2018-07-20 2022-04-12 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
US20230119646A1 (en) * 2021-10-14 2023-04-20 Autodesk, Inc. Integration of a two-dimensional input device into a three-dimensional computing environment
US11550406B1 (en) 2021-10-14 2023-01-10 Autodesk, Inc. Integration of a two-dimensional input device into a three-dimensional computing environment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224849A (ja) * 1999-12-10 2001-08-21 Sony Computer Entertainment Inc エンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6791578B1 (en) 2000-05-30 2004-09-14 Apple Computer, Inc. 16:9 aspect ratio and anamorphic image processing
US7814436B2 (en) 2003-07-28 2010-10-12 Autodesk, Inc. 3D scene orientation indicator system with scene orientation change capability
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US20070139408A1 (en) 2005-12-19 2007-06-21 Nokia Corporation Reflective image objects
US8954886B2 (en) * 2006-08-02 2015-02-10 Ebay Inc. System to present additional item information
US20080150921A1 (en) 2006-12-20 2008-06-26 Microsoft Corporation Supplementing and controlling the display of a data set
CN100504299C (zh) 2007-02-06 2009-06-24 华中科技大学 一种空间非合作物体三维信息的获取方法
US7782319B2 (en) 2007-03-28 2010-08-24 Autodesk, Inc. Three-dimensional orientation indicator and controller
US8191001B2 (en) * 2008-04-05 2012-05-29 Social Communications Company Shared virtual area communication environment based apparatus and methods
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US20090169060A1 (en) * 2007-12-26 2009-07-02 Robert Bosch Gmbh Method and apparatus for spatial display and selection
US20090289937A1 (en) 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
US8719730B2 (en) * 2010-04-23 2014-05-06 Ganz Radial user interface and system for a virtual world game
US8944911B2 (en) * 2010-07-27 2015-02-03 Disney Enterprises, Inc. Online parallel play

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224849A (ja) * 1999-12-10 2001-08-21 Sony Computer Entertainment Inc エンタテインメントシステム、エンタテインメント装置、記録媒体及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNA200901226001; 「ドラゴンクエストIX 星空の守り人 取扱説明書」 , 20090713, p.14-15, SQUARE ENIX *
JPN6014005054; 「ドラゴンクエストIX 星空の守り人 取扱説明書」 , 20090713, p.14-15, SQUARE ENIX *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143203A (ja) * 2015-01-30 2016-08-08 富士フイルム株式会社 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム

Also Published As

Publication number Publication date
EP2598982A1 (en) 2013-06-05
US10140000B2 (en) 2018-11-27
US20120030630A1 (en) 2012-02-02
CN103052933A (zh) 2013-04-17
DE202011110655U1 (de) 2015-07-27
EP2598982A4 (en) 2014-09-24
WO2012016220A1 (en) 2012-02-02
JP5592011B2 (ja) 2014-09-17

Similar Documents

Publication Publication Date Title
JP5592011B2 (ja) マルチスケール3次元配向
US11494995B2 (en) Systems and methods for virtual and augmented reality
KR101993920B1 (ko) 물리적 장면을 표현하기 위한 방법 및 장치
JP5799521B2 (ja) 情報処理装置、オーサリング方法及びプログラム
US20170090460A1 (en) 3D Model Generation From Map Data
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
JP5752715B2 (ja) デバイスレスな拡張現実およびインタラクションのためのプロジェクタおよび深度カメラ
US20170091993A1 (en) 3D Model Generation From Map Data and User Interface
US11367257B2 (en) Information processing apparatus, information processing method, and storage medium
US10481754B2 (en) Systems and methods for manipulating a 3D object in a 3D model using a software widget and surface constraints
US10460510B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
JP2007293429A (ja) 画像閲覧装置、コンピュータの制御方法及びプログラム
JP7273284B2 (ja) データ生成方法、装置およびプログラム
McCrae et al. Exploring the design space of multiscale 3D orientation
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
EP3594906B1 (en) Method and device for providing augmented reality, and computer program
US10891780B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
JP7107015B2 (ja) 点群処理装置、点群処理方法およびプログラム
WO2022089061A1 (zh) 物体标注信息呈现方法、装置、电子设备及存储介质
KR20220155245A (ko) 포지셔닝 방법, 버전 맵 생성 방법 및 장치
Asiminidis Augmented and Virtual Reality: Extensive Review
Niebling et al. Browsing Spatial Photography using Augmented Models
CN115516517A (zh) 用于构建三维几何图形的方法和装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140512

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140730

R150 Certificate of patent or registration of utility model

Ref document number: 5592011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250