JP6797218B2 - インタラクティブなジオコンテキストナビゲーションツール - Google Patents
インタラクティブなジオコンテキストナビゲーションツール Download PDFInfo
- Publication number
- JP6797218B2 JP6797218B2 JP2018565710A JP2018565710A JP6797218B2 JP 6797218 B2 JP6797218 B2 JP 6797218B2 JP 2018565710 A JP2018565710 A JP 2018565710A JP 2018565710 A JP2018565710 A JP 2018565710A JP 6797218 B2 JP6797218 B2 JP 6797218B2
- Authority
- JP
- Japan
- Prior art keywords
- widget
- visual content
- display area
- user interface
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002452 interceptive effect Effects 0.000 title claims description 67
- 230000000007 visual effect Effects 0.000 claims description 328
- 238000000034 method Methods 0.000 claims description 85
- 230000003993 interaction Effects 0.000 claims description 65
- 230000009471 action Effects 0.000 claims description 6
- 230000008034 disappearance Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009834 selective interaction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Automation & Control Theory (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
Description
102 プロバイダコンピューティングシステム、プロバイダシステム
104 ユーザデバイス
106 通信ネットワーク、ネットワーク
108、114 コンピューティングデバイス
110 マップデータベース、データベース
112 ディスプレイデバイス
200 ユーザインターフェース、インターフェース
202 ディスプレイエリア、ユーザインターフェースディスプレイエリア
204 視覚コンテンツ
206 ロケーション
208 インタラクティブなウィジェット、ウィジェット、3次元ウィジェット、インタラクティブな3次元ウィジェット
209 回転軸、軸
210 調整可能な視覚インジケータ、視覚インジケータ、インジケータ
212 仮想カメラ
214 ポリゴン、第1のフォーマット、第1の形態
216 仮想距離
218 コーナーピクセル
220 エッジ
222 投影の中心
250 ズームレベル
252 第1のズームしきい値、ズームしきい値
314 第2のフォーマット、第2の異なる形態
316 形状
402 第2のズームしきい値
404 3次元物体
502 元のロケーション
504 ユーザ操作可能カーソル、カーソル
506、604、614 ユーザ入力、インタラクション
508 新しいロケーション
510 外周
602 元のロケーション、領域
606 新しいロケーション、領域
608 第2のインジケータ、インジケータ
612 方向
702 ユーザ入力、選択インタラクション
704A ユーザ選択可能オプション、第1のユーザ選択可能オプション
704B ユーザ選択可能オプション、第2のユーザ選択可能オプション
704C ユーザ選択可能オプション、第3のユーザ選択可能オプション
1082、1142 プロセッサ
1084 メモリデバイス
1086 コンピュータ可読命令、命令
1088、1148 データ
1089、1152 ネットワークインターフェース
1144 メモリ、メモリデバイス
1146 命令
1150 入出力デバイス
Claims (34)
- 3次元物体上の元のロケーションまたは領域を表す視覚コンテンツが表示される、ユーザインターフェースディスプレイエリアを表示させるステップと、
前記3次元物体の形状に対応する形状を有するインタラクティブな3次元ウィジェットを表示させるステップと、
受信されたインタラクションに基づいて前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツを適合させることによって、前記インタラクティブな3次元ウィジェットに対するインタラクションの前記受信に応答するステップであって、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記ロケーションまたは領域を前記インタラクティブな3次元ウィジェット上で示すように構成される視覚インジケータを前記インタラクティブな3次元ウィジェット上に提供させるステップを含み、前記視覚インジケータが、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツに対応する、前記3次元ウィジェットの表面の部分を描写する形状を有するポリゴンを備え、前記ポリゴンが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションを示す、ステップと
を含む、方法。 - 前記インタラクティブな3次元ウィジェットが、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記ロケーションまたは領域に対応する前記インタラクティブな3次元ウィジェットの部分が可視であるように配向される、請求項1に記載の方法。
- 前記インタラクションに基づいて前記視覚インジケータまたは前記インタラクティブな3次元ウィジェットを調整することによって、前記ユーザインターフェースディスプレイエリアに対するインタラクションの受信に応答するステップを含む、請求項2に記載の方法。
- 前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツが仮想カメラと前記3次元物体との間の仮想距離に依存し、前記ポリゴンの前記形状が、
前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツのコーナーピクセルの各々について、前記コーナーピクセルと前記仮想カメラの投影の中心から伸びる光線との間の交点を決定するステップと、
前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツのエッジの各々における少なくとも1つのピクセルについて、前記ピクセルと、前記仮想カメラの前記投影の中心から伸びる光線との間の交点を決定するステップと
によって計算され、
前記ポリゴンの前記形状が、前記決定された交点によって定義される、
請求項1に記載の方法。 - 前記視覚インジケータが、前記3次元ウィジェットの配向に対する前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツに関連付けられた配向を示すように構成される、請求項3に記載の方法。
- 前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツが仮想カメラと前記3次元物体との間の仮想距離に依存し、前記方法が、
前記仮想距離がしきい値を上回る場合、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記ロケーションまたは領域に対応する前記3次元ウィジェット上のエリアを描写するように構成される第1の形態において前記視覚インジケータを提供するステップと、
前記仮想距離が前記しきい値を下回る場合、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記ロケーションまたは領域に対応する前記インタラクティブな3次元ウィジェット上のロケーションを示すように構成される、第2の異なる形態において前記視覚インジケータを提供するステップと
を含む、請求項3に記載の方法。 - 前記インタラクティブな3次元ウィジェットを消滅させることによって、前記3次元物体の前記ロケーションまたは領域を表す前記視覚コンテンツが前記ユーザインターフェースディスプレイエリアの全体をもはや満たさないとの判定に応答するステップ
を含む、請求項1から6のいずれか一項に記載の方法。 - 前記インタラクティブな3次元ウィジェットを消滅させることに続いて、前記インタラクティブな3次元ウィジェットを再現させることによって、前記3次元物体の前記ロケーションまたは領域を表す前記視覚コンテンツが前記ユーザインターフェースディスプレイエリアの全体を満たすとの判定に応答するステップ
を含む、請求項7に記載の方法。 - 前記インタラクティブな3次元ウィジェットに対する前記受信されたインタラクションが、ナビゲーションインタラクションを備え、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツを適合させることが、前記ナビゲーションインタラクションに基づいて前記3次元物体上の新しいロケーションまたは領域を表す視覚コンテンツを表示させることを含む、請求項1から8のいずれか一項に記載の方法。
- 前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツを適合させることが、前記元のロケーションまたは領域を表す前記視覚コンテンツから前記新しいロケーションまたは領域を表す前記視覚コンテンツまでのナビゲーションを表すアニメーションを表示させることを含む、請求項9に記載の方法。
- 前記アニメーションが、前記3次元物体の全体が前記ユーザインターフェースディスプレイエリアにおいて可視になるまで、前記元のロケーションまたは領域を表す前記視覚コンテンツからズームアウトすること、前記3次元物体を回転させること、および前記新しいロケーションまたは領域を表す前記視覚コンテンツにズームインすることを含む、請求項10に記載の方法。
- 前記アニメーションの表示中に、前記アニメーションを現在のビューにおいて停止することによって前記ユーザインターフェースディスプレイエリアについてのインタラクションの受信に応答するステップを含む、請求項10または11に記載の方法。
- 前記新しいロケーションまたは領域に対応する前記インタラクティブな3次元ウィジェットの部分が前記ユーザインターフェースディスプレイ上で可視であるように前記インタラクティブな3次元ウィジェットの回転させることによって、前記ナビゲーションインタラクションの受信に応答するステップを含む、請求項9から12のいずれか一項に記載の方法。
- 前記ナビゲーションインタラクションの受信中に、前記元のロケーションまたは領域から前記新しいロケーションまたは領域までの経路を前記3次元ウィジェット上で表示させるステップ
を含む、請求項9から13のいずれか一項に記載の方法。 - 前記インタラクティブな3次元ウィジェットが回転軸の周りを回転可能であり、前記3次元ウィジェットに対するインタラクションが現在受信されていないとき、前記回転軸および前記ユーザインターフェースディスプレイエリアの相対配向が一定である、請求項1から14のいずれか一項に記載の方法。
- 1つまたは複数のユーザ選択可能オプションを表示させることによって、前記インタラクティブな3次元ウィジェットについての選択インタラクションの受信に応答するステップを含む、請求項1から15のいずれか一項に記載の方法。
- インタラクティブなジオコンテキストインターフェースを提供するコンピュータ実装方法であって、
1つまたは複数のコンピューティングデバイスによって、ディスプレイデバイス上に表示するためのユーザインターフェースを提供するステップであって、前記ユーザインターフェースが、視覚コンテンツを提示するためのユーザインターフェースディスプレイエリアを含み、前記視覚コンテンツが3次元物体上の元のロケーションを表す、ステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記ディスプレイデバイス上に表示するためのインタラクティブなウィジェットを提供するステップであって、前記ウィジェットが、3次元として表され、かつ前記3次元物体に対応する外観を有し、
前記ウィジェットが、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションを前記ウィジェット上で示すように構成される視覚インジケータを備え、前記視覚インジケータが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツに対応する前記ウィジェットの部分を描写する形状を有するポリゴンを備え、前記ポリゴンが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションを示す、ステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記ユーザインターフェースディスプレイエリアおよび前記ウィジェットのうちの少なくとも1つに向けられたユーザ入力を示すデータを受信するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記ユーザ入力を示す前記データに少なくとも部分的に基づいて、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整するステップと
を含む、コンピュータ実装方法。 - 前記ウィジェットが、前記ユーザインターフェースディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションに対応する前記ウィジェットの部分が可視であるように配向される、請求項17に記載のコンピュータ実装方法。
- 前記視覚インジケータが、前記ウィジェットの配向に対する前記ディスプレイエリアにおいて表示された前記視覚コンテンツに関連付けられた配向を示すように構成される、請求項17または18に記載のコンピュータ実装方法。
- 前記視覚コンテンツが、前記3次元物体の表面に対する調整可能なズームレベルに少なくとも部分的に基づいて表示され、前記視覚インジケータが、前記ズームレベルがズームしきい値を上回るとき第1の形態において表示され、前記視覚インジケータが、前記ズームレベルが前記ズームしきい値を下回るとき、第2の形態において表示される、請求項17から19のいずれか一項に記載のコンピュータ実装方法。
- 前記視覚コンテンツが、前記3次元物体の表面に対する調整可能なズームレベルに少なくとも部分的に基づいて表示され、前記方法が、
前記1つまたは複数のコンピューティングデバイスによって、前記ズームレベルが第2のズームしきい値を上回るとき、前記視覚インジケータを消滅させるステップ
をさらに含む、請求項17から20のいずれか一項に記載のコンピュータ実装方法。 - 前記ユーザ入力が前記ユーザインターフェースディスプレイエリアに向けられ、前記1つまたは複数のコンピューティングデバイスによって、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整するステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記ユーザインターフェースディスプレイエリアに向けられた前記ユーザ入力に少なくとも部分的に基づいて、前記視覚インジケータを調整するステップ
を含む、請求項17から21のいずれか一項に記載のコンピュータ実装方法。 - 前記ユーザ入力が前記ユーザインターフェースディスプレイエリアに向けられ、前記ユーザ入力が新しいロケーションに向けられたナビゲーションインタラクションであり、前記1つまたは複数のコンピューティングデバイスによって、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整するステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記新しいロケーションに対応する前記ウィジェットの部分が可視であるように前記ウィジェットを調整するステップ
を含む、請求項17から22のいずれか一項に記載のコンピュータ実装方法。 - 前記ユーザ入力が前記ウィジェットに向けられ、前記ユーザ入力が新しいロケーションに向けられたナビゲーションインタラクションであり、前記1つまたは複数のコンピューティングデバイスによって、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整するステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記新しいロケーションに対応するように前記ディスプレイエリアにおいて提示された前記視覚コンテンツを調整するステップ
を含む、請求項17から23のいずれか一項に記載のコンピュータ実装方法。 - 前記1つまたは複数のコンピューティングデバイスによって、前記新しいロケーションに対応するように前記ディスプレイエリアにおいて提示された前記視覚コンテンツを調整するステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記元のロケーションから前記新しいロケーションまでのナビゲーションを表す前記視覚コンテンツに関連付けられたアニメーションを提示するステップ
を含む、請求項24に記載のコンピュータ実装方法。 - 前記ユーザ入力の受信中に、前記1つまたは複数のコンピューティングデバイスによって、前記ウィジェット上に表示するための前記元のロケーションに対応する前記ウィジェットの部分から前記新しいロケーションに対応する前記ウィジェットの部分まで伸びる第2インジケータを提示するステップをさらに含む、請求項24または25に記載のコンピュータ実装方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記ユーザ入力の受信中に、前記視覚インジケータを消滅させるステップをさらに含む、請求項25または26に記載のコンピュータ実装方法。
- 前記ウィジェットが、回転軸の周りを回転可能であり、前記ウィジェットに対するインタラクションが現在受信されていないとき、前記回転軸および前記ディスプレイエリアの相対配向が一定である、請求項17から27のいずれか一項に記載のコンピュータ実装方法。
- インタラクティブなジオコンテキストインターフェースを提供するためのシステムであって、
1つまたは複数のプロセッサと、
1つまたは複数のメモリデバイスであって、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
ディスプレイデバイス上に表示するためのユーザインターフェースを提供することであって、前記ユーザインターフェースが、視覚コンテンツを提示するためのディスプレイエリアを含み、前記視覚コンテンツが3次元物体上の元のロケーションを表す、提供することと、
前記ディスプレイデバイス上に表示するためのインタラクティブなウィジェットを提供することであって、前記ウィジェットが、3次元として表され、かつ前記3次元物体に対応する外観を有し、前記ウィジェットが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツに関連付けられたジオコンテキストを提供するように構成される視覚インジケータを備え、前記視覚インジケータが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツに対応する前記ウィジェットの部分を描写する形状を有するポリゴンを備え、前記ポリゴンが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションを示す、提供することと、
前記ディスプレイエリアおよび前記ウィジェットのうちの少なくとも1つに向けられたユーザ入力を示すデータを受信することと、
前記ユーザ入力を示す前記データに少なくとも部分的に基づいて、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整することと
を含む動作を行わせる命令を記憶する、1つまたは複数のメモリデバイスと
を備える、システム。 - 前記視覚インジケータが、前記ウィジェットの配向に対する前記ディスプレイエリアにおいて表示された前記視覚コンテンツに関連付けられた配向を示すように構成される形状を備える、請求項29に記載のシステム。
- 前記ユーザ入力が前記ウィジェットに向けられ、前記ユーザ入力が、新しいロケーションに向けられたナビゲーションインタラクションであり、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整することが、
前記新しいロケーションに対応するように前記ディスプレイエリアにおいて提示された前記視覚コンテンツを調整すること
を含む、請求項29または30に記載のシステム。 - 前記新しいロケーションに対応するように前記ディスプレイエリアにおいて提示された前記視覚コンテンツを調整することが、
前記元のロケーションを表す前記視覚コンテンツから前記新しいロケーションを表す前記視覚コンテンツまでのナビゲーションを表す前記視覚コンテンツに関連付けられたアニメーションを提示すること
を含む、請求項31に記載のシステム。 - ユーザデバイスであって、
ディスプレイデバイスと、
1つまたは複数のプロセッサと、
1つまたは複数のメモリデバイスであって、前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、
前記ディスプレイデバイス上に表示するためのユーザインターフェースを提示することであって、前記ユーザインターフェースが視覚コンテンツを提示するためのディスプレイエリアを含み、前記視覚コンテンツが3次元物体上の元のロケーションを表す、提示することと、
前記ディスプレイデバイス上に表示するためのインタラクティブなウィジェットを提示することであって、前記ウィジェットが、3次元として表され、かつ前記3次元物体に対応する外観を有し、前記ウィジェットが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツに関連付けられたジオコンテキストを提供するように構成される調整可能な視覚インジケータを備え、前記視覚インジケータが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツに対応する前記ウィジェットの部分を描写する形状を有するポリゴンを備え、前記ポリゴンが、前記ディスプレイエリアにおいて表示された前記視覚コンテンツによって表された前記元のロケーションを示す、提示することと、
前記ディスプレイエリアおよび前記ウィジェットのうちの少なくとも1つに向けられたユーザ入力を示すデータを受信することと、
前記ユーザ入力を示す前記データに少なくとも部分的に基づいて、前記視覚コンテンツ、前記ウィジェット、および前記視覚インジケータのうちの少なくとも1つを調整することと
を含む動作を行わせる命令を記憶する、1つまたは複数のメモリデバイスと
を備える、ユーザデバイス。 - 前記ユーザ入力が前記ディスプレイエリアに向けられるとき、前記ウィジェットの少なくとも可視の部分が、前記ディスプレイエリアにおいて提示された前記視覚コンテンツに一致するように調整し、前記ユーザ入力が前記ウィジェットに向けられるとき、前記ディスプレイエリアにおいて提示された少なくとも前記視覚コンテンツが、前記ウィジェットの前記可視の部分に一致するように調整する、請求項33に記載のユーザデバイス。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2016/044007 WO2018022013A1 (en) | 2016-07-26 | 2016-07-26 | Interactive geo-contextual navigation tool |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019527401A JP2019527401A (ja) | 2019-09-26 |
JP6797218B2 true JP6797218B2 (ja) | 2020-12-09 |
Family
ID=56800354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018565710A Active JP6797218B2 (ja) | 2016-07-26 | 2016-07-26 | インタラクティブなジオコンテキストナビゲーションツール |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190072407A1 (ja) |
EP (2) | EP3491626A1 (ja) |
JP (1) | JP6797218B2 (ja) |
KR (1) | KR102203692B1 (ja) |
CN (1) | CN109313824B (ja) |
WO (1) | WO2018022013A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402043B1 (en) * | 2017-08-10 | 2019-09-03 | Gopro, Inc. | Systems and methods for indicating highlights within spherical videos |
KR102053659B1 (ko) * | 2017-09-13 | 2019-12-09 | (주)다비오 | 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치 |
US10270967B1 (en) | 2017-11-30 | 2019-04-23 | Gopro, Inc. | Auto-recording of media data |
US11609688B2 (en) * | 2021-05-25 | 2023-03-21 | Caterpillar Inc. | Systems and methods for managing on-site machines by spatial and contextual information |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10340075A (ja) * | 1997-06-06 | 1998-12-22 | Matsushita Electric Ind Co Ltd | 画像表示方法 |
US8924869B2 (en) * | 2005-08-12 | 2014-12-30 | Barry Fellman | Service for generation of customizable display widgets |
US7782319B2 (en) * | 2007-03-28 | 2010-08-24 | Autodesk, Inc. | Three-dimensional orientation indicator and controller |
US8493408B2 (en) * | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
US8665216B2 (en) * | 2008-12-03 | 2014-03-04 | Tactile World Ltd. | System and method of tactile access and navigation for the visually impaired within a computer system |
KR101670956B1 (ko) * | 2009-08-07 | 2016-10-31 | 구글 인코포레이티드 | 시각 질의의 다수 영역들에 대한 검색 결과들을 제시하기 위한 사용자 인터페이스 |
US8447136B2 (en) * | 2010-01-12 | 2013-05-21 | Microsoft Corporation | Viewing media in the context of street-level images |
US20140118337A1 (en) * | 2012-10-31 | 2014-05-01 | Rightware Oy | Data elements visualisation and user interaction method and system |
CN110946651A (zh) * | 2013-08-13 | 2020-04-03 | 波士顿科学国际有限公司 | 解剖项的计算机可视化 |
JP6128185B2 (ja) * | 2015-11-02 | 2017-05-17 | 株式会社リコー | 装置、方法、およびプログラム |
-
2016
- 2016-07-26 JP JP2018565710A patent/JP6797218B2/ja active Active
- 2016-07-26 KR KR1020187032895A patent/KR102203692B1/ko active IP Right Grant
- 2016-07-26 EP EP16757104.1A patent/EP3491626A1/en active Pending
- 2016-07-26 WO PCT/US2016/044007 patent/WO2018022013A1/en unknown
- 2016-07-26 CN CN201680086698.0A patent/CN109313824B/zh active Active
- 2016-07-26 US US16/093,909 patent/US20190072407A1/en not_active Abandoned
- 2016-07-26 EP EP23169836.6A patent/EP4258092A3/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4258092A2 (en) | 2023-10-11 |
CN109313824B (zh) | 2023-10-03 |
US20190072407A1 (en) | 2019-03-07 |
CN109313824A (zh) | 2019-02-05 |
WO2018022013A1 (en) | 2018-02-01 |
EP3491626A1 (en) | 2019-06-05 |
JP2019527401A (ja) | 2019-09-26 |
KR20180134391A (ko) | 2018-12-18 |
EP4258092A3 (en) | 2023-12-13 |
KR102203692B1 (ko) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10719212B2 (en) | Interface for navigation imagery | |
CN108474666B (zh) | 用于在地图显示中定位用户的系统和方法 | |
US8928657B2 (en) | Progressive disclosure of indoor maps | |
US9652115B2 (en) | Vertical floor expansion on an interactive digital map | |
EP3996029B1 (en) | Integrating maps and street views | |
US8464181B1 (en) | Floor selection on an interactive digital map | |
JP6797218B2 (ja) | インタラクティブなジオコンテキストナビゲーションツール | |
EP3635339B1 (en) | Dynamically varying visual properties of indicators on a digital map | |
US20090040186A1 (en) | Method and System for Displaying Multiple Synchronized Images | |
JP2021185408A (ja) | ビルブロックデータのマージに関する方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US9092897B2 (en) | Method and apparatus for displaying interface elements | |
US20100231581A1 (en) | Presentation of Data Utilizing a Fixed Center Viewpoint | |
Fang et al. | Smooth Fly-to-Orbiting Animation for Viewing Points of Interest in 3D | |
Santana et al. | Displaying Geo-Referenced Data on Interactive 3D Virtual Globes for Mobile Devices and Web | |
KR20150088537A (ko) | 디지털 지도의 공간감을 향상시키는 방법 및 프로그램된 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6797218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |