JP5781157B2 - ディスプレイにビューを表示するための方法、モバイルプラットフォーム、装置、コンピュータ可読記録媒体 - Google Patents
ディスプレイにビューを表示するための方法、モバイルプラットフォーム、装置、コンピュータ可読記録媒体 Download PDFInfo
- Publication number
- JP5781157B2 JP5781157B2 JP2013515521A JP2013515521A JP5781157B2 JP 5781157 B2 JP5781157 B2 JP 5781157B2 JP 2013515521 A JP2013515521 A JP 2013515521A JP 2013515521 A JP2013515521 A JP 2013515521A JP 5781157 B2 JP5781157 B2 JP 5781157B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- graphic element
- mobile platform
- frame
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Mobile Radio Communication Systems (AREA)
- Telephone Function (AREA)
Description
tooth(登録商標)ネットワーク、IEEE 802.15x、または何らかの他のタイプのネットワークでもよい。本技法はまた、WWAN、WLAN、および/またはWPANの任意の組合せとともに実装され得る。
li TVi=0 式1
式中、li=(ai, bi, ci)は、i本目の線を表す。RANSAC(RANdom SAmple Consensus)などの方法を使用して、垂直の消点を推定することができる。画像がほぼ直立のカメラによって生成されるとき、記載の消点推定方法が使用され得ることを理解されたい。必要な場合、他の既知の消点推定方法が使用されてもよい。
102 衛星ビークル
104 セルラータワー
106 ワイヤレス通信アクセスポイント
108 画像
110 ネットワーク
112 サーバ
114 マップデータベース
115 平面画像データベース
120 カメラ
130 方位センサ
140 受信機
144 アンテナ
145 ワイヤレストランシーバ
150 モバイルプラットフォーム制御部
152 プロセッサ
153 クロック
154 関連メモリ
155 画像処理エンジン
156 ハードウェア
157 ファームウェア
158 ソフトウェア
162 ディスプレイ
164 キーパッド
252 建築物
254 道路
262A 3次元線
262C 2次元線
266 ピン
268 扇形方位要素
272A マスク
274A マスク
450 画像
452 建築物
454 第1の組の水平線
456 第2の組の水平線
458 1組の垂直線
472 建築物
474 位置
486 座標系
606 カメラ位置
608 平面
610 ガウス球
640 消点
Claims (35)
- デバイスのディスプレイに現在のビューを表示するステップと、
前記ディスプレイ上の前記現在のビューと次のビューとの間の移行を要求するステップであり、前記現在のビューおよび前記次のビューが前記デバイスのカメラによってキャプチャされた画像のカメラビューおよびマップビューのうちの一方から選択された異なるビューである、ステップと、
前記ディスプレイおいてユーザインターフェースの移行を生成し、表示するステップであり、前記ユーザインターフェースの移行が、
現在のビューにおけるユーザの向いている方位を次のビューにおいて示すために、第1のフレーム中の前記現在のビューと第2のフレーム中の前記次のビューとの間の視覚的接続を提供するための、前記現在のビューにおける照準線および視覚的に識別可能な環境特性のうちの少なくとも一方を前記次のビューへ移行する複数のフレームと、
前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第1のフレーム中の第1のグラフィック要素と、前記次のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第2のフレーム中の第2のグラフィック要素と、前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供するために、前記第1のフレームと前記第2のフレームとの間に表示される少なくとも1つの中間フレーム中の少なくとも1つの中間グラフィック要素とをさらに含み、
前記第1のグラフィック要素、前記少なくとも1つの中間グラフィック要素、および前記第2のグラフィック要素が、前記次のビューにおける異なる方位への、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方の第1の方位の変化を示す、ステップと、
前記ディスプレイに前記次のビューを表示するステップと
を含むモバイルプラットフォームによって実行される方法。 - 前記第1のグラフィック要素が、前記現在のビュー上に表示される第1の拡張オーバーレイを含み、前記第2のグラフィック要素が前記次のビュー上に表示される第2の拡張オーバーレイを含み、前記少なくとも1つの中間グラフィック要素が前記第1の拡張オーバーレイと前記第2の拡張オーバーレイとの間の視覚的接続を提供するために、前記第1の拡張オーバーレイと前記第2の拡張オーバーレイとの間に表示される少なくとも1つの中間拡張オーバーレイとを含む、請求項1に記載の方法。
- 前記ユーザインターフェースの移行を生成し、表示するステップが、前記中間グラフィック要素を用いて前記第1のグラフィック要素と前記第2のグラフィック要素との間の位置、方位、形状、およびパースペクティブのうちの少なくとも1つの変化を生成し、表示するステップを含む、請求項1に記載の方法。
- 前記現在のビューにおいて少なくとも1つの視覚的に識別可能な環境特性を識別するステップと、
前記次のビューにおいて同じ少なくとも1つの視覚的に識別可能な環境特性を識別するステップと、
前記現在のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素を準備するステップと、
前記次のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第2のグラフィック要素を準備するステップと、
前記第1のグラフィック要素と前記第2のグラフィック要素との間の前記視覚的接続を提供する前記少なくとも1つの中間グラフィック要素を準備するステップと、
前記第1のフレーム中に前記現在のビューの前記第1のグラフィック要素を表示するステップと、
前記少なくとも1つの中間フレーム中に前記少なくとも1つの中間グラフィック要素を表示するステップと、
前記第2のフレーム中に前記次のビューの前記第2のグラフィック要素を表示するステップと
をさらに含む請求項1に記載の方法。 - 前記識別された少なくとも1つの視覚的に識別可能な環境特性が、線、幾何学的形状、エリア、建築物、および色の塊のうちの少なくとも1つである、請求項4に記載の方法。
- 前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素および前記第2のグラフィック要素が、前記視覚的に識別可能な環境特性の線、幾何学的形状、エリア、輪郭、トリミングされた画像のうちの少なくとも1つであり、不透明、透明、2次元、3次元のうちの少なくとも1つであるか、または前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素および前記第2のグラフィック要素が、前記環境特性を異なって着色された線または異なって着色された不透明のマスクを使用することによって識別する要素である請求項4に記載の方法。
- 前記ユーザインターフェースの移行を表示しながら、前記現在のビューから前記画像を取り除くステップをさらに含む請求項1に記載の方法。
- 前記現在のビューと前記次のビューとの間の前記移行が、ジェスチャーを使用して要求される、請求項1に記載の方法。
- 前記現在のビューが前記カメラビューであり、前記次のビューが前記マップビューである、請求項1に記載の方法。
- 前記現在のビューが前記マップビューであり、前記次のビューが前記カメラビューである、請求項1に記載の方法。
- 前記ユーザインターフェースの移行を表示しながら、前記次のビューが表示される、請求項1に記載の方法。
- 前記マップビューにおいてユーザの位置を示すステップをさらに含む請求項1に記載の方法。
- 線、点線、2次元の矢印、3次元の矢印、および前記カメラビューからの近似の視野を示す扇形方位要素のうちの少なくとも1つによってユーザの位置からの一連のサイトパスを示すステップをさらに含み、
前記扇形方位要素は、前記デバイスが向いている方向にウェッジを表示することによって、前記ユーザの可能性のあるビューアングルを示す、請求項1に記載の方法。 - 前記マップビューが2次元のマップ表現、3次元のマップ表現、および衛星画像図のうちの少なくとも1つである、請求項1に記載の方法。
- モバイルプラットフォームであって、
向いている方向の画像をキャプチャするように動作可能なカメラと、
前記カメラが向いている前記方向に関するデータを提供する方位センサと、
測位データを提供する衛星測位システム受信機と、
前記カメラ、前記方位センサ、および前記衛星測位システム受信機に接続されたプロセッサと、
前記プロセッサに接続されたメモリと、
前記メモリに接続されたディスプレイと、
前記メモリに保持され、前記プロセッサに、前記衛星測位システム受信機からの前記測位データを使用して、前記モバイルプラットフォームの位置と、前記方位センサからの前記データを使用して、前記カメラが向いている前記方向とを決定させ、前記モバイルプラットフォームの前記位置に基づいてデジタルマップを取得させ、前記ディスプレイ上に現在のビューを表示させ、前記現在のビューと次のビューとの間の移行の要求に応答して、現在のビューにおけるユーザの向いている方位を次のビューにおいて示すために、第1のフレーム中の前記現在のビューと第2のフレーム中の前記次のビューとの間の視覚的接続を提供するための、前記現在のビューにおける照準線および視覚的に識別可能な環境特性のうちの少なくとも一方を前記次のビューへ移行する複数のフレームを含むユーザインターフェースの移行を生成させ、表示させ、前記現在のビューおよび前記次のビューが前記カメラによってキャプチャされた前記画像のカメラビューおよびマップビューのうちの一方から選択された異なるビューであり、前記ユーザインターフェースの移行が、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第1のフレーム中の第1のグラフィック要素と、前記次のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第2のフレーム中の第2のグラフィック要素と、前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供するために、前記第1のフレームと前記第2のフレームとの間に表示される少なくとも1つの中間フレーム中の少なくとも1つの中間グラフィック要素とをさらに含み、前記第1のグラフィック要素、前記少なくとも1つの中間グラフィック要素、および前記第2のグラフィック要素が、前記次のビューにおける異なる方位への、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方の第1の方位の変化を示し、前記ディスプレイにおいて前記次のビューを表示させるように、前記プロセッサにおいて稼働するソフトウェアと
を含むモバイルプラットフォーム。 - ワイヤレストランシーバをさらに備え、前記デジタルマップが前記ワイヤレストランシーバを使用して取得される、請求項15に記載のモバイルプラットフォーム。
- 前記第1のグラフィック要素が、前記現在のビュー上に表示される第1の拡張オーバーレイを含み、前記第2のグラフィック要素が、前記次のビュー上に表示される第2の拡張オーバーレイを含み、前記少なくとも1つの中間グラフィック要素が、前記第1の拡張オーバーレイと前記第2の拡張オーバーレイとの間の視覚的接続を提供するために、前記第1の拡張オーバーレイと前記第2の拡張オーバーレイとの間に表示される少なくとも1つの中間拡張オーバーレイとを含む、請求項15に記載のモバイルプラットフォーム。
- 前記ユーザインターフェースの移行が、前記中間グラフィック要素を用いた前記第1のグラフィック要素と前記第2のグラフィック要素との間の位置、方位、形状、およびパースペクティブのうちの少なくとも1つの変化である、請求項15に記載のモバイルプラットフォーム。
- 前記ソフトウェアがさらに、前記プロセッサに、前記モバイルプラットフォームの前記位置に基づいて平面図画像を取得させ、前記カメラからの画像における少なくとも1つの視覚的に識別可能な環境特性、および前記平面図画像における同じ少なくとも1つの視覚的に識別可能な環境特性を識別させ、前記現在のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素を準備させ、前記次のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第2のグラフィック要素を準備させ、前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供する前記少なくとも1つの中間フレーム中の前記少なくとも1つの中間グラフィック要素を準備させ、前記第1のフレーム中に前記現在のビューの前記第1のグラフィック要素を表示させ、前記少なくとも1つの中間フレーム中に前記少なくとも1つの中間グラフィック要素を表示させ、前記第2のフレーム中に前記次のビューの前記第2のグラフィック要素を表示させる、請求項15に記載のモバイルプラットフォーム。
- 前記識別された少なくとも1つの視覚的に識別可能な環境特性が、線、幾何学的形状、エリア、建築物、および色の塊のうちの少なくとも1つである、請求項19に記載のモバイルプラットフォーム。
- 前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素および前記第2のグラフィック要素が、前記視覚的に識別可能な環境特性の線、幾何学的形状、エリア、輪郭、トリミングされた画像のうちの少なくとも1つであり、不透明、透明、2次元、3次元のうちの少なくとも1つであるか、または前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素および前記第2のグラフィック要素が、前記環境特性を異なって着色された線または異なって着色された不透明のマスクを使用することによって識別する要素である請求項19に記載のモバイルプラットフォーム。
- 前記ソフトウェアが、前記プロセッサに、前記方位センサによって検出されるジェスチャーに基づいて前記移行の要求を検出させる、請求項15に記載のモバイルプラットフォーム。
- 前記現在のビューが前記カメラからの画像を示す前記カメラビューであり、前記次のビューが前記マップビューである、請求項15に記載のモバイルプラットフォーム。
- 前記現在のビューが前記マップビューであり、前記次のビューが前記カメラからの画像を示す前記カメラビューである、請求項15に記載のモバイルプラットフォーム。
- 前記ソフトウェアが、前記プロセッサに、前記マップビューにおいてユーザの位置を示させる、請求項15に記載のモバイルプラットフォーム。
- 前記マップビューが2次元のマップ表現、3次元のマップ表現、および衛星画像図のうちの少なくとも1つである、請求項15に記載のモバイルプラットフォーム。
- モバイルプラットフォームのディスプレイで現在のビューと次のビューとの間のユーザインターフェースの移行を提供するための装置であって、前記ユーザインターフェースの移行が、現在のビューにおけるユーザの向いている方位を次のビューにおいて示すために、前記現在のビューと前記次のビューとの間の視覚的接続を提供し、前記現在のビューと前記次のビューが、カメラビューおよびマップビューのうちの一方から選択された異なるビューであり、前記装置が、
前記カメラビューを提供するための手段と、
前記マップビューを取得するための手段と、
現在のビューにおけるユーザの向いている方位を次のビューにおいて示すために、第1のフレーム中の前記現在のビューと第2のフレーム中の前記次のビューとの間の視覚的接続を提供するための、前記現在のビューにおける照準線および視覚的に識別可能な環境特性のうちの少なくとも一方を前記次のビューへ移行する複数のフレームを含み、前記ユーザインターフェースの移行が、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第1のフレーム中の第1のグラフィック要素と、前記次のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第2のフレーム中の第2のグラフィック要素と、前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供するために、前記第1のフレームと前記第2のフレームとの間に表示される少なくとも1つの中間フレーム中の少なくとも1つの中間グラフィック要素とをさらに含み、前記第1のグラフィック要素、前記少なくとも1つの中間グラフィック要素、および前記第2のグラフィック要素が、前記次のビューにおける異なる方位への、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方の第1の方位の変化を示す、ユーザインターフェースの移行を生成するための手段と、
前記現在のビューと、前記次のビューと、前記ユーザインターフェースの移行とを表示するための手段と
を含む装置。 - 前記現在のビューと前記次のビューとの間の移行を要求するための手段をさらに含み、前記ユーザインターフェースの移行を生成するための前記手段が、前記要求に応答して前記ユーザインターフェースの移行を生成する、請求項27に記載の装置。
- 前記ユーザインターフェースの移行が、前記中間グラフィック要素を用いた前記第1のグラフィック要素と前記第2のグラフィック要素との間の拡張オーバーレイの位置、方位、形状、およびパースペクティブのうちの少なくとも1つの変化である、請求項27に記載の装置。
- 前記カメラビューにおける少なくとも1つの視覚的に識別可能な環境特性と、前記マップビューの同じ少なくとも1つの視覚的に識別可能な環境特性とを識別するための手段をさらに含み、ユーザインターフェースの移行を生成するための前記手段が、前記現在のビューにおける前記視覚的に識別可能な環境特性についての前記第1のグラフィック要素、前記次のビューにおける前記視覚的に識別可能な環境特性についての前記第2のグラフィック要素、および前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供する少なくとも1つの中間グラフィック要素を準備するための手段を含む、請求項27に記載の装置。
- 前記識別された少なくとも1つの視覚的に識別可能な環境特性が、線、幾何学的形状、エリア、建築物、および色の塊のうちの少なくとも1つである、請求項30に記載の装置。
- マップビューを取得するための前記手段が、前記マップビューとして表示するために、デジタルマップを取得するためのワイヤレストランシーバである、請求項27に記載の装置。
- 前記マップビューが2次元のマップ表現、3次元のマップ表現、および衛星画像図のうちの少なくとも1つである、請求項27に記載の装置。
- プログラムコードを記録したコンピュータ可読記録媒体であって、
モバイルプラットフォームが向いている方向を決定するためのプログラムコードと、
モバイルプラットフォームの位置を決定するためのプログラムコードと、
前記モバイルプラットフォームの前記位置に基づいて、デジタルマップを取得するためのプロフラムコードと、
前記モバイルプラットフォームのディスプレイ上に現在のビューおよび次のビューを表示するためのプログラムコートであり、前記現在のビューおよび前記次のビューが前記モバイルプラットフォームのカメラによってキャプチャされた画像のカメラビューおよび前記デジタルマップのビューのうちの一方から選択された異なるビューである、プログラムコードと、
前記現在のビューと前記次のビューとの間のユーザインターフェースの移行を生成し、表示するためのプログラムコードであり、前記ユーザインターフェースの移行が、現在のビューにおけるユーザの向いている方位を次のビューにおいて示すために、第1のフレーム中の前記現在のビューと第2のフレーム中の前記次のビューとの間の視覚的接続を提供するための、前記現在のビューにおける照準線および視覚的に識別可能な環境特性のうちの少なくとも一方を前記次のビューへ移行する複数のフレームを含み、前記ユーザインターフェースの移行が、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第1のフレーム中の第1のグラフィック要素と、前記次のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方を識別する前記第2のフレーム中の第2のグラフィック要素と、前記第1のグラフィック要素と前記第2のグラフィック要素との間の視覚的接続を提供するために、前記第1のフレームと前記第2のフレームとの間に表示される少なくとも1つの中間フレーム中の少なくとも1つの中間グラフィック要素とをさらに含み、前記第1のグラフィック要素、前記少なくとも1つの中間グラフィック要素、および前記第2のグラフィック要素が、前記次のビューにおける異なる方位への、前記現在のビューにおける前記照準線および前記視覚的に識別可能な環境特性のうちの少なくとも一方の第1の方位の変化を示す、プログラムコードと
を含むコンピュータ可読記録媒体。 - 前記モバイルプラットフォームのカメラからの画像における少なくとも1つの視覚的に識別可能な環境特性と、前記デジタルマップにおける同じ少なくとも1つの視覚的に識別可能な環境特性とを識別するためのプログラムコードと、
前記現在のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第1のグラフィック要素、前記次のビューにおける前記少なくとも1つの視覚的に識別可能な環境特性についての前記第2のグラフィック要素、および前記第1のグラフィック要素と前記第2のグラフィック要素との間の前記視覚的接続を提供する前記少なくとも1つの中間グラフィック要素を生成するためのプログラムコードと
をさらに含む請求項34に記載のコンピュータ可読記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/816,955 | 2010-06-16 | ||
US12/816,955 US9684989B2 (en) | 2010-06-16 | 2010-06-16 | User interface transition between camera view and map view |
PCT/US2011/040760 WO2011159937A1 (en) | 2010-06-16 | 2011-06-16 | User interface transition between camera view and map view |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013538332A JP2013538332A (ja) | 2013-10-10 |
JP5781157B2 true JP5781157B2 (ja) | 2015-09-16 |
Family
ID=44627442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013515521A Active JP5781157B2 (ja) | 2010-06-16 | 2011-06-16 | ディスプレイにビューを表示するための方法、モバイルプラットフォーム、装置、コンピュータ可読記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9684989B2 (ja) |
EP (1) | EP2583446B1 (ja) |
JP (1) | JP5781157B2 (ja) |
CN (1) | CN102939742B (ja) |
WO (1) | WO2011159937A1 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012041221A1 (zh) * | 2010-09-27 | 2012-04-05 | 北京联想软件有限公司 | 电子设备、显示方法和文件保存方法 |
US8510039B1 (en) * | 2010-10-05 | 2013-08-13 | The Boeing Company | Methods and apparatus for three-dimensional localization and mapping |
US9429438B2 (en) * | 2010-12-23 | 2016-08-30 | Blackberry Limited | Updating map data from camera images |
US10242456B2 (en) * | 2011-06-23 | 2019-03-26 | Limitless Computing, Inc. | Digitally encoded marker-based augmented reality (AR) |
US9639757B2 (en) * | 2011-09-23 | 2017-05-02 | Corelogic Solutions, Llc | Building footprint extraction apparatus, method and computer program product |
US9019279B1 (en) * | 2011-10-04 | 2015-04-28 | Google Inc. | Systems and method for navigating between a nadir view and an oblique view of a map |
US10139985B2 (en) | 2012-06-22 | 2018-11-27 | Matterport, Inc. | Defining, displaying and interacting with tags in a three-dimensional model |
US9786097B2 (en) | 2012-06-22 | 2017-10-10 | Matterport, Inc. | Multi-modal method for interacting with 3D models |
US10127722B2 (en) | 2015-06-30 | 2018-11-13 | Matterport, Inc. | Mobile capture visualization incorporating three-dimensional and two-dimensional imagery |
US10163261B2 (en) | 2014-03-19 | 2018-12-25 | Matterport, Inc. | Selecting two-dimensional imagery data for display within a three-dimensional model |
US9135735B2 (en) * | 2012-06-26 | 2015-09-15 | Qualcomm Incorporated | Transitioning 3D space information to screen aligned information for video see through augmented reality |
GB2506338A (en) | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
WO2014033354A1 (en) * | 2012-08-30 | 2014-03-06 | Nokia Corporation | A method and apparatus for updating a field of view in a user interface |
US10180715B2 (en) | 2012-10-05 | 2019-01-15 | Elwha Llc | Correlating user reaction with at least an aspect associated with an augmentation of an augmented view |
US10713846B2 (en) | 2012-10-05 | 2020-07-14 | Elwha Llc | Systems and methods for sharing augmentation data |
US10269179B2 (en) | 2012-10-05 | 2019-04-23 | Elwha Llc | Displaying second augmentations that are based on registered first augmentations |
US9135705B2 (en) * | 2012-10-16 | 2015-09-15 | Qualcomm Incorporated | Sensor calibration and position estimation based on vanishing point determination |
WO2014152489A1 (en) * | 2013-03-15 | 2014-09-25 | Brian Bare | System and method for providing secure data for display using augmented reality |
US9639964B2 (en) | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
US20140267411A1 (en) * | 2013-03-15 | 2014-09-18 | Elwha Llc | Indicating observation or visibility patterns in augmented reality systems |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
JP5885714B2 (ja) * | 2013-08-28 | 2016-03-15 | 京セラドキュメントソリューションズ株式会社 | 画像形成システムおよび出力指示プログラム |
USD749624S1 (en) * | 2013-09-27 | 2016-02-16 | Zya, Inc. | Display screen or portion thereof with animated graphical user interface |
US9530239B2 (en) | 2013-11-14 | 2016-12-27 | Microsoft Technology Licensing, Llc | Maintaining 3D labels as stable objects in 3D world |
JP6189774B2 (ja) * | 2014-03-19 | 2017-08-30 | 株式会社ジオ技術研究所 | 3次元地図表示システム |
US10038838B2 (en) | 2015-05-29 | 2018-07-31 | Hover Inc. | Directed image capture |
US9581457B1 (en) | 2015-12-03 | 2017-02-28 | At&T Intellectual Property I, L.P. | System and method for displaying points of interest on a heads-up display |
US10157501B2 (en) * | 2016-01-08 | 2018-12-18 | Skyyfish, LLC | Camera angle visualization for aerial vehicle flight plan |
KR102603634B1 (ko) * | 2016-02-04 | 2023-11-20 | 애플 인크. | 무선 레인징에 기초한 전자 디바이스들의 제어 및 정보의 디스플레이 |
KR102576654B1 (ko) * | 2016-10-18 | 2023-09-11 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
CN106331383B (zh) * | 2016-11-21 | 2020-08-28 | 努比亚技术有限公司 | 一种图像存储方法及移动终端 |
US10866102B2 (en) * | 2016-12-23 | 2020-12-15 | X Development Llc | Localization of robotic vehicles |
US11493930B2 (en) | 2018-09-28 | 2022-11-08 | Intrinsic Innovation Llc | Determining changes in marker setups for robot localization |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
KR102468309B1 (ko) * | 2018-04-26 | 2022-11-17 | 한국전자통신연구원 | 영상 기반 건물 검색 방법 및 장치 |
CN110647603B (zh) * | 2018-06-27 | 2022-05-27 | 百度在线网络技术(北京)有限公司 | 图像标注信息的处理方法、装置和系统 |
US10824160B2 (en) | 2018-09-28 | 2020-11-03 | X Development Llc | Robot localization with co-located markers |
US10852740B2 (en) | 2018-09-28 | 2020-12-01 | X Development Llc | Determining the orientation of flat reflectors during robot mapping |
US10964112B2 (en) | 2018-10-12 | 2021-03-30 | Mapbox, Inc. | Candidate geometry displays for augmented reality |
US11461976B2 (en) * | 2018-10-17 | 2022-10-04 | Mapbox, Inc. | Visualization transitions for augmented reality |
US10885327B2 (en) * | 2019-01-28 | 2021-01-05 | Uber Technologies, Inc. | Efficient handling of digital map data differences |
US20210019908A1 (en) * | 2019-07-15 | 2021-01-21 | Microsoft Technology Licensing, Llc | Building Recognition via Object Detection and Geospatial Intelligence |
US11412350B2 (en) | 2019-09-19 | 2022-08-09 | Apple Inc. | Mobile device navigation system |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6272431B1 (en) | 1997-04-29 | 2001-08-07 | Thomas Zamojdo | Method for displaying a map in a vehicle en-route guidance system |
EP1751499B1 (en) | 2004-06-03 | 2012-04-04 | Making Virtual Solid, L.L.C. | En-route navigation display method and apparatus using head-up display |
US7720436B2 (en) | 2006-01-09 | 2010-05-18 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
EP2003423B1 (en) | 2005-06-06 | 2013-03-27 | TomTom International B.V. | Navigation device with camera-info |
GB0523512D0 (en) | 2005-11-18 | 2005-12-28 | Applied Generics Ltd | Enhancing traffic and navigation information with visual and audio data |
NO330248B1 (no) * | 2007-10-11 | 2011-03-14 | Aptomar As | Et marint sokesystem |
JP5227065B2 (ja) | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
WO2010046123A1 (en) * | 2008-10-23 | 2010-04-29 | Lokesh Bitra | Virtual tagging method and system |
US8493408B2 (en) * | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
US8427508B2 (en) * | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
US8427536B2 (en) | 2009-11-19 | 2013-04-23 | Qualcomm Incorporated | Orientation determination of a mobile station using side and top view images |
US8624902B2 (en) * | 2010-02-04 | 2014-01-07 | Microsoft Corporation | Transitioning between top-down maps and local navigation of reconstructed 3-D scenes |
-
2010
- 2010-06-16 US US12/816,955 patent/US9684989B2/en active Active
-
2011
- 2011-06-16 WO PCT/US2011/040760 patent/WO2011159937A1/en active Application Filing
- 2011-06-16 JP JP2013515521A patent/JP5781157B2/ja active Active
- 2011-06-16 CN CN201180029414.1A patent/CN102939742B/zh active Active
- 2011-06-16 EP EP11727614.7A patent/EP2583446B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9684989B2 (en) | 2017-06-20 |
CN102939742A (zh) | 2013-02-20 |
JP2013538332A (ja) | 2013-10-10 |
US20110310087A1 (en) | 2011-12-22 |
CN102939742B (zh) | 2015-04-08 |
EP2583446A1 (en) | 2013-04-24 |
WO2011159937A1 (en) | 2011-12-22 |
EP2583446B1 (en) | 2016-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5781157B2 (ja) | ディスプレイにビューを表示するための方法、モバイルプラットフォーム、装置、コンピュータ可読記録媒体 | |
JP5992573B2 (ja) | 拡張現実方向方位マスク | |
US8427536B2 (en) | Orientation determination of a mobile station using side and top view images | |
US9996936B2 (en) | Predictor-corrector based pose detection | |
US20150371440A1 (en) | Zero-baseline 3d map initialization | |
KR101570195B1 (ko) | 실내 포지셔닝을 위한 로고 검출 | |
US20110115671A1 (en) | Determination of elevation of mobile station | |
US9870514B2 (en) | Hypotheses line mapping and verification for 3D maps | |
Carlotto et al. | Locative view: visualizing geo-referenced objects in space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140303 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140310 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140403 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140410 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140507 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5781157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |