JP6312715B2 - モバイルデバイスを用いるナビゲーションのための方向性ビュー及びx線ビュー技法 - Google Patents

モバイルデバイスを用いるナビゲーションのための方向性ビュー及びx線ビュー技法 Download PDF

Info

Publication number
JP6312715B2
JP6312715B2 JP2015559239A JP2015559239A JP6312715B2 JP 6312715 B2 JP6312715 B2 JP 6312715B2 JP 2015559239 A JP2015559239 A JP 2015559239A JP 2015559239 A JP2015559239 A JP 2015559239A JP 6312715 B2 JP6312715 B2 JP 6312715B2
Authority
JP
Japan
Prior art keywords
mobile device
target point
visual display
display
poi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015559239A
Other languages
English (en)
Other versions
JP2016515197A5 (ja
JP2016515197A (ja
Inventor
チェン、ジアジャン
チャオ、フイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016515197A publication Critical patent/JP2016515197A/ja
Publication of JP2016515197A5 publication Critical patent/JP2016515197A5/ja
Application granted granted Critical
Publication of JP6312715B2 publication Critical patent/JP6312715B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[0001]屋内ナビゲーションは、屋外ナビゲーションとは異なる課題を生じさせる。例えば、大きな開放スペースを有する複雑な屋内環境、例えば、大型のデパート、又はスポーツスタジアム、では、“通り”又は“玄関”は、よく画定されておらず、さらに、ユーザは自由に又はほぼ自由に移動することができるため、屋外環境とはナビゲーションが異なる。従って、屋外環境技法を用いて屋内環境内のユーザに方向誘導を提供することは適切に機能しないおそれがある。
[0002]本開示によるナビゲーション情報をモバイルデバイス上に表示する方法例は、モバイルデバイスにおいて、モバイルデバイスの位置の表示(indication)を入手することと、モバイルデバイスにおいて、モバイルデバイスと関連付けられた方向の表示を入手することと、対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイント(point of interest)を決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用することと、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することと、を含む。少なくとも1つの該当する対象ポイントの各々に関する少なくとも1つのビジュアル表示の外観は、ビジュアル表示と関連付けられた該当する対象ポイントのモバイルデバイスからの距離又はモバイルデバイスとビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する。
[0003]該方法の実装は、次の特徴のうちの1つ以上を含むことができる。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する。使用することは、モバイルデバイスからの第1の異なる距離における第1の該当する対象ポイント及び第1の距離よりも大きいモバイルデバイスからの第2の異なる距離における第2の該当する対象ポイントを決定することをさらに備え、表示することは、第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示することをさらに備え、第1のビジュアル表示は、第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、モバイルデバイスと該当する対象ポイントとの間における既知の物理的障害物の存在に依存するビジュアル表示の透明度を有し、該当する対象ポイントはモバイルデバイスに関する既知の物理的障害物を越えて配置され、ビジュアル表示は透明である。地理上の対象エリアは、屋内環境を備える。対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用することは、モバイルデバイスの位置及びモバイルデバイスの方向の表示と関連付けられた少なくとも1つのアイレイ(eye ray)を識別することと、屋内環境の幾何学的表現を通じてアイレイを投影することと、アイレイが交わる少なくとも1つの対象ポイントを少なくとも1つの該当する対象ポイントとして識別することと、を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することは、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートすることと、該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングすることと、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示及びモバイルデバイスのカメラの視野の表現を表示することと、を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ及び透明度のうち少なくとも1つを有する。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することは、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートすることと、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの距離に基づいて少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定することと、少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び少なくとも1つの該当する対象ポイントの各々と関連付けられたアルファチャネル値に基づいて合成画像コンテンツを生成することと、合成画像コンテンツをモバイルデバイスのディスプレイ上に表示することと、を含む。少なくとも1つの対象ポイントの各々と関連付けられた図形表示は、図形表示と関連付けられた該当する対象ポイントの画像を備える。
[0004]本開示によるナビゲーション情報をモバイルデバイス上に表示するための装置例は、モバイルデバイスにおいて、モバイルデバイスの位置の表示を入手するための手段と、モバイルデバイスにおいて、モバイルデバイスと関連付けられた方向の表示を入手するための手段と、対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用するための手段と、少なくとも1つの該当する対象ポイントの各々に関するビジュアル表示をモバイルデバイス上に表示するための手段と、を含む。少なくとも1つの該当する対象ポイントの各々に関するビジュアル表示の外観は、ビジュアル表示と関連付けられた該当する対象ポイントのモバイルデバイスからの距離又はモバイルデバイスとビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する。
[0005]該装置の実装は、次の特徴のうちの1つ以上を含むことができる。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する。使用するための手段は、モバイルデバイスからの第1の異なる距離における第1の該当する対象ポイント及び第1の距離よりも大きいモバイルデバイスからの第2の異なる距離における第2の該当する対象ポイントを決定するため手段を含み、表示するための手段は、第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示するための手段をさらに含み、第1のビジュアル表示は、第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、モバイルデバイスと該当する対象ポイントとの間における既知の物理的障害物の存在に依存するビジュアル表示の透明度を有し、該当する対象ポイントはモバイルデバイスに関する既知の物理的障害物を越えて配置され、ビジュアル表示は透明である。地理上の対象エリアは、屋内環境を備える。対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用するための手段は、モバイルデバイスの位置及びモバイルデバイスの方向の表示と関連付けられた少なくとも1つのアイレイ(eye ray)を識別するための手段と、屋内環境の幾何学的表現を通じてアイレイを投影するための手段と、アイレイが交わる少なくとも1つの対象ポイントを少なくとも1つの該当する対象ポイントとして識別するための手段と、を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示するための手段は、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートするための手段と、該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングするための手段と、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示及びモバイルデバイスのカメラの視野の表現を表示するための手段と、を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ及び透明度のうち少なくとも1つを有する。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示するため手段は、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートするための手段と、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの距離に基づいて少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定するための手段と、少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び少なくとも1つの該当する対象ポイントの各々と関連付けられたアルファチャネル値に基づいて合成画像コンテンツを生成するための手段と、合成画像コンテンツをモバイルデバイスのディスプレイ上に表示するための手段と、を含む。少なくとも1つの対象ポイントの各々と関連付けられた図形表示は、図形表示と関連付けられた該当する対象ポイントの画像を備える。
[0006]本開示による非一時的なコンピュータによって読み取り可能な媒体例は、ナビゲーション情報をモバイルデバイス上に表示するための命令を格納している。それらの命令は、モバイルデバイスにおいて、モバイルデバイスの位置の表示を入手すること、モバイルデバイスにおいて、モバイルデバイスと関連付けられた方向の表示を入手すること、対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用すること、及び、少なくとも1つの該当する対象ポイントの各々とスー関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することをコンピュータに行わせるように構成される。少なくとも1つの該当する対象ポイントの各々に関する少なくとも1つのビジュアル表示の外観は、ビジュアル表示と関連付けられた該当する対象ポイントのモバイルデバイスからの距離又はモバイルデバイスとビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する。
[0007]該非一時的なコンピュータによって読み取り可能な媒体の実装は、次の特徴のうちの1つ以上を含むことができる。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する。使用することをコンピュータに行わせるように構成された命令は、モバイルデバイスからの第1の異なる距離における第1の該当する対象ポイント及び第1の距離よりも大きいモバイルデバイスからの第2の異なる距離における第2の該当する対象ポイントを決定することをコンピュータに行わせるための命令を含み、表示することをコンピュータに行わせるための命令は、第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示することをコンピュータに行わせるための命令を含み、第1のビジュアル表示は、第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、モバイルデバイスと該当する対象ポイントとの間における既知の物理的障害物の存在に依存するビジュアル表示の透明度を有し、該当する対象ポイントはモバイルデバイスに関する既知の物理的障害物を越えて配置され、ビジュアル表示は透明である。地理上の対象エリアは、屋内環境を備える。対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用することをコンピュータに行わせるための命令は、モバイルデバイスの位置及びモバイルデバイスの方向の表示と関連付けられた少なくとも1つのアイレイ(eye ray)を識別すること、屋内環境の幾何学的表現を通じてアイレイを投影すること、及び、アイレイが交わる少なくとも1つの対象ポイントを少なくとも1つの該当する対象ポイントとして識別することをコンピュータに行わせるための命令を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することをコンピュータに行わせるための命令は、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートすること、該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングすること、及び、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示及びモバイルデバイスのカメラの視野の表現を表示することをコンピュータに行わせるための命令を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ又は透明度のうち少なくとも1つを有する。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示することをコンピュータに行わせるための命令は、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートすること、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの距離に基づいて少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定すること、少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び少なくとも1つの該当する対象ポイントの各々と関連付けられたアルファチャネル値に基づいて合成画像コンテンツを生成すること、及び、合成画像コンテンツをモバイルデバイスのディスプレイ上に表示することをコンピュータに行わせるための命令を含む。少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示は、図形表示と関連付けられた該当する対象ポイントの画像を備える。
[0008]本開示によるナビゲーション情報をモバイルデバイス上に表示するための装置例は、データを無線で送信及び受信するように構成されたトランシーバと、プロセッサによって実行可能なプログラムコードを格納するように構成されたメモリと、プロセッサと、を含む。プロセッサは、モバイルデバイスにおいて、モバイルデバイスの位置の表示を入手し、モバイルデバイスにおいて、モバイルデバイスと関連付けられた方向の表示を入手し、対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用し、及び、少なくとも1つの該当する対象ポイントの各々に関連する少なくとも1つのビジュアル表示をモバイルデバイス上に表示するように構成される。少なくとも1つの該当する対象ポイントの各々に関する少なくとも1つのビジュアル表示の外観は、ビジュアル表示と関連付けられた該当する対象ポイントのモバイルデバイスからの距離又はモバイルデバイスとビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する。
[0009]該装置の実装は、次の特徴のうちの1つ以上を含むことができる。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する。対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用するように構成されるプロセッサは、モバイルデバイスからの第1の異なる距離における第1の該当する対象ポイント及び第1の距離よりも大きいモバイルデバイスからの第2の異なる距離における第2の該当する対象ポイントを決定するようにさらに構成され、及び、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示するように構成されるプロセッサは、第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示するようにさらに構成され、第1のビジュアル表示は、第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、モバイルデバイスと該当する対象ポイントとの間における既知の物理的障害物の存在に依存するビジュアル表示の透明度を有し、及び、該当する対象ポイントはモバイルデバイスに関する既知の物理的障害物を越えて配置され、ビジュアル表示は透明である。地理上の対象エリアは、屋内環境を備える。対象ポイントのうちでモバイルデバイスの位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するためにモバイルデバイスの位置の表示、モバイルデバイスと関連付けられた方向の表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、対象ポイントと関連付けられたエリアに関する情報を使用するように構成されるプロセッサは、モバイルデバイスの位置及びモバイルデバイスの方向の表示と関連付けられた少なくとも1つのアイレイを識別し、屋内環境の幾何学的表現を通じてアイレイを投影し、及び、アイレイが交わる少なくとも1つの対象ポイントを少なくとも1つの該当する対象ポイントとして識別するようにさらに構成される。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示するように構成されるプロセッサは、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートし、該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングし、及び、少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示及びモバイルデバイスのカメラの視野の表現を表示するようにさらに構成される。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示は、該当する対象ポイントのモバイルデバイスからの距離に依存するビジュアル表示のサイズ及び透明度のうち少なくとも1つを有する。少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をモバイルデバイス上に表示するように構成されるプロセッサは、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの各々の距離に基づいて少なくとも1つの該当する対象ポイントをソートし、モバイルデバイスの位置からの少なくとも1つの該当する対象ポイントの距離に基づいて少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定し、少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び少なくとも1つの該当する対象ポイントの各々と関連付けられたアルファチャネル値に基づいて合成画像コンテンツを生成し、及び合成画像コンテンツをモバイルデバイスのディスプレイ上に表示するようにさらに構成される。少なくとも1つの対象ポイントの各々と関連付けられた図形表示は、図形表示と関連付けられた該当する対象ポイントの画像を備える。
ここにおいて説明される品目及び/又は技法は、次の能力のうちの1つ以上、及び、述べられていない能力を提供することができる。
[0010]無線通信システムの簡略化された図である。 [0011]図1において例示されるモバイルデバイスを実装するために使用することができるモバイルデバイスの機能上のブロック図である。 [0012]図2において示されるメモリの機能モジュールを例示する図1において例示されるモバイルデバイスの機能上のブロック図である。 [0013]図1において例示されるナビゲーションサーバを実装するために使用することができるコンピュータシステムの機能上のブロック図である。 [0014]図1において例示されるロケーションサーバを実装するために使用することができるコンピュータシステムの機能上のブロック図である。 [0015]ナビゲーション情報をモバイルデバイス上に表示するためのプロセスのブロック流れ図である。 [0016]該当する対象ポイントの組を決定するためのプロセスのブロック流れ図である。 [0017]モバイルデバイスのカメラの視野内の該当する対象ポイントの方向性ビューをモバイルデバイスのディスプレイ上に表示することを決定するためのプロセスのブロック流れ図である。 [0018]モバイルデバイスのカメラの視野内の対象ポイントのX線ビューをモバイルデバイスのディスプレイ上に表示することを決定するためのプロセスのブロック流れ図である。 [0019]モバイルデバイスのカメラの視野内のPOIの方向性ビューを表示するモバイルデバイスの例を提供する。 [0020]地理上の対象エリアのX線ビューを地理上の対象エリアの画像からどのようにして生成することができるかを示した例を提供する。 [0020]POIと関連付けられた画像を提供する。 [0020]地理上の対象エリアの2Dモデルを通じてモバイルデバイスの現在位置から投影されたアイレイの例示を提供する。 [0020]地理上の対象エリアの画像及びPOIと関連付けられた画像に基づいて生成されたX線ビューを提供する。
[0021]モバイルデバイスを用いての屋内環境におけるナビゲーション及び/又は屋内環境と屋外環境の組み合わせにおけるナビゲーションを補助するための技法が提供される。ここにおいてナビゲーション技法が提供される屋内環境及び/又は屋内環境と屋外環境の組み合わせは、概して、“地理上の対象エリア”と呼ばれる。提供される技法は、屋内環境を備える地理上の対象エリア、例えば、オフィスビル、ショッピングモール、ホテル、官庁、イベント開催地、又はその他の屋内環境、におけるナビゲーションを補助することができる。提供される技法は、屋内環境と屋外環境の組み合わせを備える地理上の対象エリア、例えば、屋内空間と屋外空間の組み合わせである企業のキャンパス又は大学のキャンパス、におけるナビゲーションも補助することができる。提供される技法は、ユーザが屋外エリアから屋内エリアにナビゲーションすること又はその逆を希望するその他のエリア、例えば、ユーザが通りレベルから1つ以上の建物内にナビゲーションすること又はその逆を希望することができ及び地理上の対象エリア内のPOIを見ることができる下町エリア又はショッピング地区、にも適用可能である。
[0022]提供されるナビゲーション技法は、対象ポイント(POI)のビジュアル表示をモバイルデバイスのユーザに提示することができる。ユーザに提示されるPOIは、ユーザ及び/又はモバイルデバイスのカメラにとって不可視であるPOIを含むことができる。POIのビジュアル表示は、POIのテキスト表示及び/又は図形表示を含むことができる。POIのビジュアル表示は、モバイルデバイスからのPOIの方向に提供することができ及びPOIがモバイルデバイスの位置からどれだけ離れているかを示す表示を含むことができる。ビジュアル表示は、各POIが地理上の対象エリア内の建物の物理的障害物(例えば、壁、床、又は天井)を越えているかどうかを示すこともできる。ビジュアル表示は、モバイルデバイスの位置からのPOIの距離の感覚(sense)を提供することができ、例えば、モバイルデバイスからの距離が増大するのに応じて表示のサイズを小さくし、及び/又は、モバイルデバイスからの距離が増大するのに応じて表示の透明度を増すことができる。
[0023]一実装例においては、モバイルデバイス、例えば、携帯電話又はタブレットコンピュータは、モバイルデバイスの位置及び方位を決定することができる。その位置及び方位を用いて、モバイルデバイスは、モバイルデバイスのカメラのビューイング方向又は視野(FOV)を決定するように構成することができる。モバイルデバイスは、POIに対応する位置及びエリアを含む二次元(2D)又は三次元(3D)マップとFOVを比較することができる。モバイルデバイスは、モバイルデバイスの現在位置及び方位に基づいてモバイルデバイスのカメラのFOV内にあるPOIに関するビジュアル表示をモバイルデバイスのディスプレイ上に提供することができる。
[0024]図1は、ここにおいて開示される屋内環境の向上されたナビゲーションのための技法を実装することができる無線通信システム例の簡略化された図である。図1において示される例では、無線ネットワーク環境は、無線アクセスポイント115(無線アクセスポイントの各例は、別々の英字で示される−例えば、115a、115b、及び115c)と、基地局140と、複数のモバイルデバイス120(それらの各々の例は、別々の英字で示される−例えば、125a、125b、及び125c)と、ネットワーク110と、ナビゲーションサーバ125と、ロケーションサーバ150と、を含む。
[0025]図1において示されるネットワーク環境例は、3つの無線アクセスポイント115a、115b、及び115cを含むが、ここにおいて開示される技法を実装するために使用することができるその他のネットワーク環境は、より多くの無線アクセスポイントを含むことができる。さらに、無線アクセスポイントは、屋内環境全体にわたって分散することができ、及び、屋内環境内の複数の異なる床上に設置することができる。用語“アクセスポイント”は、単純化を目的として使用されるが、より一般的には通信デバイスを意味し、それの一例は、無線ローカルエリアネットワーク、例えば、IEEE802シリーズに準拠したネットワーク、におけるアクセスポイントを含み、Wi−Fiと共通して呼ばれるIEEE802.11規格系統を含む。例えば、Bluetooth(登録商標)を使用するデバイスは、本開示による通信デバイスであることができる。従って、用語アクセスポイントの使用は、その他の種類の通信ネットワークを排除するものではない。さらに、無線アクセスポイント115は、IEEE802シリーズからの規格に加えての又はIEEE802シリーズからの規格に代わるその他の無線通信規格を実装するように構成することができる。無線アクセスポイント115は、モバイル通信ネットワークに関する基地局を動作させるように構成されるフェムトセル又はピコセルとして実装することもできる。無線アクセスポイント115は、固定された位置に配置することができ又は移動型であることができる。例えば、無線アクセスポイント115は、WiFiホットスポットを提供するように構成され及びWiFiホットスポットへのネットワーク接続性を提供するためにモバイル通信ネットワーク、例えば、WAN、に無線接続するように構成されるモバイルデバイスであることができる。
[0026]基地局140は、複数のモバイルデバイス、例えば、モバイルデバイス120a及び120b、と無線通信するように構成することができる。基地局140は、屋内環境内に位置することができ及び/又は屋内環境の少なくとも一部分と重なり合うカバレッジエリアを提供することができる。基地局140は、モバイル通信ネットワークプロバイダと関連付けることができ及びモバイルデバイスに関する1つ以上の無線通信プロトコルを用いて通信するように構成することができる。例えば、基地局140は、より多くの無線通信プロトコル、例えば、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、単一搬送波FDMA(SC−FDMA)、ロングタームエボリューション(LTE)、及び/又はその他の無線通信プロトコル、に基づいて使用するように構成することができる。例えば、基地局140は、LTE無線通信規格を採用した無線通信システムにおけるエボルブドノードB(eNB)であることができる。ここにおいて説明される無線通信は、基地局140によって実装することができる無線プロトコルのタイプのうちの一部の例であるにすぎず、ここにおいて説明される技法をこれらのプロトコルを用いる無線通信ネットワークに限定することは意図されない。図1において例示されるネットワーク環境は、単一の基地局140を例示するだけであるが、屋内環境、例えば、ここにおいて開示される技法を実装することができるそれら、は、複数の基地局140のカバレッジエリア内に存在することができる。
[0027]図1において示されるネットワーク環境例は、2つのモバイルデバイス120a及び120bを含むが、ここにおいて開示される技法を実装するために使用することができるその他のネットワーク環境は、それよりも多い又はそれよりも少ないモバイルデバイスを含むことができる。モバイルデバイス120a及び120bは、1つ以上のサーバ、例えば、ナビゲーションサーバ125及び/又はロケーションサーバ150、と通信するように構成することができる。モバイルデバイス120a及び120bは、無線アクセスポイント115のうちの1つ又は無線基地局140を通じてサーバと通信するように構成することができる。
[0028]ナビゲーションサーバ125は、1つ以上のモバイルデバイス120に提供することができ及びモバイルデバイス120によって実行することができる電子コンテンツ、例えば、アプリケーション、を格納するように構成することができる。その他の実装においては、ネットワーク環境は、情報及び/又は電子コンテンツをモバイルデバイス120a及び120bに提供するように構成することもできるその他のサーバ(示されていない)を含むことができる。ナビゲーションサーバ125は、屋内環境に関する2D及び/又は3Dマップをモバイルデバイス120に提供するように構成することができる。ナビゲーションサーバ125は、屋内環境の所有者又は管理者によって実装することができ、又は、第三者、例えば、無線ネットワークサービスプロバイダ、によって実装することができる。ナビゲーションサーバ125を実装するために使用することができるナビゲーションサーバの実装例が図4において提供される。
[0029]ロケーションサーバ150は、位置に基づくサービス、例えば、モバイルデバイス120の位置を決定すること及び/又はモバイルデバイス120がモバイルデバイス120の位置を決定するために使用することができる補助データを提供すること、を提供するように構成することができる。ナビゲーションサーバ125を実装するために使用することができるナビゲーションサーバの実装例が図5において提供される。幾つかの実装においては、ナビゲーションサーバ125及びロケーションサーバ150は、同じサーバに実装することができる。
[0030]図2は、モバイルデバイス、例えば、図1において例示されるモバイルデバイス120a及び120b、を実装するために使用することができるシステムアーキテクチャの例である。モバイルデバイス120は、図2において例示されるコンポーネントの一部又は全部を含むことができ及び図3において例示される追加のコンポーネントを含むことができ及び様々な機能、例えば、以下において詳細に説明される図6乃至9において例示されるプロセス、を実装するように構成することができる。
[0031]モバイルデバイス120は、センサ205(例えば、ジャイロ、加速度センサ、慣性測定ユニット(IMU)及び/又はその他のタイプのセンサ)と、センサ205によって収集されたデータを処理するためのセンサプロセッサ210と、を含むことができる。センサ又はカメラによって収集されたデータは、モバイルデバイスの方位、モバイルデバイスの加速度又は速度、及び/又はモバイルデバイス120の位置を決定するのに役立つことができるその他の情報を決定するために使用することができる。センサ205によって収集されたデータは、モバイルデバイス120上の1つ以上のアプリケーションに入力を提供するために使用することもできる。モバイルデバイス120は、モバイルデバイス120がどのような方位であるかを決定するためにセンサ205によって収集されたデータを使用するように構成することができ及び屋内環境内のモバイルデバイスと関連付けられた視野を決定するために及びその視野をモバイルデバイス120上に表示するために屋内環境内でのモバイルデバイスの推定位置に加えてその情報を使用することができる。屋内環境内への視野は、ユーザが位置する屋内環境の増強されたビューをユーザに提供することができ、それは、ユーザが屋内環境内をナビゲーションするのを補助することができる。
[0032]モバイルデバイス120は、カメラ215と、カメラプロセッサ220と、を含むこともできる。カメラ215は、画像及び/又は映像のコンテンツをキャプチャするように構成することができる。カメラプロセッサ220は、カメラ215によって収集されたデータを処理するように及びカメラによって収集されたデータをモバイルデバイス120上の1つ以上のアプリケーションによって使用することができる及び/又はモバイルデバイス120のディスプレイ225上で見ることができるフォーマットに変換するように構成することができる。カメラプロセッサ220は、コンテンツをディスプレイ225上で表示するための準備をするためにカメラから収集されたデータに対して様々なタイプの画像処理又は映像処理を行うように構成することができる。例えば、モバイルデバイス120のカメラは、モバイルデバイス120のカメラ215の視野内の画像及び/又は映像をキャプチャするように構成することができる。モバイルデバイス120は、対象ポイント(POI)情報を含むことができる屋内環境の増強されたビューをモバイルデバイスのユーザに提供するためにキャプチャされた画像及び/又は映像を使用するように構成することができる。例えば、モバイルデバイス120は、モバイルデバイス120の位置に対するPOIの位置を識別するテキスト表示/又は図形表示を含むことができる方向性ビュー(directional view)及び/又は本来であれば屋内環境の構成要素、例えば、ドア、壁、天井、及び床、によって隠蔽されるおそれがあるPOIに関するPOI情報をユーザに表示することができるX線ビュー(X−ray view)を提供するように構成することができる。カメラプロセッサ220は、モバイルデバイス120がどのような方位であるかを決定するために使用することもできる。
[0033]ディスプレイ225は、タッチセンサ235を含むタッチ画面インタフェースであることができる。グラフィックスプロセッサ230は、ディスプレイ225上に表示するための図形データを生成するために使用することができる。移動局12上のアプリケーション及び/又はその他の実行可能なプログラム、例えば、オペレーティングシステム及びポジショニングエンジン、は、ソフトウェア及び/又はハードウェア内に実装することができ、及び、画像又は映像コンテンツをディスプレイ225上に表示するためにグラフィックスプロセッサ230にコマンドを送信するように構成することができる。タッチセンサプロセッサ230は、ユーザがタッチ画面に触れたときを識別するためにタッチセンサ235によって出力されたデータを処理することができる。タッチセンサプロセッサ240は、複数の指でタッチ画面に触れることを含む様々なタッチジェスチャを識別するように構成することができる。オペレーティングシステム、アプリケーション、及び/又はポジショニングエンジンは、ユーザによる入力を決定し、少なくとも部分的に受信し及び応答するためにタッチセンサプロセッサ240によって決定されたジェスチャ情報を使用することができる。モバイルデバイス120のディスプレイ225は、2Dディスプレイであることができ又は立体画像を表示することが可能な3Dディスプレイであることができる。モバイルデバイス120は、ディスプレイ225の能力及びモバイルデバイス120の構成に依存して2D及び/又は3Dコンテンツをレンダリングするように構成することができる。
[0034]通信コントローラ250は、デバイスが1つ以上の無線プロトコルを用いて通信するのを可能にするように及びモバイルデバイスがネットワーク110を介して1つ以上のデバイスと通信するのを可能にするように構成することができる。通信コントローラ250は、デバイスが、無線アクセスポイント及びその他のモバイルデバイス120を含む近くの無線デバイスにデータを送信する又は近くの無線デバイスからデータを受信するのを可能にするように構成することができる。例えば、通信コントローラ250は、モバイルデバイス120が無線アクセスポイント115、基地局140、ナビゲーションサーバ125、ロケーションサーバ150、及びその他のモバイルデバイス120と直接又は間接的に通信するのを可能にするように構成することができる。通信コントローラ250は、モバイルデバイス120がそれの位置を決定するために使用することができるナビゲーション信号を受信するのを可能にするように構成することもできる。例えば、通信コントローラ250は、1つ以上の衛星測位システム(SPS)、例えば、GPSシステム、GLONASSシステム、ガリレオシステム、及び/又はその他のSPS、に属する衛星ビークル(SV)から信号を受信するように構成することができる。
[0035]メモリ260は、モバイルデバイス120の様々なコンポーネントによって使用されるデータを格納するための揮発性の及び/又は永続的なメモリを含む。メモリ260は、デバイスに含まれているプロセッサのうちの1つ以上に関するプロセッサによって実行可能なプログラムコードを格納するために使用することができる。プロセッサコントローラ255は、センサプロセッサ210、カメラプロセッサ220、グラフィックスプロセッサ230、及びタッチセンサプロセッサ240のうちの1つ以上を制御するように構成することができる。センサプロセッサ210、カメラプロセッサ220、グラフィックスプロセッサ230、及びタッチセンサプロセッサ240のうちの1つ以上は、プロセッサコントローラ255によって実装することもできる。プロセッサコントローラ255は、プロセッサによって実行可能なプログラムコードを実行するように構成することもできる。
[0036]図3は、図2において示されるメモリの機能モジュールを例示する図1において例示されるモバイルデバイスの機能上のブロック図である。例えば、モバイルデバイス120は、レンダリングモジュール362と、対象ポイントモジュール364と、方位決定モジュール366と、データアクセスモジュール368と、位置決定モジュール370とを含むことができる。モバイルデバイス120は、ナビゲーションデータベース350を含むこともできる。
[0037]レンダリングモジュール362は、地理上の対象エリア内におけるナビゲーションを向上させることができる屋内環境の増強されたビューをレンダリングするように構成することができる。レンダリングモジュール362は、モバイルデバイス120のカメラ215によってキャプチャされた画像及び/又は映像で増強されたコンテンツをオーバーレイする及び/又はキャプチャされた画像及び/又は映像と増強されたコンテンツを混合する屋内及び/又は屋外環境のビューをレンダリングするように構成することができる。レンダリングモジュール362は、モバイルデバイス120のカメラ215の“視野”の表現をモバイルデバイス120のディスプレイ225上に表示するように構成することができる。カメラは、カメラ215の視野内の地理上の対象エリアの一部分の一連の静止画像又は映像をキャプチャするように構成することができ、レンダリングモジュール362は、カメラによってキャプチャされた一連の静止画像及び/又は映像を受信するように及びナビゲーション補助手段によって受信されたコンテンツを増強するように構成することができる。ナビゲーション補助手段は、屋内環境内におけるモバイルデバイス120の位置に対する対象ポイント(POI)の位置のビジュアル表示を提供することができる。レンダリングモジュール362は、モバイルデバイス120のユーザが地理上の対象エリアを備える屋内及び/又は屋外環境をナビゲーションするのを補助することができるナビゲーション上のヒントをモバイルデバイス120のユーザに提供することができる地理上の対象エリアの方向性ビュー及びX線ビューを提供するように構成することができる。モバイルデバイス120は、方向性ビュー及び/又はX線ビューを表示するように構成することができる。
[0038]レンダリングモジュール362は、位置決定モジュール370及び/又はロケーションサーバ150からモバイルデバイス120の現在位置を入手し及び方位決定モジュール366からモバイルデバイス120の方位を入手するように構成することができる。レンダリングモジュール362は、モバイルデバイス120の視野内の対象ポイント(POI)に関するPOI情報を入手するためにモバイルデバイスの位置及び方位をPOIモジュール364に提供するように構成することができる。POI情報は、モバイルデバイス120の現在位置からのPOIの各々の相対的位置によってソートすることができ及びPOIの各々と関連付けられた図形表示及び/又はテキスト表示を含むことができる。
[0039]モバイルデバイス120が方向性ビューにおいて動作するように構成されるときには、レンダリングモジュール362は、地理上の対象エリア内におけるPOIの相対的位置を例示するテキスト表示及び/又は図形表示のオーバーレイを含む地理上の対象エリアの増強されたビューを提供するように構成することができる。レンダリングモジュール362がPOIモジュール364からPOIを入手した時点で、レンダリングモジュール362は、カメラの視野内の各POIと関連付けられた図形表示及び/又はテキスト表示をモバイルデバイス120のカメラ215によってキャプチャされた一連の画像及び/又は映像コンテンツ上にオーバーレイすることによって地理上の対象エリアの増強されたビューを生成するように構成することができる。例えば、屋内のショッピングモールで使用されるときには、屋内環境の方向性ビューは、ショッピングモール内で典型的に見受けるPOI、例えば、トイレ、試着室、店舗位置、及びモール出口、を表示するために使用することができる。図10は、モバイルデバイス120のカメラ215の視野内におけるPOIの方向性ビューを表示するモバイルデバイス120の一例を提供する。
[0040]レンダリングモジュール362は、レンダリングモジュール362によって生成された屋内環境の増強されたビュー内の視野内のPOIの各々と関連付けられたテキスト表示及び/又は図形表示を含むように構成することができる。レンダリングモジュール362は、モバイルデバイス120の現在位置に対するPOIの各々の位置に基づいて屋内環境の増強されたビュー内にPOIの各々と関連付けられたテキスト表示及び/又は図形表示を配置するように構成することができる。レンダリングモジュール362は、モバイルデバイス120の現在位置からのPOIの相対的位置を示すためにPOIと関連付けられたテキスト表示及び/又は図形表示をレンダリングするように構成することができる。例えば、レンダリングモジュール362は、モバイルデバイス120の現在位置により近いPOIと関連付けられたテキスト表示及び/又は図形表示をレンダリングするように構成することができ、従って、テキスト表示及び/又は図形表示は、モバイルデバイス120の現在位置からより遠いPOIと関連付けられたテキスト表示及び/又は図形表示よりも大きい。レンダリングモジュール362は、モバイルデバイスの現在位置からのPOIの距離を示すためのその他の方法、例えば、テキスト表示及び/又は図形表示をカラーコーディングする、モバイルデバイスの現在位置からのPOIの距離に基づいて異なる透明度レベルを用いてテキスト表示及び/又は図形表示をレンダリングする、又は、モバイルデバイス120の現在位置からの異なる距離を表すためにテキスト表示及び/又は図形表示をレンダリングするときに異なるテクスチャを使用する、を使用するように構成することもできる。例えば、モバイルデバイス120の現在位置により近いPOIと関連付けられたテキスト表示及び/又は図形表示は、不透明としてレンダリングすることができ、モバイルデバイス120からより遠くに所在するPOIと関連付けられたテキスト表示及び/又は図形表示は、モバイルデバイス120の現在位置からの距離に基づいて徐々に透明度が増すようにレンダリングすることができる。
[0041]モバイルデバイス120がX線ビューにおいて動作するように構成されるときには、レンダリングモジュール362は、屋内環境の構成要素及び/又はその他のPOIを含むモバイルデバイス120の視野内の物体によって本来であれば遮蔽されることになるPOIの詳細を例示することができる屋内環境の増強されたビューを提供するように構成することができる。X線ビューをレンダリングするときには、レンダリングモジュール362は、上述されるようにPOIモジュール364からのPOIの組を最初に入手するように構成することができる。各POIは、POIと関連付けられた1つ以上の画像を含むことができ、レンダリングモジュール362は、モバイルデバイス120によってキャプチャされた一連の画像及び/又は映像及びモバイルデバイス120の視野内にあるPOIと関連付けられた画像に基づいて屋内環境の合成画像をレンダリングするように構成することができる。レンダリングモジュール362は、POIモジュール364によって取り出されるPOIの順序がPOIの各々とモバイルデバイス120の現在位置との間の距離に基づいて設定されるように要求するように構成することができる。次に、レンダリングモジュール362は、POIと関連付けられた画像がモバイルデバイス120の現在位置からのPOIの距離に基づいて半透明としてレンダリングされる増強されたビューを生成することができる。一実装においては、レンダリングモジュール362は、POIの各々と関連付けられた画像が完全に不透明から完全に透明までの範囲内のアルファチャネル値と関連付けられた増強されたビューを生成するためにアルファ合成化を使用するように構成することができる。レンダリングモジュール362は、より高い透明度を表すアルファチャネル値をモバイルデバイス120の現在位置からより遠いPOIに割り当て、より低い透明度を表すアルファチャネル値をモバイルデバイス120の現在位置により近いPOIに割り当てるように構成することができる。レンダリングモジュール362は、カメラ225によってキャプチャされた視野コンテンツをPOI画像と合成することによってモバイルデバイス120の視野の合成画像をレンダリングするように構成することができ、モバイルデバイス120の現在位置からより遠いPOIから開始する。その結果得られる合成画像は、ユーザが本来であれば見晴らしのきく地点から見ることができない詳細を見るために屋内環境の壁を透視して見るのを可能にすることができる屋内環境のX線ビューを提供する。
[0042]図11A、11B、11C、及び11Dは、地理上の対象エリアのX線ビューが地理上の対象エリアの画像からどのようにして製作されるかを示す例を提供する。図11Aにおいて例示される画像は、モバイルデバイス120のカメラ215によってキャプチャされた地理上の対象エリアの画像である。この例においては、地理上の対象エリアは、ショッピングモールであり、図11Aにおいて例示される画像は、そのショッピングモールの回廊である。図11Bは、POIと関連付けられた画像である。この例においては、POIは、ショッピングモール内のデパートの内部の画像である。図11Cは、モバイルデバイス120の現在位置から地理上の対象エリアの2Dマップを通じてアイレイ(eye ray)を投影することを例示した図である。この例における2Dマップは、ショッピングモールの2Dマップである。アイレイ投影技法は、図7において例示されており、以下においてさらに詳細に説明される。図7において例示されるプロセスは、方向性ビューを用いて表示することができる該当するPOIを識別するために使用することもできる。図11Dは、POIのX線ビューの例を提供する。この例においては、図11Aにおいて例示されるモバイルデバイス120のカメラ215の視野を表す回廊のビューは、透明としてレンダリングされている。該当するPOIは、カメラ215の視野の画像上にオーバーレイすることができ及び部分的に透明としてレンダリングすることができる。図11Dにおいて示される例においては、1つのPOIのみが含められている。しかしながら、カメラ215の視野内で複数の該当するPOIが識別された場合は、POIは、モバイルデバイス120の現在位置からのそれらの距離に基づいてソートすることができ、それらのPOIと関連付けられたテキスト表示及び/又は図形表示は、モバイルデバイス120の現在位置から遠く離れた位置から最も近い位置までレンダリングすることができる。モバイルデバイス120の現在位置により近いPOIに対しては徐々に低下する透明度レベル(アルファチャネル値)を適用することができる。図11Dにおいて例示されるX線ビューは、回廊の壁の背後にあるデパートの表現を見るために回廊の壁を透視するビューをモバイルデバイス120のユーザに提供する。
[0043]レンダリングモジュール362は、モバイルデバイス120の位置の更新を位置決定モジュール370及び/又はロケーションサーバ150に要求し及び受け取るように構成することができる。例えば、レンダリングモジュール362は、モバイルデバイス120の位置が変化したときに位置決定モジュール370及び/又はロケーションサーバ150から更新を自動的に受け取るように構成することができる。レンダリングモジュール362は、モバイルデバイス120の方位が変化したときに方位決定モジュール366から更新を受け取るように構成することもできる。レンダリング362は、モバイルデバイス120の位置及び/又は方位の変化に対応してモバイルデバイス120のディスプレイ225上に表示するために生成される増強されたビュー(方向性ビュー、X線ビュー、又はその他の増強されたビュー)を自動的に更新するように構成することができる。
[0044]対象ポイント(POI)モジュール364は、モバイルデバイス120の視野内の対象ポイントを識別するように構成することができる。レンダリングモジュール362は、地理上の対象エリア内のモバイルデバイス120の現在位置を位置決定モジュール370から及び/又はロケーションサーバ150から入手するように及びモバイルデバイス120の位置を対象ポイントモジュール364に提供するように構成することができる。レンダリングモジュール362は、モバイルデバイス120に関する方位情報を方位決定モジュール366から入手するように構成することもできる。POIモジュール364は、モバイルデバイス120の視野の方向にある1つ以上のPOIの組を識別するために位置及び方位情報を使用するように構成することができる。POIは、モバイルデバイス120の現在位置から可視である場合と可視でない場合がある。POIは、カメラの視野内のその他の物体の背後に存在することがある。例えば、POIは、物理的障害物、例えば、壁、ドア、床、天井、又は地理上の対象エリアのその他の構成要素を含む地理上の対象エリアの構成要素、の背後に存在することがある。POIモジュール364は、モバイルデバイス120の現在位置からの相対的距離によってPOIの組の順序を設定するように構成することができ、及び、POIがモバイルデバイスの現在位置から可視であるかどうか又はPOIが地理上の対象エリアの他の構成要素の背後に隠されているかどうかを示すために各POIをマーキングするように構成することができる。
[0045]POIモジュール364は、データアクセスモジュール368を介してナビゲーションデータベース350からPOIデータにアクセスするように構成することができる。データアクセスモジュール368は、地理上の対象エリアに関するPOI情報にアクセスするように、及びPOIデータをPOIモジュール364に提供するように構成することができる。例えば、データアクセスモジュール368は、特定の屋内環境又は地理上の対象エリアと関連付けられた屋内環境の一部分、例えば、屋内環境の床、に関するPOI情報にアクセスするように構成することができる。
[0046]ナビゲーションデータベース350は、POIと関連付けられたPOI情報を含めることができる。例えば、POIと関連付けられたPOI情報は、POIの境界を定義する幾何学的情報を含むことができる。例えば、POI情報は、POIの境界を定義する1つ以上の多角形の組を含むことができる。POI情報は、POIと関連付けられた座標を含めることもできる。それらの座標は、地理上の座標(例えば、緯度及び経度)で表すこと又は地理上の対象エリアに関するPOIの各々の座標が境界エリアに合わせて正規化される自己定義(self−defined)座標系で表すことができる。POIと関連付けられた情報は、地理上の対象エリアのX線ビュー内のPOIを表現するために使用することができるPOIの画像を含むこともでき及びレンダリングエンジン362によって提供された地理上の対象エリアの方向性ビュー内のPOIを表現するために使用することができるテキストラベル及び/又は図形ラベルを含めることができる。
[0047]POIモジュール364は、図7において例示されるプロセスに類似するそれを用いていずれのPOIが該当するかを識別するように構成することができる。POIモジュール364は、地理上の対象エリアの2D又は3Dの幾何学的表現を通じて“アイレイ”を投影するように構成することができる。アイレイは、地理上の対象エリアの幾何学的表現を通じて投影することができ、及び、アイレイが交わるPOIを該当するPOIとして選択することができる。該当するPOIは、モバイルデバイス120のカメラ215の視線内に存在しないことがあり、及び、地理上の対象エリアの構成要素、例えば、壁、床、天井、ドア、等を含む1つ以上の物理的障害物によって又は地理上の対象エリア内の1つ以上の物体によってモバイルデバイス120の位置から分離されていることがある。
[0048]方位決定モジュール366は、センサ205によって収集された情報を受け取るように構成することができる。センサ205によって収集されたデータは、センサプロセッサ210によって受け取って処理することができ及び/又はセンサデータがセンサ205から受け取られたときにセンサプロセッサ210によって方位決定モジュール366に転送することができる。方位決定モジュール366は、モバイルデバイス120上のレンダリングモジュール362、位置決定モジュール370、視野モジュール372、及び/又はその他のモジュール又はアプリケーションにセンサデータを提供するように構成することができる。例えば、方位決定モジュール366は、センサ205及び/又はカメラ215によって収集された情報に基づいてモバイルデバイス120の方位を決定するように構成することができ、及び、方位決定モジュール366は、レンダリングモジュール362及び/又は視野モジュール372に方位を提供することができる。幾つかの実装においては、方位決定モジュール366は、モバイルデバイス120のカメラ215によってキャプチャされた画像コンテンツに基づいてモバイルデバイスの方位を決定するように構成することができる。方位決定モジュール366は、様々な技法、例えば、モバイルデバイス120の方位を決定するためにモバイルデバイス120のカメラ215によってキャプチャされた画像に関する消失点を決定する、を使用するように構成することができる。
[0049]視野モジュール372は、モバイルデバイス120の視野を決定するために方位情報を使用するように構成することができ、視野モジュール372は、モバイルデバイス120の視野内にいずれのPOIが含まれているかを決定するために視野情報を使用するように構成することができる対象ポイントモジュール364に視野情報を提供することができる。レンダリングモジュール362は、屋内環境のいずれの部分がモバイルデバイス120のディスプレイ225上でレンダリングされるべきであるかを決定するために視野情報372を使用するように構成することができる。
[0050]データアクセスモジュール368は、モバイルデバイス120のメモリ460内及び/又はナビゲーションデータベース350内に格納されたデータにアクセスするように構成することができる。データアクセスモジュール368は、モバイルデバイス120に実装されるレンダリングモジュール362、方位決定モジュール366、視野モジュール372、及び/又はその他のアプリケーション又はモジュールからの要求に応答してメモリ260内及び/又はナビゲーションデータベース350内に格納されたデータにアクセスするように又はメモリ260内及び/又はナビゲーションデータベース350内にデータを格納するように構成することができる。
[0051]位置決定モジュール370は、屋内環境内及び/又は屋外環境内におけるモバイルデバイス120の位置を決定するように構成することができる。屋内環境においては、位置決定モジュール370は、屋内環境内におけるモバイルデバイス120の位置を様々な方法で推定するために複数の無線アクセスポイント115からの信号の測定値を入手するように構成することができる。位置決定モジュール370は、屋内環境内におけるモバイルデバイス370の位置を決定するために無線アクセスポイント115からの信号を用いてモバイルデバイス120の位置を決定するように構成することができる。例えば、位置決定モジュール370は、信号測定値(例えば、RSSI(受信信号強度表示)、RTT(往復時間)、到着時間(TOA)、を用いて三辺測量を行うように、及び/又は、例えば、RSSI及び/又はRTT測定値及び無線アクセスポイント115及び/又は無線基地局140の既知の位置を用いて屋内環境内の複数の可能性のある曖昧さ解消地域(例えば、床)間で曖昧さをなくすように構成することができる。位置決定モジュール370は、屋外にあるときのモバイルデバイス120の位置及び1つ以上のSPS群からの十分な数の衛星への視線を決定するためにモバイルデバイス120と関連付けられた(例えば、通信コントローラ250と関連付けられた)衛星測位システム受信機から受信された信号を用いてモバイルデバイス120の位置を決定するように構成することもできる。
[0052]位置決定モジュール370は、モバイルデバイス120がモバイルデバイス120の位置を決定することができるようにするために、ロケーションサーバ150がモバイルデバイス120の位置を決定するために使用することができる情報及び/又はロケーションサーバ150がモバイルデバイス120に補助データを提供するために使用することができる情報をロケーションサーバ150に提供するように構成することもできる。例えば、ロケーションサーバ150は、モバイルデバイス120が1つ以上のSPS群からの衛星から信号を取得するために使用することができる補助データをモバイルデバイス120に送信することができる。ロケーションサーバ150は、モバイルデバイス120に近接することができる無線アクセスポイント115及び/又は無線基地局140のアルマナックをモバイルデバイス120の位置決定モジュール370に提供するように構成することもできる。位置決定モジュール370は、モバイルデバイス120に近接することができる無線アクセスポイント115及び/又は基地局140を識別するために及び近傍の無線アクセスポイント115及び/又は無線基地局140からの信号を用いてモバイルデバイス120の位置を決定するためにこの情報を使用することができる。
[0053]位置決定モジュール370は、屋内環境内のモバイルデバイス120の位置をレンダリングモジュール362に提供するように構成することができ、それは、モバイルデバイス120のディスプレイ225上に提示される屋内環境の増強されたビューにおいて何をレンダリングすべきかを決定するために視野モジュール372から入手された視野情報及び位置情報を使用することができる。
[0054]図4は、図1において例示されるナビゲーションサーバ125を実装するために使用することができるコンピュータシステムの機能上のブロック図である。ナビゲーションサーバ125は、プロセッサ455と、ネットワークインタフェース450と、メモリ460と、ナビゲーションデータベース450と、を含むことができる。ナビゲーションサーバ125は、メモリ460に格納されたプロセッサによって実行可能なソフトウェアコードとして実装することができる機能モジュールを含むこともできる。図4において例示される機能モジュールは、代替として、一部又は全体を、異なるコンピュータによって読み取り可能なメモリに格納することができる。例えば、機能モジュールは、ナビゲーションサーバ125、120と関連付けられた取り外し可能なコンピュータによって読み取り可能な媒体、例えば、フラッシュメモリ、SDカード、又はその他のタイプの取り外し可能なメモリ、に格納することができる。図4において例示される機能モジュールは、一部又は全体を、ファームウェア及び/又はハードウェアにおいて実装することもできる。ナビゲーションサーバ125は、レンダリングモジュール462と、対象ポイントモジュール464と、データアクセスモジュール466と、を含むことができる。
[0055]プロセッサ455は、メモリ460に格納されたソフトウェアコードを実行するように構成することができる。例えば、プロセッサ455は、レンダリングモジュール462、対象ポイントモジュール464、及びデータアクセスモジュール466と関連付けられたソフトウェアコードを実行するように構成することができる。プロセッサ455は、ナビゲーションサーバ125によって使用されるその他のソフトウェアコード、例えば、オペレーティングシステムコンポーネント、周辺機器に関するソフトウェアドライバ、及び/又はナビゲーションサーバ125によって実行することができるその他のソフトウェアコード、を実行するように構成することもできる。しかしながら、それらに関する説明は、ここにおいて開示されるシステム及びモジュールの動作を理解する上では必要ない。
[0056]ネットワークインタフェース450は、双方向性無線及び/又は有線ネットワーク通信をナビゲーションサーバ125に提供するように構成することができる。ネットワークインタフェース450は、ナビゲーションサーバ125が1つ以上の中間ネットワーク、例えば、インターネット、無線ネットワークサービスプロバイダのコアネットワーク、1つ以上の無線ローカルエリアネットワーク(WLAN)、及び/又はその他のタイプのネットワーク、を介してモバイルデバイス120と通信するのを可能にするように構成することができる。ナビゲーションサーバ125のネットワークインタフェース450とモバイルデバイス120との間のネットワーク通信は、1つ以上のその他のネットワーク要素、例えば、無線アクセスポイント115又は基地局140、を通じてルーティングすることができる。
[0057]メモリ460は、ナビゲーションサーバ125の様々なコンポーネントによって使用されるデータを格納するための揮発性の及び/又は永続的なメモリを備えることができる。メモリ460は、ナビゲーションサーバ125に含まれるプロセッサのうちの1つ以上、例えば、プロセッサ455、に関するプロセッサによって実行可能なプログラムコードを格納するために使用することができる。
[0058]レンダリングモジュールモジュール462は、モバイルデバイス120のレンダリングモジュール362と同様に動作するように構成することができる。レンダリングモジュール462は、屋内環境内におけるナビゲーションを向上させることができる屋内環境の増強されたビューをレンダリングするように構成することができる。幾つかの実装においては、ナビゲーションサーバ125は、増強されたナビゲーションコンテンツがモバイルデバイス120において生成されるのではなく増強されたナビゲーションコンテンツをレンダリングしてモバイルデバイス120に提供するように構成することができる。増強されたナビゲーションコンテンツは、様々な理由によりモバイルデバイス120ではなくナビゲーションサーバ125で行うことができる。例えば、増強されたナビゲーションコンテンツは、ナビゲーションサーバ125において生成することができ、モバイルデバイス120は、増強されたナビゲーションコンテンツをレンダリングする上で十分なリソースを有さないことがあり、又は、増強されたナビゲーションコンテンツは、モバイルデバイス120における限られた処理電力、メモリ、及び/又はバッテリ寿命を節約するためにナビゲーションサーバ125によってレンダリングすることができる。
[0059]レンダリングモジュール462は、モバイルデバイス120のカメラ215によってキャプチャされた画像及び/又は映像で増強されたコンテンツをオーバーレイする及び/又は増強されたコンテンツをそれらの画像及び/又は映像と混合する屋内環境のビューをレンダリングするように構成することができる。レンダリングモジュール462は、モバイルデバイスのカメラ215の“視野”の表現をモバイルデバイスのディスプレイ225上においてレンダリングするように構成することができる。カメラは、カメラ215の視野内の屋内環境の一部分の一連の静止画像又は映像をキャプチャするように構成することができ、及び、レンダリングモジュール462は、カメラによってキャプチャされた一連の静止画像及び/又は映像を受信するように及び受信されたコンテンツをナビゲーション補助手段によって増強するように構成することができる。ナビゲーション補助手段は、屋内環境内におけるモバイルデバイス120の位置に対する対象ポイント(POI)の位置のビジュアル表示を提供することができる。レンダリングモジュール462は、モバイルデバイス120のユーザが屋内環境内をナビゲーションするのを補助することができるナビゲーション上のヒントをモバイルデバイスのユーザに提供することができる屋内環境の方向性ビュー及び屋内環境のX線ビューを提供するように構成することができる。
[0060]レンダリングモジュール462は、モバイルデバイス120の現在位置を位置決定モジュール370及び/又はロケーションサーバ150から入手し及びモバイルデバイス120の方位を方位決定モジュール366から入手するように構成することができる。レンダリングモジュールcは、モバイルデバイス120の視野内の対象ポイント(POI)に関するPOI情報を入手するためにモバイルデバイスの位置及び方位をPOIモジュール364に提供するように構成することができる。POI情報は、モバイルデバイス120の現在位置からの各POIの相対的距離によってソートすることができ及び各POIと関連付けられた図形表示及び/又はテキスト表示を含むことができる。
[0061]モバイルデバイス120が方向性ビューにおいて動作するように構成されるときには、レンダリングモジュール462は、屋内環境内におけるPOIの相対的位置を例示したテキスト表示及び/又は図形表示のオーバーレイを含む屋内環境の増強されたビューを提供するように構成することができる。レンダリングモジュール362がPOIモジュール464からPOIを入手した時点で、レンダリングモジュール462は、カメラの視野内の各POIと関連付けられた図形表示及び/又はテキスト表示をモバイルデバイス120のカメラ215によってキャプチャされた画像及び/又は映像のサービス上にオーバーレイすることによって屋内環境の増強されたビューを生成するように構成することができる。例えば、屋内のショッピングモール内で使用されるときには、ショッピングモール内で典型的に見受けるPOI、例えば、トイレ、試着室、店舗位置、及びモール出口、を表示するために屋内環境の方向性ビューを使用することができる。図10は、上述されるように、地理上の対象エリアの方向性ビューの一例を提供し、この例ではショッピングモールである。
[0062]レンダリングモジュール462は、レンダリングモジュール462によって生成された屋内環境の増強されたビュー内の視野内のPOIの各々と関連付けられたテキスト表示及び/又は図形表示を含めるように構成することができる。レンダリングモジュール462は、モバイルデバイス120の現在位置に対する各々のPOIの位置に基づいて屋内環境の増強されたビュー内にPOIの各々と関連付けられたテキスト表示及び/又は図形表示を配置するように構成することができる。レンダリングモジュール462は、モバイルデバイス120の現在位置からのPOIの相対的距離を示すためにPOIと関連付けられたテキスト表示及び/又は図形表示をレンダリングするように構成することができる。例えば、レンダリングモジュール462は、モバイルデバイスの現在位置により近いPOIと関連付けられたテキスト表示及び/又は図形表示がモバイルデバイス120の現在位置からより遠いPOIと関連付けられたテキスト表示及び/又は図形表示よりも大きくなるようにそれらのテキスト表示及び/又は図形表示をレンダリングするように構成することができる。レンダリングモジュール362は、モバイルデバイスの現在位置からのPOIの距離を示すためのその他の方法、例えば、テキスト表示及び/又は図形表示をカラーコーディングする、モバイルデバイスの現在位置からのPOIの距離に基づいて異なる透明度レベルを用いてテキスト表示及び/又は図形表示をレンダリングする、又は、モバイルデバイス120の現在位置からの異なる距離を表すためにテキスト表示及び/又は図形表示をレンダリングするときに異なるテクスチャを使用する、を使用するように構成することもできる。例えば、モバイルデバイス120の現在位置により近いPOIと関連付けられたテキスト表示及び/又は図形表示は、不透明としてレンダリングすることができ、モバイルデバイス120からより遠くに所在するPOIと関連付けられたテキスト表示及び/又は図形表示は、モバイルデバイス120の現在位置からの距離に基づいて徐々に透明度が増すようにレンダリングすることができる。
[0063]モバイルデバイス120がX線ビューにおいて動作するように構成されるときには、レンダリングモジュール462は、屋内環境及び/又はその他のPOIの構成要素を含む、本来であればモバイルデバイス120の視野内の物体によって遮断されることになるPOIの詳細を例示することができる屋内環境の増強されたビューを提供するように構成することができる。X線ビューをレンダリングするときには、レンダリングモジュール462は、上述されるようにPOIモジュール464からPOIの組を最初に入手するように構成することができる。各POIは、POIと関連付けられた1つ以上の画像を含むことができ、レンダリングモジュール462は、モバイルデバイスによってキャプチャされた一連の画像及び/又は映像及びモバイルデバイス120の視野内にあるPOIと関連付けられた画像に基づいて屋内環境の合成画像をレンダリングするように構成することができる。レンダリングモジュール462は、POIモジュール464によって取り出されるPOIが各POIとモバイルデバイス120の現在位置との間の距離に基づいて順序が設定されるように要求するように構成することができる。レンダリングモジュール462は、POIと関連付けられた画像がモバイルデバイス120の現在位置からのPOIの距離に基づいて半透明としてレンダリングされる増強されたビューを生成することができる。一実装においては、レンダリングモジュール462は、各POIと関連付けられた画像が完全に不透明から完全に透明までの範囲内のアルファチャネル値と関連付けられた増強されたビューを生成するためにアルファ合成化を使用するように構成することができる。レンダリングモジュール462は、より高い透明度を表すアルファチャネル値をモバイルデバイス120の現在位置からより遠いPOIに割り当て、より低い透明度を表すアルファチャネル値をモバイルデバイス120の現在位置により近いPOIに割り当てるように構成することができる。レンダリングモジュール462は、モバイルデバイス215のカメラ215によってキャプチャされた視野コンテンツをPOI画像と合成することによってモバイルデバイス120の視野の合成画像をレンダリングするように構成することができ、モバイルデバイス120の現在位置からより遠いPOIから開始する。その結果得られる合成画像は、ユーザが本来であれば見晴らしのきく地点から見ることができない詳細を見るために屋内環境の壁を透視して見るのを可能にすることができる屋内環境のX線ビューを提供する。上述されるように、図11A、図11B、11C、及び11Dは、X線ビューの例を示す。
[0064]レンダリングモジュール462は、モバイルデバイス120の位置の更新をモバイルデバイス120及び/又はロケーションサーバ150に要求してモバイルデバイス120の位置の更新をモバイルデバイス120及び/又はロケーションサーバ150から受け取るように構成することができる。レンダリングモジュール462は、モバイルデバイス120の位置が変化したときにモバイルデバイス120及び/又はロケーションサーバ150から更新を自動的に受け取るように構成することができる。レンダリングデバイス462は、モバイルデバイス120の方位が変化したときにモバイルデバイス120から更新を受け取るように構成することができる。レンダリングモジュール462は、モバイルデバイス120の位置及び/又は方位の変化に対応してモバイルデバイスのディスプレイ225上に表示するために生成される増強されたビュー(方向性ビュー、X線ビュー、又はその他の増強されたビュー)を自動的に更新するように及び更新された増強されたビューをモバイルデバイス120に送信するように構成することができる。
[0065]対象ポイント(POI)モジュール464は、モバイルデバイス120に関する位置及び方位情報に基づいてモバイルデバイス120の視野内の対象ポイントを識別するように構成することができる。位置情報は、モバイルデバイス120及び/又はロケーションサーバ150から受信することができ、方位情報は、モバイルデバイス120から受信することができる。レンダリングモジュール462は、屋内環境内のモバイルデバイス120の現在位置をモバイルデバイス120から及び/又はロケーションサーバ150から入手するように及びモバイルデバイス120の位置を対象ポイントモジュール464に提供するように構成することができる。レンダリングモジュール462は、モバイルデバイス120に関する方位情報を入手するように構成することもできる。POIモジュール464は、モバイルデバイス120のPOIモジュール464と同様に動作するように構成することができる。POIモジュール464は、モバイルデバイス120の視野の方向にある1つ以上のPOIの組を識別するために位置及び方位情報を使用するように構成することができる。上記のように、POIは、モバイルデバイス120の現在位置から可視である場合と可視でない場合がある。POIモジュール464は、モバイルデバイス120の現在位置からの相対的距離によってPOIの組の順序を設定するように構成することができ、及び、POIがモバイルデバイスの現在位置から可視であるかどうか又はPOIが屋内環境の他の構成要素の背後に隠されているかどうかを示すために各POIをマーキングするように構成することができる。
[0066]POIモジュール464は、データアクセスモジュール466を介してナビゲーションデータベース450からPOIデータにアクセスするように構成することができる。データアクセスモジュール466は、特定の屋内環境又は屋内環境の一部分、例えば、屋内環境の床、に関するPOI情報にアクセスするように、及びPOIデータをPOIモジュール464に提供するように構成することができる。ナビゲーションデータベース450は、上述されるように、モバイルデバイス120のナビゲーションデータベース350と同様のデータを含むことができる。ナビゲーションデータベース450は、POIと関連付けられたPOI情報を含むことができ、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又は座標を定義する幾何学的情報を含むことができる。POI情報は、屋内環境のX線ビューにおけるPOIを表すために使用することができるPOIの画像も含むことができ及びレンダリングエンジン462によって提供される屋内環境の方向性ビューにおけるPOIを表すために使用することができるテキストラベル及び/又は図形ラベルを含むことができる。
[0067]要求処理モジュール468は、情報要求をモバイルデバイス120から受信するように及び要求されたデータをモバイルデバイス120に送信するように構成することができる。例えば、要求処理モジュール468は、屋内環境内をナビゲーションするための増強されたコンテンツを求める要求を受け取るように構成することができる。要求処理モジュール468は、要求される情報がナビゲーションデータベース450において入手可能でない場合にデータアクセスモジュール466及び/又はレンダリングモジュール462に情報を要求するように構成ことができる。要求処理モジュール468は、要求された情報がデータアクセスモジュール466及び/又はレンダリングモジュール462によって提供された時点で要求された情報をモバイルデバイス120に送信するように構成することもできる。
[0068]データアクセスモジュール466は、モバイルデバイス120のメモリ460、ユーザ役割データベース475、及び/又はナビゲーションデータベース450に格納されたデータにアクセスするように構成することができる。データアクセスモジュール466は、ナビゲーションサーバ125に実装されるレンダリングモジュール462、対象ポイントモジュール464、及び/又はその他のアプリケーション又はモジュールからの要求に応答してメモリ460内及び/又はナビゲーションデータベース450内に格納されたデータにアクセスするように又はメモリ460内及び/又はナビゲーションデータベース450内にデータを格納するように構成することができる。
[0069]図5は、図1において例示されるロケーションサーバ150を実装するために使用することができるコンピュータシステムの機能上のブロック図である。図において提供される例において、ナビゲーションサーバ125及びロケーションサーバ150は、別個のサーバとして例示される。しかしながら、代替実装においては、ナビゲーションサーバ125及びロケーションサーバ150の機能の一部又は全部を同じサーバに実装することができる。
[0070]ロケーションサーバ150は、プロセッサ555と、ネットワークインタフェース550と、メモリ560と、を含むことができる。ロケーションサーバ150は、メモリ560に格納されたプロセッサによって実行可能なソフトウェアコードとして実装することができる機能モジュールを含むこともできる。図5において例示される機能モジュールは、代替として、一部分又は全体を、異なるコンピュータによって読み取り可能なメモリに格納することができる。例えば、機能モジュールは、ロケーションサーバ150と関連付けられた取り外し可能なコンピュータによって読み取り可能な媒体、例えば、フラッシュメモリ、SDカード、又はその他のタイプの取り外し可能なメモリ、に格納することができる。図5において例示される機能モジュールは、一部又は全体を、ファームウェア及び/又はハードウェアにおいて実装することもできる。ナビゲーションサーバ125は、位置決定モジュール562と、補助データモジュール564と、を含むことができる。
[0071]プロセッサ555は、メモリ560に格納されたソフトウェアコードを実行するように構成することができる。例えば、プロセッサ555は、位置決定モジュール562及び補助データモジュール564と関連付けられたソフトウェアコードを実行するように構成することができる。プロセッサ555は、ロケーションサーバ150によって使用されるその他のソフトウェアコード、例えば、オペレーティングシステムコンポーネント、周辺機器に関するソフトウェアドライバ、及び/又はロケーションサーバ150によって実行することができるその他のソフトウェアコード、を実行するように構成することもできる。しかしながら、それらに関する説明は、ここにおいて開示されるシステム及びモジュールの動作を理解する上では必要ない。
[0072]ネットワークインタフェース550は、双方向性無線及び/又は有線ネットワーク通信をロケーションサーバ150に提供するように構成することができる。ネットワークインタフェース550は、ロケーションサーバ150が1つ以上の中間ネットワーク、例えば、インターネット、無線ネットワークサービスプロバイダのコアネットワーク、1つ以上の無線ローカルエリアネットワーク(WLAN)、及び/又はその他のタイプのネットワーク、を介してモバイルデバイス120と通信するのを可能にするように構成することができる。ロケーションサーバ150のネットワークインタフェース550とモバイルデバイス120との間のネットワーク通信は、1つ以上のその他のネットワーク要素、例えば、無線アクセスポイント115又は基地局140、を通じてルーティングすることができる。
[0073]メモリ560は、ロケーションサーバ150の様々なコンポーネントによって使用されるデータを格納するための揮発性の及び/又は永続的なメモリを備えることができる。メモリ460は、ロケーションサーバ150に含まれるプロセッサのうちの1つ以上、例えば、プロセッサ555、に関するプロセッサによって実行可能なプログラムコードを格納するために使用することができる。
[0074]位置決定モジュール562は、位置に基づくサービスをモバイルデバイス120に提供するように構成することができる。例えば、位置決定モジュール562は、モバイルデバイス120の位置を決定するように及び/又は屋内環境内及び/又は屋外環境内におけるモバイルデバイス120の位置を決定するために使用することができる補助データをモバイルデバイス120に提供するように構成することができる。屋内環境内におけるモバイルデバイス120の位置を決定するために、位置決定モジュール562は、様々な技法、例えば、RSSI、RTT、TOA、及び/又はその他の技法、で屋内環境内におけるモバイルデバイス120の位置を推定するために複数の無線アクセスポイント115からの信号の測定値をモバイルデバイス120から入手するように構成することができる。位置決定モジュール562は、屋外にあるときのモバイルデバイス120の位置及び1つ以上のSPS群からの十分な数の衛星への視線を決定するためにモバイルデバイス120と関連付けられた(例えば、通信コントローラ250と関連付けられた)衛星測位システム受信機から受信された信号を用いてモバイルデバイス120の位置を決定するように構成することもできる。
[0075]補助データモジュール564は、モバイルデバイス120がモバイルデバイス120の位置を決定するために使用することができる補助データを識別するように構成することができる。補助データモジュール564は、モバイルデバイス120に近接することができる無線アクセスポイント115及び/又は無線基地局140のアルマナックをモバイルデバイス120に提供するように構成することもできる。モバイルデバイス120は、モバイルデバイス120に近接することができる無線アクセスポイント115及び/又は基地局140を識別するために及び近傍の無線アクセスポイント115及び/又は無線基地局140からの信号を用いてモバイルデバイス120の位置を決定するためにこの情報を使用することができる。
[0076]図6は、ナビゲーション情報をモバイルデバイス120上に表示するためのプロセスのブロック流れ図である。図6において例示されるプロセスは、モバイルデバイス120によって実装することができる。しかしながら、図6において例示されるプロセスの一部又は全部は、一部分又は全体を、ナビゲーションサーバ125及び/又はロケーションサーバ150によって実装することができる。
[0077]プロセスは、地理上の対象エリア、例えば、屋内環境、内におけるモバイルデバイス120の位置の表示を入手することで開始することができる(段階605)。モバイルデバイス120の位置は、モバイルデバイス120によって及び/又はロケーションサーバ150によって決定することができる。例えば、モバイルデバイス120の位置決定モジュール370は、モバイルデバイス120の位置を決定するように構成することができる。位置決定モジュール370は、モバイルデバイス120の位置を決定するために無線アクセスポイント115及び/又は基地局140からの信号を使用するように構成することができる。位置決定モジュール370は、モバイルデバイス120の位置を決定するためにロケーションサーバ150から受信された補助データを使用するように構成することもできる。モバイルデバイス120の位置は、ロケーションサーバ150によって決定することもでき、ロケーションサーバ150は、位置情報をモバイルデバイス120に送信するように構成することができる。
[0078]モバイルデバイス120と関連付けられた方向の表示も入手することができる(段階610)。モバイルデバイス120は、方位決定モジュール366によって収集されたセンサデータに基づいてモバイルデバイス120の方位を決定するように構成することができる。モバイルデバイス120の方位は、モバイルデバイス120が屋内環境の床、壁、天井、及び/又はその他の要素に対してどのような方位であるかを決定するために使用することができる。モバイルデバイス120の方位に基づいて、いずれのPOIがカメラ225の視野内に入るべきであるかを決定することが可能である。POIは必ずしも可視ではなく、屋内環境の壁、床、天井、及び/又はその他の構成要素の背後に存在することができる。
[0079]地理上の対象地域内の少なくとも1つの該当する対象ポイントを、モバイルデバイス120の位置、モバイルデバイス120と関連付けられた方向、及び、地理上の対象エリアと関連付けられたPOI情報に基づいて決定することができる(段階615)。複数のPOIを地理上の対象エリアと関連付けることができる。例えば、屋内環境、例えば、ショッピングモール、は、店舗及びレストラン及び/又は店舗の構成要素の位置、例えば、レジの位置、女性服売り場、男性用品売り場、トイレ施設、試着室、及び/又は、その位置で買い物をする人にとっての関心の的になることがあるその他の側面、を識別するPOIを含むことができる。他の例においては、官庁に関するPOIは、自動車部、郡記録局、保健・人間安全部、の位置を含むことができる。さらに他の例では、オフィスビルに関するPOIは、受付エリア又はロビーの位置、トイレの位置、会議室の位置、及び/又は、そのビルが複数のテナントを収容する場合は特定の会社の位置を含むことができる。
[0080]以下において詳細に説明される図7のプロセスを含む様々な技法を用いて少なくとも1つの該当する対象ポイントを決定することができ、ただしそのプロセスに限定されない。少なくとも1つの該当する対象ポイントは、モバイルデバイス120のカメラ215が見る方向又は視野を作図することによって決定することができる。モバイルデバイス120のカメラ215は、カメラ215の視野内のエリアの映像及び/又は一連の画像をキャプチャするように及びキャプチャされたコンテンツをモバイルデバイス120のディスプレイ225上に表示するように構成することができる。モバイルデバイス120は、地理上の対象地域、例えば、屋内環境、内におけるカメラの位置及びモバイルデバイス120が向いている方向に基づいていずれのPOIがカメラの視野内にあるかを決定するように構成することができる。モバイルデバイス120のカメラ215の視野内にある1つ以上のPOIの組を、地理上の対象エリア、例えば、屋内環境、と関連付けられたPOIの組から選択することができる。モバイルデバイス120の対象ポイントモジュール364は、1つ以上の該当するPOIの組を識別するように構成することができ及び/又はモバイルデバイス120は、POI情報をナビゲーションサーバ125から受信するように構成することができる。ナビゲーションサーバ125の要求処理モジュール468は、POI情報を求める要求をモバイルデバイス120から受信するように構成することができる。モバイルデバイス120は、モバイルデバイス120と関連付けられた位置及び方位情報を、POI情報を求める要求とともにナビゲーションサーバ125に提供するように構成することができる。POI情報は、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又はPOIの座標を定義する幾何学的情報を含むことができる。POI情報は、屋内環境のX線ビューにおけるPOIを表すために使用することができるPOIの画像も含むことができ及びPOIを表すために使用することができるテキストラベル及び/又は図形ラベルを含むことができる。
[0081]少なくとも1つの該当する対象ポイントに関するビジュアル表示をモバイルデバイス120上に表示することができる(段階620)。モバイルデバイス120は、方向性ビュー、X線ビュー、又はそれらの組み合わせをモバイルデバイス120のディスプレイ上に表示するように構成することができる。上述されるように、方向性ビューは、モバイルデバイス120の位置に対する屋内環境内のPOIの位置を例示するテキスト表示及び/又は図形表示のオーバーレイを含む屋内環境の増強されたビューを提供することができる。テキスト表示及び/又は図形表示は、モバイルデバイス120の位置からの距離に対するサイズに関してスケーリングすることができる。テキスト表示及び/又は図形表示は、カメラ215の視野内に入っているが、屋内環境の1つ以上の構成要素によって見えないようになっているためカメラ215によってキャプチャされた画像及び/又は映像内で見えないPOIに関しても表示することができる。X線ビューは、屋内環境及び/又はその他のPOIの構成要素を含む、本来であればモバイルデバイス120の視野内の物体によって遮断されることになるPOIの詳細を例示することができる屋内環境の増強されたビューを提供することができる。X線ビューは、本来であれば屋内環境の構成要素、例えば、屋内環境の床、ドア、壁、天井、及び/又はその他の構成要素、によって見えないPOIの画像と合成された、モバイルデバイス120のカメラ215によってキャプチャされた画像及び/又は映像コンテンツのビューを提供することができる。合成画像は、モバイルデバイス120の位置からのの相対的距離に基づいてPOIの順序を設定し及びモバイルデバイス120の位置からの各POIの相対的距離に基づいて各POIと関連付けられた画像にアルファチャネル値を割り当てることによって形成することができる。モバイルデバイス120の視野の合成画像は、カメラ225によってキャプチャされた視野コンテンツをPOI画像と合成することによってレンダリングすることができ、モバイルデバイス120の現在位置からより遠いPOIから開始することができる。
[0082]図7は、該当するPOIの組を決定するためのプロセスのブロック流れ図である。図7において例示されるプロセスの態様は、モバイルデバイス120によって及び/又はナビゲーションサーバ125によって実装することができる。図7において例示されるプロセスは、図6において例示されるプロセスの段階615を少なくとも部分的に実装するために使用することができる。
[0083]モバイルデバイス120の位置及び方向の表示と関連付けられたアイレイ(eye ray)を決定することができる(段階705)。アイレイは、モバイルデバイス120の位置から図6において例示されるプロセスの段階610においてモバイルデバイス120に関して入手された方向の表示と関連付けられた方向に延びる仮想線を備えることができる。アイレイは、いずれのPOIがモバイルデバイス120のカメラ215の視野内に入る可能性があるかを決定するために使用することができる。アイレイは、カメラ215が、本来であれば隠されることになるPOIを見るために地理上の対象エリア内の物理的障害物、例えば、床、壁、天井、及びその他の物体を透視することができる場合にいずれのPOIがモバイルデバイス120のカメラ215の視野内に入る可能性があるかを決定するために使用することもできる。
[0084]幾つかの実装においては、アイレイは、モバイルデバイス120の位置を中心とする位置から投影することができる。幾つかの実装においては、アイレイを決定するときには、地理上の対象エリアの床面又は地面上方のモバイルデバイス120の高さを考慮に入れることができる。例えば、モバイルデバイス120のセン205は、モバイルデバイス120の高度を決定することが可能な1つ以上のセンサを含むことができる。モバイルデバイス120及び/又はナビゲーションサーバ125も、モバイルデバイス120と既知の位置にある1つ以上の無線アクセスポイント115、基地局140、又はその他のモバイルデバイス120、との間で送信された信号のRSSI、RTT、及び/又は測定値に基づいてモバイルデバイス120の高度を決定するように構成することができる。幾つかの実装においては、モバイルデバイス120の典型的なユーザに関する平均の高さ及び/又は平均的なユーザがモバイルデバイス120を用いて地理上の対象エリア内をナビゲーションするときに地理上の対象エリアの床面又は地面上方においてモバイルデバイス120を保持する典型的な高さに関してデフォルトの平均値を使用することができる。
[0085]幾つかの実装においては、地理上の対象エリアの幾何学的表現を通じて複数のアイレイを決定及び投影することができる。時には、単一のアイレイでは、視野内に入るすべてのPOIを識別する上で十分でないことがある。従って、モバイルデバイス120(そして従って、モバイルデバイス120のユーザ)の視野内に入るPOIに関してより完全な情報を提供するために複数のアイレイを決定することができる。幾つかの実装においては、複数のアイレイは視野の角度を一様にサンプリングすることによって決定することができ、及び、アイレイのうちのいずれかがPOIと交わるかどうかを決定するために単一アイレイ例に関して使用される交差試験と同様のそれを使用することができる。1つ以上のアイレイがPOIと交わる場合は、そのPOIは、モバイルデバイス120のディスプレイ上に提示される地理上の対象エリアの増強されたビュー内に表示することができる。
[0086]アイレイは、地理上の対象エリアの幾何学的表現を通じて投影することができる(段階710)。上述されるように、POIの各々は、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又はPOIの座標を定義する幾何学的情報を含むことができるPOI情報と関連付けることができる。幾何学的情報は、特定のPOIに関する2D境界を定義する情報を提供することができ又はPOIと関連付けられた3D境界を提供することができる。幾つかの実装においては、地理上の対象エリアは、多階層の建物又は建物(複数)を備えることができ、及び、アイレイが多階層環境の複数の床上の1つ以上のPOIと交わるかどうかを決定するために多階層環境の複数の床にわたって投影することができる。
[0087]アイレイが交わる少なくとも1つのPOIを識別することができる(段階715)。地理上の対象エリアを通じてのアイレイの投影に基づき、アイレイが交わるPOIを該当する対象ポイントとして選択することができる。アイレイは、カメラ215が地理上の対象エリア内の物理的障害物及び/又は物体を透視できる場合にカメラの視野が含むことができる物を表現するために使用することができる。図7において例示されるプロセスを用いて識別されたPOIは、地理上の対象エリア内をナビゲーションするために役立つことができるコンテキスト情報をモバイルデバイス120のユーザに提供するためにモバイルデバイス120のディスプレイ225上に表示することができる。
[0088]POI情報は、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又はPOIの座標を定義する幾何学的情報を含むPOI情報を含むことができる。POI情報は、POIの各々がモバイルデバイス120の現在位置からどれだけ離れているかを決定するために使用することができ、及び、POIは、モバイルデバイス120の現在位置からのその距離に基づいてソートすることができる。
[0089]図8は、モバイルデバイス120のカメラ215の視野内の該当するPOIの方向性ビューをモバイルデバイス120のディスプレイ225上に表示することを決定するためのプロセスのブロック流れ図である。図8において例示されるプロセスは、モバイルデバイス120によって及び/又はナビゲーションサーバ125によって実装することができる。図7において例示されるプロセスは、図6において例示されるプロセスの段階620を少なくとも部分的に実装するために使用することができる。図10は、上述されるように、屋内のショッピングモールを備える地理上の対象エリアの方向性ビューを表示するモバイルデバイス120の例を提供する。
[0090]モバイルデバイス120の位置及び方向に基づいて識別されるPOIは、モバイルデバイス120からの距離に基づいてソートすることができる(段階805)。POIの各々は、POI情報と関連付けることができる。POI情報は、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又は座標を定義する幾何学的情報を含むことができる。POI情報は、POIの各々がモバイルデバイス120の現在位置からどけだけ離れているかを決定するために使用することができ、POIは、モバイルデバイス120の現在位置からのその距離に基づいてソートすることができる。
[0091]POIと関連付けられたテキスト表示及び/又は図形表示をレンダリングすることができる(段階810)。POIの各々と関連付けられたPOI情報は、そのPOIを表現するためにレンダリングすることができるテキスト表示及び/又は図形表示を含むことができる。例えば、POI情報は、テキスト情報、例えば、POIの名前又は説明、を含むことができる。一実装例においては、方向性ビューは、屋内のショッピングモールに関して提供することができ、POIは、テキスト表示、例えば、店舗又はレストランの名前及び/又はPOIの説明(例えば、試着室、トイレ、等)、と関連付けることができる。POI情報は、図形表示、例えば、小売りのタイプを表す店舗又はレストランのロゴ又はアイコン(例えば、衣類、デパート、家具、靴、機器、等)、を含むこともできる。他の実装例においては、POI情報は、テキスト表示及び/又は図形表示をオフィス環境に関してカスタム化することができるオフィスビルと関連付けることができる。該実装においては、POI情報は、特定の会社及び/又は1つの会社の一部分、例えば、コピー室、休憩室、会議室、供給室、等、を識別するテキスト表示及び/又は図形表示を含むことができる。
[0092]テキスト表示及び/又は図形表示は、モバイルデバイス120のカメラ215の視野内の地理上の対象エリアの増強されたビューを生成するためにそのカメラによってキャプチャされた画像及び/又は映像コンテンツ上のオーバーレイとしてレンダリングすることができる。幾つかの実装においては、増強されたビューにおいてレンダリングされるテキスト表示及び/又は図形表示のサイズは、テキスト表示及び/又は図形表示と関連付けられたPOIがモバイルデバイス120の現在位置にどれだけ近いかに基づくことができる。テキスト表示及び/又は図形表示は、POIがモバイルデバイス120の現在位置により近い場合はより大きくレンダリングすることができ、テキスト表示及び/又は図形表示は、POIがモバイルデバイス120の位置からより遠い場合はより小さくレンダリングすることができる。
[0093]幾つかの実装においては、POIは、カメラの現在位置とPOIの位置との間の1つ以上の障害物によって画像及び/又は映像コンテンツ内の視野内で隠されていることがあるが、テキスト表示及び/又は図形表示は、モバイルデバイス120の現在位置に関するコンテキスト情報をモバイルデバイス120のユーザに提供するように該POIに関して表示することができる。例えば、建物の壁、床、天井、又はその他の構成要素は、モバイルデバイス120の現在位置においてPOIをカメラ215から隠すことができる。他の例においては、建物の構造上の構成要素でない対象地域内の1つ以上の物体、例えば、人、店舗の取り付け具、等も、モバイルデバイスのカメラ215の視野から隠すことが可能であるが、テキスト表示及び/又は図形表示は、隠されたPOIの方にモバイルデバイス120のユーザを誘導するために提供することができる。幾つかの実装においては、モバイルデバイスのレンダリングモジュール362及び/又はナビゲーションサーバ125のレンダリングモジュール462は、建物又はその他の屋内環境の1つ以上の構成要素によって見えないようになっているPOIと関連付けられたテキスト表示及び/又は図形表示を、建物又はその他の屋内環境の構成要素によってPOIが隠されていることをモバイルデバイス120のユーザに示すために部分的に透明にしてレンダリングするように構成することができる。屋内環境の構成要素によって見えないようになっているPOIは、モバイルデバイス120の現在位置、モバイルデバイス120が向いている方向及び/又はモバイルデバイスの方位、屋内環境に関する2D又は3Dマップ情報、及び、屋内環境内のPOIの幾何形状を定義するPOI情報に基づいて識別することができる。
[0094]幾つかの実装においては、段階805のソートは、任意選択であることができ、POIと関連付けられたテキスト表示及び/又は図形表示は、最初にPOIをソートしないでモバイルデバイス120の現在位置からの相対的距離に基づいてレンダリングすることができる。
[0095]これで、POIと関連付けられたレンダリングされた表示を地理上の対象エリアの表現とともに表示することができる(段階815)。POIと関連付けられたレンダリングされたテキスト表示及び/又は図形表示は、モバイルデバイス120のディスプレイ225上に表示することができる。幾つかの実装においては、レンダリングされたテキスト表示及び/又は図形表示は、カメラ215の視野のキャプチャされた画像及び/又は映像のオーバーレイとして表示することができる。その他の実装においては、モバイルデバイス120のレンダリングモジュール362及び/又はナビゲーションサーバのレンダリングモジュール462は、POIと関連付けられたテキスト表示及び/又は図形表示を組み入れた画像及び/又は映像コンテンツをモバイルデバイス120のカメラ215の視野の画像及び/又は映像コンテンツとともにディスプレイ225上に表示するために生成するように構成することができる。後者のアプローチ法は、レンダリングされたテキスト表示及び/又は図形表示が透明度レベルと関連付けられており、カメラ215によってキャプチャされたコンテンツの完全に不透明なオーバーレイとして完全にレンダリングされない場合に使用することができる。
[0096]図9は、モバイルデバイス120のカメラ215の視野内のPOIのX線ビューをモバイルデバイス120のディスプレイ225上に表示することを決定するためのプロセスのブロック流れ図である。図8において例示されるプロセスは、モバイルデバイス120によって及び/又はナビゲーションサーバ125によって実装することができる。図7において例示されるプロセスは、図6において例示されるプロセスの段階620を少なくとも部分的に実装するために使用することができる。
[0097]モバイルデバイス120の位置及び方向に基づいて識別されるPOIは、モバイルデバイス120からの距離に基づいてソートすることができる(段階905)。POIの各々は、POI情報と関連付けることができる。POI情報は、屋内環境と関連付けられたグローバルな又は自己定義された、ローカル座標系におけるPOIの境界及び/又はPOIの座標を定義する幾何学的情報を含むことができる。POI情報は、POIの各々がモバイルデバイス120の現在位置からどれだけ離れているかを決定するために使用することができ、及び、POIは、モバイルデバイス120の現在位置からのその距離に基づいてソートすることができる。
[0098]モバイルデバイス120の位置からのPOIの距離に基づいてPOIの各々に関するアルファチャネル値を決定することができる(段階910)。幾つかの実装においては、段階905のソートは任意選択であることができ、モバイルデバイス120の現在位置からの相対的位置に基づいて各POIに関してアルファチャネル値を決定することができる。POIの各々と関連付けられたアルファチャネル値は、特定のPOIと関連付けられた表示がどの程度透明に(又は逆にどの程度不透明に)レンダリングされるべきかを示すことができる。幾つかの実装においては、アルファチャネル値は、モバイルデバイス120の位置から予め決定された距離内にあるPOIと関連付けられた表示が不透明としてレンダリングされ、他方、モバイルデバイス120の位置からの予め決定された距離よりも遠くにあるPOIと関連付けられた表示は、POIがモバイルデバイス120の位置から遠ざかるに従って透明度が増すようにレンダリングされるような形で決定することができる。越えた場合にPOIと関連付けられた表示がまったくレンダリングされないスレショルド距離を定義することもできる。
[0099]POIと関連付けられた画像、それらのPOIのソート順序、及びそれらのPOIの各々と関連付けられたアルファチャネル値に基づいて合成画像コンテンツを生成することができる(段階915)。例えば、POIの各々は、POIの画像又はPOIのその他の図形表現と関連付けることができる。合成画像コンテンツは、POIの各々と関連付けられたテキスト表示及び/又は図形表示をカメラ215によってキャプチャされたモバイルデバイス120の視野の画像及び/又は映像コンテンツと結合することによって生成することができる。一実装例においては、カメラによってキャプチャされたモバイルデバイス120の視野の画像及び/又は映像コンテンツは、予め決定された透明度レベルと関連付けることができ、POIの各々と関連付けられたテキスト表示及び/又は図形表示は、カメラによってキャプチャされたモバイルデバイス120の視野の画像及び/又は映像コンテンツ上においてレンダリングすることができる。幾つかの実装においては、POIと関連付けられたテキスト表示及び/又は図形表示は、モバイルデバイス120の位置からのPOIの各々の距離に基づいてレンダリングすることができ、最初にモバイルデバイス120の位置からより遠いPOIから開始し、モバイルデバイス120の位置に最も近いPOIで終了する。
[0100]次に、合成画像コンテンツをモバイルデバイス120のディスプレイ225上に表示することができる(段階920)。段階915においてレンダリングされたPOIの表示を含むカメラの視野の合成された増強されたビューは、地理上の対象エリアのX線ビューを提供するためにモバイルデバイス120のディスプレイ225上に表示することができる。
[0101]その他の考慮事項
[0102]請求項を含む、ここにおいて使用される場合、“〜のうちの少なくとも1つの”によって始まる項目のリストにおいて使用される“又は”は、離接的リストを示し、従って、例えば、“A、B、又はCのうちの少なくとも1つの”のリストは、A又はB又はC又はAB又はAC又はBC又はABC(すなわち、A及びB及びC)、又は、2つ以上の特徴との組み合わせ(例えば、AA、AAB、ABBC、等)を意味する。
[0103]請求項を含む、ここにおいて使用される場合、別記がないかぎり、機能又は動作が項目又は条件に“基づく”という文は、その機能又は動作が述べられた項目又は条件に基づくことを意味し、述べられた項目又は条件に加えて1つ以上の項目及び/又は条件に基づくことができる。
[0104]無線通信ネットワークは、無線で送信されるすべての通信を有するわけではなく、無線で送信される少なくとも幾つかの通信を有するように構成される。
[0105]その他の例及び実装は、本開示及び添付された請求項の適用範囲及び精神内にある。例えば、ソフトウェアの性質に起因して、上述される機能は、プロセッサ、ハードウェア、ファームウェア、手書き、又はそれらのいずれかの組み合わせによって実行されるソフトウェアを用いて実装することができる。機能を実装するフィーチャー(feature)は、様々な位置に物理的に配置することもでき、機能の一部分が異なる物理的位置において実装されるように分散することができる。さらに、請求項を含む、ここにおいて使用される場合、“〜のうちの少なくとも1つの”によって始まる項目のリストにおいて使用される“又は”は、離接的リストを示し、従って、例えば、“A、B、又はCのうちの少なくとも1つの”のリストは、A又はB又はC又はAB又はAC又はBC又はABC(すなわち、A及びB及びC)、又は、2つ以上の特徴との組み合わせ(例えば、AA、AAB、ABBC、等)を意味する。
[0106]さらに、2つ以上の発明を開示することができる。
[0107]説明された構成の実質的な変形を特定の要件に従って行うことができる。例えば、カスタマイズされたハードウェアを使用することもでき、及び/又は、特定の要素をハードウェア、ソフトウェア(アプレット、等のポータブルソフトウェアを含む)、又は両方において実装することができる。さらに、その他のコンピューティングデバイス、例えば、ネットワーク入力/出力デバイス、への接続を採用することができる。
[0108]共通の形態の物理的及び/又は有形のコンピュータによって読み取り可能な媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、又はあらゆるその他の磁気媒体、CD−ROM、あらゆるその他の光学媒体、パンチカード、紙テープ、孔のパターンを有するあらゆるその他の物理的媒体、RAM、PROM、EPROM、FLASH−EPROM、あらゆるその他のメモリチップ又はカートリッジ、以下において説明される搬送波、又は、コンピュータが命令及び/又はコードを読み取ることができるあらゆるその他の媒体を含む。
[0109]上述される方法、システム、及びデバイスは例である。様々な構成は、様々な手順又は構成要素を適宜省略、代替、又は追加することができる。例えば、代替構成においては、方法は、説明される順序と異なるそれで実行することができ、様々なステップを追加、省略、又は結合することができる。さらに、幾つかの構成に関して説明される特徴は、様々なその他の構成内において結合することができる。それらの構成の異なる側面及び要素を同様な方法で結合することができる。さらに、技術は進化するものであり、従って、要素のうちの多くは例であり、本開示又は請求項の範囲を限定するものではない。
[0110]説明においては、構成例(実装例を含む)に関する徹底的な理解を提供することを目的として具体的な詳細が示される。しかしながら、構成は、これらの具体的な詳細なしで実践することができる。例えば、よく知られた回路、プロセス、アルゴリズム、構造、及び技法は、構成を曖昧にすることを避けるために不必要な詳細なしで示されている。この説明は、構成例のみを提供するものであり、請求項の範囲、適用性、又は構成を限定するものではない。むしろ、構成に関する前の説明は、説明される技法を実装するための説明を提供する。本開示の精神又は適用範囲から逸脱することなしに要素の機能及び配置の様々な変更を行うことができる。
[0111]さらに、構成は、流れ図又はブロック図として描かれるプロセスとして説明することができる。各々は、動作を順次のプロセスとして説明するが、それらの動作の多くは、平行して又は同時並行して実行することができる。さらに、動作の順序は、再編することができる。プロセスは、図内に含まれていない追加の段階又は機能を有することができる。さらに、方法の例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はそれらのあらゆる組み合わせによって実装することができる。ソフトウェア、ファームウェア、ミドルウェア、又はマイクロコードにおいて実装されるときには、タスクを実行するためのプログラムコード又はコードセグメントは、非一時的なコンピュータによって読み取り可能な媒体、例えば、記憶媒体、に格納することができる。プロセッサは、説明されるタスクを実行することができる。
[0112]幾つかの構成例について説明しているが、本開示の精神から逸脱することなしに様々な変更、代替構築、及び同等物を使用することができる。例えば、上記の要素は、より大きいシステムのコンポーネントであることができ、その他の規則が本発明の適用に優先すること又は本発明の適用を変更することができる。さらに、幾つかの動作は、上記の要素が考慮される前に、考慮中に、又は考慮された後に行うことができる。以上のように、上記の説明は、請求項の範囲を限定するものではない。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1] ナビゲーション情報をモバイルデバイス上に表示する方法であって、
前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手することと、
前記モバイルデバイスにおいて、前記モバイルデバイスと関連付けられた方向の表示を入手することと、
対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用することと、
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することと、を備え、
前記少なくとも1つの該当する対象ポイントの各々に関する前記少なくとも1つのビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離及び前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する、方法。
[C2] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC1に記載の方法。
[C3] 前記使用することは、前記モバイルデバイスからの第1の異なる距離にある第1の該当する対象ポイント及び前記第1の距離よりも大きい前記モバイルデバイスからの第2の異なる距離にある第2の該当する対象ポイントを決定することをさらに備え、前記表示することは、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示することをさらに備え、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つであるC2に記載の方法。
[C4] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに対する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明であるC1に記載の方法。
[C5] 前記地理上の対象エリアは、屋内環境を備えるC1に記載の方法。
[C6] 対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用することは、
前記モバイルデバイスの前記位置及び前記モバイルデバイスの方向の前記表示と関連付けられた少なくとも1つのアイレイを識別することと、
前記屋内環境の幾何学的表現を通じて前記アイレイを投影することと、
前記アイレイが交わる少なくとも1つの対象ポイントを前記少なくとも1つの該当する対象ポイントとして識別することと、をさらに備えるC1に記載の方法。
[C7] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することは、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすることと、
前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングすることと、
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示することと、をさらに備えるC1に記載の方法。
[C8] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC7に記載の方法。
[C9] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することは、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすることと、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの距離に基づいて前記少なくとも1つの対象ポイントの各々に関するアルファチャネル値を決定することと、
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び前記少なくとも1つの対象ポイントの各々と関連付けられた前記アルファチャネル値に基づいて合成画像コンテンツを生成することと、
前記合成画像コンテンツを前記モバイルデバイスのディスプレイ上に表示することと、をさらに備えるC1に記載の方法。
[C10] 前記少なくとも1つの対象ポイントの各々と関連付けられた前記図形表示は、前記図形表示と関連付けられた前記該当する対象ポイントの画像を備えるC9に記載の方法。
[C11] ナビゲーション情報をモバイルデバイス上に表示するための装置であって、
前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手するための手段と、
前記モバイルデバイスにおいて、前記モバイルデバイスと関連付けられた方向の表示を入手するための手段と、
対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用するための手段と、
前記少なくとも1つの該当する対象ポイントの各々に関するビジュアル表示を前記モバイルデバイス上に表示するための手段と、を備え、
前記少なくとも1つの該当する対象ポイントの各々に関する前記ビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離又は前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する、装置。
[C12] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC11に記載の装置。
[C13] 使用するための前記手段は、前記モバイルデバイスからの第1の異なる距離にある第1の該当する対象ポイント及び前記第1の距離よりも大きい前記モバイルデバイスからの第2の異なる距離にある第2の該当する対象ポイントを決定するための手段をさらに備え、表示するための前記手段は、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示するための手段をさらに備え、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つであるC12に記載の装置。
[C14] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに対する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明であるC11に記載の装置。
[C15] 前記地理上の対象エリアは、屋内環境を備えるC11に記載の装置。
[C16] 対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用するための前記手段は、
前記モバイルデバイスの前記位置及び前記モバイルデバイスの方向の前記表示と関連付けられた少なくとも1つのアイレイを識別するための手段と、
前記屋内環境の幾何学的表現を通じて前記アイレイを投影するための手段と、
前記アイレイが交わる少なくとも1つの対象ポイントを前記少なくとも1つの該当する対象ポイントとして識別するための手段と、をさらに備えるC11に記載の装置。
[C17] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するための前記手段は、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートするための手段と、
前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングするための手段と、
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示するための手段と、をさらに備えるC11に記載の装置。
[C18] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC17に記載の装置。
[C19] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するための前記手段は、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートするための手段と、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの距離に基づいて前記少なくとも1つの対象ポイントの各々に関するアルファチャネル値を決定するための手段と、
前記少なくとも1つの該当する対象ポイントと関連付けられた図形表示及び前記少なくとも1つの対象ポイントの各々と関連付けられた前記アルファチャネル値に基づいて合成画像コンテンツを生成するための手段と、
前記合成画像コンテンツを前記モバイルデバイスのディスプレイ上に表示するための手段と、をさらに備えるC11に記載の装置。
[C20] 前記少なくとも1つの対象ポイントの各々と関連付けられた前記図形表示は、前記図形表示と関連付けられた前記該当する対象ポイントの画像を備えるC19に記載の装置。
[C21] ナビゲーション情報をモバイルデバイス上に表示するためのコンピュータによって読み取り可能な命令を格納している非一時的なコンピュータによって読み取り可能な媒体であって、
前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手すること、
前記モバイルデバイスにおいて、前記モバイルデバイスと関連付けられた方向の表示を入手すること、
対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用すること、及び
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することをコンピュータに行わせるように構成された命令を備え、
前記少なくとも1つの該当する対象ポイントの各々に関する前記少なくとも1つのビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離又は前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する、非一時的なコンピュータによって読み取り可能な媒体。
[C22] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC21に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C23] 使用することを前記コンピュータに行わせるように構成された前記命令は、前記モバイルデバイスからの第1の異なる距離にある第1の該当する対象ポイント及び前記第1の距離よりも大きい前記モバイルデバイスからの第2の異なる距離にある第2の該当する対象ポイントを決定することを前記コンピュータに行わせるための命令さらに備え、表示することを前記コンピュータに行わせるための前記命令は、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示することを前記コンピュータに行わせるための命令をさらに備え、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つであるC22に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C24] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに対する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明であるC1に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C25] 前記地理上の対象エリアは、屋内環境を備えるC21に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C26] 対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用することを前記コンピュータに行わせるため前記命令は、
前記モバイルデバイスの前記位置及び前記モバイルデバイスの方向の前記表示と関連付けられた少なくとも1つのアイレイを識別すること、
前記屋内環境の幾何学的表現を通じて前記アイレイを投影すること、及び
前記アイレイが交わる少なくとも1つの対象ポイントを前記少なくとも1つの該当する対象ポイントとして識別することを前記コンピュータに行わせるための命令をさらに備えるC21に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C27] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することを前記コンピュータに行わせるための前記命令は、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすること、
前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングすること、及び
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示することを前記コンピュータに行わせるための命令をさらに備えるC21に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C28] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC27に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C29] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することを前記コンピュータに行わせるための前記命令は、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすること、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの距離に基づいて前記少なくとも1つの対象ポイントの各々に関するアルファチャネル値を決定すること、
前記少なくとも1つの該当する対象ポイントと関連付けられた図形表示及び前記少なくとも1つの対象ポイントの各々と関連付けられた前記アルファチャネル値に基づいて合成画像コンテンツを生成すること、及び
前記合成画像コンテンツを前記モバイルデバイスのディスプレイ上に表示することを前記コンピュータに行わせるための命令をさらに備えるC21に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C30] 前記少なくとも1つの対象ポイントの各々と関連付けられた前記図形表示は、前記図形表示と関連付けられた前記該当する対象ポイントの画像を備えるC29に記載の非一時的なコンピュータによって読み取り可能な媒体。
[C31] ナビゲーション情報をモバイルデバイス上に表示するための装置であって、
データを無線で送信及び受信するように構成されたトランシーバと、
プロセッサによって実行可能なプログラムコードを格納するように構成されたメモリと、
前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手し、
前記モバイルデバイスにおいて、前記モバイルデバイスと関連付けられた方向の表示を入手し、
対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用し、及び
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するように構成されたプロセッサと、を備え、
前記少なくとも1つの該当する対象ポイントに関する前記少なくとも1つのビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離又は前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における既知の物理的障害物の存在のうちの少なくとも1つに依存する、装置。
[C32] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有するC31に記載の装置。
[C33] 対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用するように構成される前記プロセッサは、前記モバイルデバイスからの第1の異なる距離における第1の該当する対象ポイント及び前記第1の距離よりも大きい前記モバイルデバイスからの第2の異なる距離における第2の該当する対象ポイントを決定するようにさらに構成され、前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するように構成される前記プロセッサは、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示するようにさらに構成され、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示うちの少なくとも1つであるC32に記載の装置。
[C34] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに関する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明であるC31に記載の装置。
[C35] 前記地理上の対象エリアは、屋内環境を備えるC31に記載の装置。
[C36] 対象ポイントのうちで前記モバイルデバイスの前記位置及び方向と関連付けられる前記少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスと関連付けられた前記方向の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用するように構成される前記プロセッサは、
前記モバイルデバイスの前記位置及び前記モバイルデバイスの方向の前記表示と関連付けられた少なくとも1つのアイレイを識別し、
前記屋内環境の幾何学的表現を通じて前記アイレイを投影し、及び
前記アイレイが交わる少なくとも1つの対象ポイントを前記少なくとも1つの該当する対象ポイントとして識別するようにさらに構成されるC31に記載の装置。
[C37] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するように構成される前記プロセッサは、前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートし、
前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングし、及び
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示するようにさらに構成されるC31に記載の装置。
[C38] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ及び透明度のうち少なくとも1つを有するC37に記載の装置。
[C39] 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するように構成される前記プロセッサは、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートし、
前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの距離に基づいて前記少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定し、
前記少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記アルファチャネル値に基づいて合成画像コンテンツを生成し、及び
前記合成画像コンテンツを前記モバイルデバイスのディスプレイ上に表示するようにさらに構成されるC31に記載の装置。
[C40] 前記少なくとも1つの対象ポイントの各々と関連付けられた前記図形表示は、前記図形表示と関連付けられた前記該当する対象ポイントの画像を備えるC39に記載の装置。

Claims (16)

  1. 屋内ナビゲーション情報をモバイルデバイス上に表示する方法であって、
    前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手することと、
    前記モバイルデバイスにおいて、前記モバイルデバイスによってキャプチャされた画像コンテンツを使用して前記モバイルデバイスの方位の表示を決定することと、
    対象ポイントのうちで前記モバイルデバイスの前記位置及び前記方位と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスの前記方位の前記表示、前記地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用することと、
    前記少なくとも1つの該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することと、ここにおいて、前記表示することは、前記対象ポイントが既知の物理的障害物によって隠される場合、前記既知の物理的障害物を部分的に透明にして前記対象ポイントをレンダリングすることを備える、を備え、
    前記少なくとも1つの該当する対象ポイントの各々に関する前記少なくとも1つのビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離あるいは前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における前記既知の物理的障害物の存在のうちの少なくとも1つに依存する、方法。
  2. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する請求項1に記載の方法。
  3. 前記使用することは、前記モバイルデバイスからの第1の異なる距離にある第1の該当する対象ポイント及び前記第1の異なる距離よりも大きい前記モバイルデバイスからの第2の異なる距離にある第2の該当する対象ポイントを決定することをさらに備え、前記表示することは、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示することをさらに備え、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである請求項2に記載の方法。
  4. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに対する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明である請求項1に記載の方法。
  5. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することは、
    前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすることと、
    前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングすることと、
    前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示することと、をさらに備える請求項1に記載の方法。
  6. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する請求項5に記載の方法。
  7. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示することは、
    前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートすることと、
    前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの距離に基づいて前記少なくとも1つの該当する対象ポイントの各々に関するアルファチャネル値を決定することと、
    前記少なくとも1つの該当する対象ポイントの各々と関連付けられた図形表示及び前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記アルファチャネル値に基づいて合成画像コンテンツを生成することと、
    前記合成画像コンテンツを前記モバイルデバイスのディスプレイ上に表示することと、をさらに備える請求項1に記載の方法。
  8. 前記少なくとも1つの対象ポイントの各々と関連付けられた前記図形表示は、前記図形表示と関連付けられた前記該当する対象ポイントの画像を備える請求項7に記載の方法。
  9. 屋内ナビゲーション情報をモバイルデバイス上に表示するための装置であって、
    前記モバイルデバイスにおいて、前記モバイルデバイスの位置の表示を入手するための手段と、
    前記モバイルデバイスにおいて、前記モバイルデバイスによってキャプチャされた画像コンテンツを使用して前記モバイルデバイスの方位の表示を決定するための手段と、
    対象ポイントのうちで前記モバイルデバイスの前記位置及び前記方位と関連付けられる少なくとも1つの該当する対象ポイントを決定するために前記モバイルデバイスの前記位置の前記表示、前記モバイルデバイスの前記方位の前記表示、地理上の対象地域内の前記対象ポイントのアイデンティティに関する情報、及び、前記対象ポイントと関連付けられたエリアに関する情報を使用するための手段と、
    前記少なくとも1つの該当する対象ポイントの各々に関するビジュアル表示を前記モバイルデバイス上に表示するための手段と、ここにおいて、前記表示するための手段は、前記対象ポイントが既知の物理的障害物によって隠される場合、前記既知の物理的障害物を部分的に透明にして前記対象ポイントをレンダリングするための手段を備える、を備え、
    前記少なくとも1つの該当する対象ポイントの各々に関する前記ビジュアル表示の外観は、前記ビジュアル表示と関連付けられた前記該当する対象ポイントの前記モバイルデバイスからの距離又は前記モバイルデバイスと前記ビジュアル表示と関連付けられたその該当する対象ポイントとの間における前記既知の物理的障害物の存在のうちの少なくとも1つに依存する、装置。
  10. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記該当する対象ポイントの前記モバイルデバイスからの前記距離に依存する前記ビジュアル表示のサイズ又は透明度のうちの少なくとも1つを有する請求項9に記載の装置。
  11. 使用するための前記手段は、前記モバイルデバイスからの第1の異なる距離にある第1の該当する対象ポイント及び前記第1の異なる距離よりも大きい前記モバイルデバイスからの第2の異なる距離にある第2の該当する対象ポイントを決定するための手段をさらに備え、表示するための前記手段は、前記第1及び第2の該当する対象ポイントにそれぞれ対応する第1及び第2のビジュアル表示を表示するための手段をさらに備え、前記第1のビジュアル表示は、前記第2のビジュアル表示よりも大きい又は透明度が低いビジュアル表示のうちの少なくとも1つである請求項10に記載の装置。
  12. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示は、前記モバイルデバイスと前記該当する対象ポイントとの間における前記既知の物理的障害物の前記存在に依存する前記ビジュアル表示の透明度を有し、前記該当する対象ポイントは、前記モバイルデバイスに対する前記既知の物理的障害物を越えて配置され、前記ビジュアル表示は透明である請求項9に記載の装置。
  13. 前記地理上の対象エリアは、屋内環境を備える請求項9に記載の装置。
  14. 前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示を前記モバイルデバイス上に表示するための前記手段は、
    前記モバイルデバイスの前記位置からの前記少なくとも1つの該当する対象ポイントの各々の距離に基づいて前記少なくとも1つの該当する対象ポイントをソートするための手段と、
    前記該当する対象ポイントの各々と関連付けられた少なくとも1つのビジュアル表示をレンダリングするための手段と、
    前記少なくとも1つの該当する対象ポイントの各々と関連付けられた前記少なくとも1つのビジュアル表示及び前記モバイルデバイスのカメラの視野の表現を表示するための手段と、をさらに備える請求項9に記載の装置。
  15. 前記地理上の対象エリアは、屋内環境を備える、請求項1に記載の方法。
  16. 屋内ナビゲーション情報をモバイルデバイス上に表示するためのコンピュータによって読み取り可能な命令を格納している非一時的なコンピュータによって読み取り可能な媒体であって、請求項1〜7または15のうちのいずれかの方法をコンピュータに行わせるように構成された命令を備える、非一時的なコンピュータによって読み取り可能な媒体。
JP2015559239A 2013-02-26 2014-01-16 モバイルデバイスを用いるナビゲーションのための方向性ビュー及びx線ビュー技法 Expired - Fee Related JP6312715B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/777,861 2013-02-26
US13/777,861 US9959674B2 (en) 2013-02-26 2013-02-26 Directional and X-ray view techniques for navigation using a mobile device
PCT/US2014/011788 WO2014133681A1 (en) 2013-02-26 2014-01-16 Directional and x-ray view techniques for navigation using a mobile device

Publications (3)

Publication Number Publication Date
JP2016515197A JP2016515197A (ja) 2016-05-26
JP2016515197A5 JP2016515197A5 (ja) 2017-02-09
JP6312715B2 true JP6312715B2 (ja) 2018-04-18

Family

ID=50073464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015559239A Expired - Fee Related JP6312715B2 (ja) 2013-02-26 2014-01-16 モバイルデバイスを用いるナビゲーションのための方向性ビュー及びx線ビュー技法

Country Status (5)

Country Link
US (4) US9959674B2 (ja)
EP (3) EP4414815A2 (ja)
JP (1) JP6312715B2 (ja)
CN (1) CN105190239B (ja)
WO (1) WO2014133681A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US11531743B2 (en) 2011-01-14 2022-12-20 Flash Seats, Llc Systems and methods for enhancing biometric matching accuracy
CN103415858B (zh) 2011-01-14 2018-03-20 闪席有限责任公司 移动应用条形码识别方法和系统
US9959674B2 (en) 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
JP2014209680A (ja) * 2013-04-16 2014-11-06 富士通株式会社 土地境界表示プログラム、方法、及び端末装置
EP3004803B1 (en) * 2013-06-07 2021-05-05 Nokia Technologies Oy A method and apparatus for self-adaptively visualizing location based digital information
CN104457767B (zh) * 2013-09-18 2019-03-01 腾讯科技(深圳)有限公司 实现位置服务的方法和装置
US10891562B1 (en) 2014-01-10 2021-01-12 Flash Seats Llc Paperless venue entry and location-based services
US9881590B2 (en) * 2014-03-12 2018-01-30 HERE Global, B.V. Method and apparatus for multi-resolution point of interest boundary identification in digital map rendering
CN104596523B (zh) * 2014-06-05 2019-05-07 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
US9791919B2 (en) * 2014-10-19 2017-10-17 Philip Lyren Electronic device displays an image of an obstructed target
US20180025283A1 (en) * 2015-05-11 2018-01-25 Sony Corporation Information processing apparatus, information processing method, and program
US20170046891A1 (en) * 2015-08-12 2017-02-16 Tyco Fire & Security Gmbh Systems and methods for location identification and tracking using a camera
CA2957643A1 (en) * 2016-02-11 2017-08-11 Wal-Mart Stores, Inc. A mobile camera-equipped device-based approach to assessing a display
US11032471B2 (en) * 2016-06-30 2021-06-08 Nokia Technologies Oy Method and apparatus for providing a visual indication of a point of interest outside of a user's view
US10129698B2 (en) 2016-07-14 2018-11-13 United Parcel Service Of America, Inc. Internal location address and automatic routing of intra-facility movement
US11204156B2 (en) 2016-07-29 2021-12-21 Labyrinth Technologies, Llc Systems and methods for aggregating edge signals in a mesh network
US20200096179A1 (en) 2016-07-29 2020-03-26 Labyrinth Technologies, Llc Localization systems and methods
US10429191B2 (en) * 2016-09-22 2019-10-01 Amadeus S.A.S. Systems and methods for improved data integration in augmented reality architectures
US10484643B2 (en) * 2016-11-10 2019-11-19 Avaya Inc. Intelligent contact recording in a virtual reality contact center
EP3349031A1 (en) * 2017-01-16 2018-07-18 Combain Mobile AB A method for generating an indoor environment model and a method for determining position data for a location in an indoor environment
EP3388929A1 (en) * 2017-04-14 2018-10-17 Facebook, Inc. Discovering augmented reality elements in a camera viewfinder display
EP3607269B1 (en) 2017-06-02 2024-09-18 Apple Inc. Venue map application and system providing a venue directory
US10107767B1 (en) * 2017-06-14 2018-10-23 The Boeing Company Aircraft inspection system with visualization and recording
US10796487B2 (en) * 2017-09-27 2020-10-06 Fisher-Rosemount Systems, Inc. 3D mapping of a process control environment
US10489951B2 (en) 2017-09-29 2019-11-26 Qualcomm Incorporated Display of a live scene and auxiliary object
US11232636B2 (en) * 2018-02-08 2022-01-25 Edx Technologies, Inc. Methods, devices, and systems for producing augmented reality
WO2019168387A1 (en) * 2018-03-01 2019-09-06 Samsung Electronics Co., Ltd. Devices, methods, and computer program for displaying user interfaces
US11403806B2 (en) * 2018-03-20 2022-08-02 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10652698B1 (en) 2018-03-26 2020-05-12 Lynq Technologies, Inc. Local determination of geo-location data by user devices
US11189610B2 (en) * 2018-06-27 2021-11-30 Advanced Semiconductor Engineering, Inc. Substrate structure and manufacturing process
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
KR102009031B1 (ko) * 2018-09-07 2019-08-08 네이버랩스 주식회사 증강현실을 이용한 실내 내비게이션을 위한 방법 및 시스템
US10783714B2 (en) * 2019-01-29 2020-09-22 Verizon Patent And Licensing Inc. Methods and systems for automatically tailoring a form of an extended reality overlay object
EP3719613A1 (en) * 2019-04-01 2020-10-07 Nokia Technologies Oy Rendering captions for media content
US11796333B1 (en) 2020-02-11 2023-10-24 Keysight Technologies, Inc. Methods, systems and computer readable media for augmented reality navigation in network test environments
US11263787B2 (en) * 2020-03-05 2022-03-01 Rivian Ip Holdings, Llc Augmented reality detection for locating autonomous vehicles
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
US11570050B2 (en) 2020-11-30 2023-01-31 Keysight Technologies, Inc. Methods, systems and computer readable media for performing cabling tasks using augmented reality
US11967147B2 (en) * 2021-10-01 2024-04-23 At&T Intellectual Proerty I, L.P. Augmented reality visualization of enclosed spaces
US11863682B2 (en) 2021-12-07 2024-01-02 AXS Group LLC Systems and methods for encrypted multifactor authentication using imaging devices and image enhancement
US11501586B1 (en) 2022-03-31 2022-11-15 AXS Group LLC Systems and methods for providing temporary access credentials to access physical locations

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6507758B1 (en) * 1999-03-24 2003-01-14 Second Sight, Llc Logarithmic light intensifier for use with photoreceptor-based implanted retinal prosthetics and those prosthetics
US7893963B2 (en) * 2000-03-27 2011-02-22 Eastman Kodak Company Digital camera which estimates and corrects small camera rotations
US20110027357A1 (en) * 2004-02-18 2011-02-03 Isaac Gilinski Compositions and methods for timed release of water-soluble nutritional supplements
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP2006304265A (ja) 2005-03-25 2006-11-02 Fuji Photo Film Co Ltd 画像出力装置、画像出力方法、および画像出力プログラム
US20060259574A1 (en) * 2005-05-13 2006-11-16 Outland Research, Llc Method and apparatus for accessing spatially associated information
US7525425B2 (en) * 2006-01-20 2009-04-28 Perdiem Llc System and method for defining an event based on relationship between an object location and a user-defined zone
US20070160942A1 (en) 2005-12-28 2007-07-12 Peter Chen Chip lighter actuation mechanism
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
JP4502005B2 (ja) * 2007-12-27 2010-07-14 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びコンピュータプログラム
TW200938866A (en) 2008-03-07 2009-09-16 Inventec Appliances Corp Navigation method and application thereof
US8867571B2 (en) * 2008-03-31 2014-10-21 Echostar Technologies L.L.C. Systems, methods and apparatus for transmitting data over a voice channel of a wireless telephone network
US9200901B2 (en) 2008-06-19 2015-12-01 Microsoft Technology Licensing, Llc Predictive services for devices supporting dynamic direction information
US20090315775A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information
JP4816748B2 (ja) 2009-03-06 2011-11-16 ソニー株式会社 ナビゲーション装置及びナビゲーション方法
KR101561913B1 (ko) 2009-04-17 2015-10-20 엘지전자 주식회사 이동 단말기의 영상 표시 방법 및 그 장치
JP2010266256A (ja) 2009-05-13 2010-11-25 Sanyo Electric Co Ltd ナビゲーション装置
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US8855929B2 (en) * 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
KR101643869B1 (ko) * 2010-05-06 2016-07-29 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US20110287811A1 (en) * 2010-05-21 2011-11-24 Nokia Corporation Method and apparatus for an augmented reality x-ray
US8874129B2 (en) * 2010-06-10 2014-10-28 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
US8698843B2 (en) 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US8380427B2 (en) * 2010-12-03 2013-02-19 Google Inc. Showing realistic horizons on mobile computing devices
KR101306286B1 (ko) * 2010-12-17 2013-09-09 주식회사 팬택 X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
US20120194547A1 (en) 2011-01-31 2012-08-02 Nokia Corporation Method and apparatus for generating a perspective display
US8660581B2 (en) 2011-02-23 2014-02-25 Digimarc Corporation Mobile device indoor navigation
US20120259732A1 (en) * 2011-04-07 2012-10-11 Sanal Sasankan Method and system for locating a product in a store using a mobile device
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US8848970B2 (en) * 2011-04-26 2014-09-30 Digimarc Corporation Salient point-based arrangements
US8938257B2 (en) * 2011-08-19 2015-01-20 Qualcomm, Incorporated Logo detection for indoor positioning
US9514717B2 (en) * 2011-09-26 2016-12-06 Nokia Technology Oy Method and apparatus for rendering items in a user interface
US9087412B2 (en) * 2011-09-26 2015-07-21 Nokia Technologies Oy Method and apparatus for grouping and de-overlapping items in a user interface
US20130095855A1 (en) * 2011-10-13 2013-04-18 Google Inc. Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage
US9230367B2 (en) * 2011-12-13 2016-01-05 Here Global B.V. Augmented reality personalization
WO2014094881A1 (en) 2012-12-21 2014-06-26 Metaio Gmbh Method for representing virtual information in a real environment
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device

Also Published As

Publication number Publication date
EP2962065A1 (en) 2016-01-06
US10354452B2 (en) 2019-07-16
EP4414815A2 (en) 2024-08-14
US9959674B2 (en) 2018-05-01
CN105190239A (zh) 2015-12-23
CN105190239B (zh) 2018-12-14
US20190392649A1 (en) 2019-12-26
EP3708956A1 (en) 2020-09-16
US20180204386A1 (en) 2018-07-19
US10445945B2 (en) 2019-10-15
WO2014133681A1 (en) 2014-09-04
JP2016515197A (ja) 2016-05-26
US20140240350A1 (en) 2014-08-28
US10878637B2 (en) 2020-12-29
US20190279429A1 (en) 2019-09-12

Similar Documents

Publication Publication Date Title
US10878637B2 (en) Directional and x-ray view techniques for navigation using a mobile device
US9191782B2 (en) 2D to 3D map conversion for improved navigation
US9906921B2 (en) Updating points of interest for positioning
US8972174B2 (en) Method for providing navigation information, machine-readable storage medium, mobile terminal, and server
JP6312716B2 (ja) 屋内環境内のモバイルデバイスの位置を決定するための方法、装置、および媒体
US9472159B2 (en) Method and apparatus for annotating point of interest information
US11367257B2 (en) Information processing apparatus, information processing method, and storage medium
US20140236475A1 (en) Methods and systems for navigation in indoor environments
JP2016507747A (ja) 言語入力によるランドマークベースの測位
US20180283877A1 (en) Localized Map Generation
US11676356B2 (en) Using augmented reality markers for local positioning in a computing environment
US20190179512A1 (en) Graphical user interface for finding and depicting individuals
WO2021090219A1 (en) 3d video generation for showing shortest path to destination
KR20190087267A (ko) 사용자 주변 포커싱을 통한 지역 정보 자동 인식 장치 및 방법
CN115950437A (zh) 一种室内的定位方法、定位装置、设备和介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180320

R150 Certificate of patent or registration of utility model

Ref document number: 6312715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees