JP2016534335A - 屋内環境においてモバイルフォンの方位を決定するための方法および装置 - Google Patents

屋内環境においてモバイルフォンの方位を決定するための方法および装置 Download PDF

Info

Publication number
JP2016534335A
JP2016534335A JP2016531764A JP2016531764A JP2016534335A JP 2016534335 A JP2016534335 A JP 2016534335A JP 2016531764 A JP2016531764 A JP 2016531764A JP 2016531764 A JP2016531764 A JP 2016531764A JP 2016534335 A JP2016534335 A JP 2016534335A
Authority
JP
Japan
Prior art keywords
indicator
orientation
determining
mobile device
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016531764A
Other languages
English (en)
Other versions
JP2016534335A5 (ja
Inventor
ジョビシク、アレクサンダー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016534335A publication Critical patent/JP2016534335A/ja
Publication of JP2016534335A5 publication Critical patent/JP2016534335A5/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

ワイヤレス通信のための方法、装置、およびコンピュータプログラム製品が提供される。装置は、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャし、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別し、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定する。【選択図】図1

Description

関連出願に対する相互参照
[0001] 本願は、2013年7月30日出願の「METHODS AND APPARATUS FOR DETERMINING THE ORIENTATION OF A MOBILE PHONE IN AN INDOOR ENVIRONMENT」と題する、米国特許出願第13/954,356号の優先権を主張し、これは、全体として本明細書に参照によって明確に組み込まれる。
[0002] 本開示は、概して、モバイルデバイスに関し、より具体的には、屋内環境においてモバイルフォンの方位を決定するための方法および装置に関する。
[0003] 屋内環境においてモバイルデバイスの方位を決定することは、多くのアプリケーションにおいて有用でありうる。例えば、モバイルデバイスの方位は、オフィス/商業環境においてモバイルフォンユーザをナビゲートするため、顧客がスーパーマーケットあるいは販売店で物品を見つけることを可能にするため、クーポン発行ならびに買戻しのため、およびカスタマーサービスならびに説明責任のために必要とされうる。しかしながら、屋内会場における正確な方位推定を達成することは、挑戦的なタスクである。モバイルデバイスは、通常、モバイルデバイスに内蔵されているコンパスを使用してその方位を推定する。しかしながら、このような方位推定は、壁内部の金属製の物体、ドアフレーム、および多くの屋内会場内の家具の存在により、極めて不正確なときがよくある。
[0004] 本開示の態様において、方法、コンピュータプログラム製品、および装置が提供される。装置は、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャし、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別し、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定する。
[0005] モバイルデバイスを含む屋内会場の上面図を例示する図。 [0006] モバイルデバイスを例示する図。 [0007] 屋内会場のマップを例示する図。 [0008] モバイルデバイスのための方法のフローチャート。 [0009] モバイルデバイスのための方法のフローチャート。 [0010] 実例的な装置における異なるモジュール/手段/コンポーネント間のデータフローを例示する概念的なデータフロー図。 [0011] 処理システムを採用する装置のためのハードウェアインプリメンテーションの例を例示する図。
詳細な説明
[0012] 添付の図面に関連して以下に述べられる詳細な説明は、様々な構成の説明として意図されており、本明細書に説明される概念が実現されうる唯一の構成を表すように意図されたものではない。詳細な説明は、様々な概念の完全な理解を提供するために、具体的な詳細を含む。しかしながら、これらの概念がこれらの具体的な詳細なしに実現されうることが当業者には明らかになるであろう。いくつかの事例では、周知の構造およびコンポーネントが、そのような概念を曖昧にすることを避けるためにブロック図の形態で示される。
[0013] ここでは、様々な装置および方法を参照して、モバイルデバイスのいくつかの態様が提示されることになる。これらの装置および方法は、以下の詳細な説明において説明され、添付の図面において、さまざまなブロック、モジュール、コンポーネント、回路、ステップ、プロセス、アルゴリズム、等(まとめて「エレメント」と称される)によって例示されることになる。これらのエレメントは、電子ハードウェア、コンピュータソフトウェア、またはこれらの任意の組み合わせを使用してインプリメントされうる。このようなエレメントがハードウェアとしてインプリメントされるか、ソフトウェアとしてインプリメントされるかは、システム全体に課せられた設計制約および特定のアプリケーションに依存する。
[0014] 例として、エレメント、またはエレメントの任意の部分、またはエレメントの任意の組み合わせは、1つまたは複数のプロセッサを含む「処理システム」を用いてインプリメントされうる。プロセッサの例は、マイクロプロセッサ、マイクロコントローラ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブル論理デバイス(PLD)、ステートマシン、ゲートロジック、ディスクリートハードウェア回路、および、本開示全体を通して説明される様々な機能性を行うように構成された他の適したハードウェアを含む。処理システム内の1つまたは複数のプロセッサは、ソフトウェアを実行しうる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、または別の方法で称されるかどうかにかかわらず、命令、命令のセット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行ファイル、実行スレッド、プロシージャ、関数、等を意味するように幅広く解釈されるものとする。
[0015] したがって、1つまたは複数の実例的な実施形態において、説明される機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせにインプリメントされうる。ソフトウェアにインプリメントされる場合、これら機能は、コンピュータ可読媒体上の1つまたは複数の命令あるいはコードとして記憶または符号化されうる。コンピュータ可読媒体は、コンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされることができる任意の利用可能な媒体でありうる。限定ではなく例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMあるいは他の光ディスク記憶装置、磁気ディスク記憶装置あるいは他の磁気記憶デバイス、または、命令あるいはデータ構造の形態で所望のプログラムコードを記憶または搬送するために使用されることができ、およびコンピュータによってアクセスされることができる、任意の他の媒体を備えることができる。本明細書に使用される、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、およびフロッピー(登録商標)ディスクを含み、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)は、レーザを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0016] 本明細書で使用されるように、モバイルデバイスという用語は、セルラフォン、スマートフォン、セッション開始プロトコル(SIP)フォン、ラップトップ、携帯情報端末(PDA)、衛星ラジオ、全地球測位システム、マルチメディアデバイス、ビデオデバイス、デジタルオーディオプレイヤ(例えば、MP3プレイヤ)、カメラ、ゲーム機、タブレット、または他の任意の類似した機能のデバイスを指しうる。さらに、モバイルデバイスという用語は、当業者によって、モバイル局、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、遠隔ユニット、ワイヤレスデバイス、遠隔デバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、遠隔端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、または他の何らかの適した用語としてもまた称されうる。
[0017] 図1は、モバイルデバイス104を含む屋内会場の上面図を例示する図である。図1の構成において、屋内会場は、オフィスビルのフロア102である。例えば、モバイルデバイス104は、静止しているユーザまたはフロア102上を移動しているユーザによって持たれうる。図1の構成において、モバイルデバイス104は、フロア102の基準軸(reference axes)107に対して北西方向に向いている。例えば、図1に示されているように、方位軸106(例えば、モバイルデバイス104が向けられた方向)は、基準軸107に対して北西方向に向いている。
[0018] 1つの態様において、フロア102は、モバイルデバイス104の上部にロケートされた(located)2つ以上の方位インジケータ(「インジケータ」または「照明装置(luminaires)」とも称される)を含みうる。図1の構成において、フロア102は、インジケータ108、110、112、114、116、118、120、および122を含む。フロア102が、図1に示されているものよりも少ない数または多い数のインジケータを含むこともあることが理解されるべきである。1つの態様において、インジケータの各々は、照明器具または照明装置であり得、対応するインジケータを識別するための情報を通信するように構成されうる。例えば、このような照明器具または照明装置は、光発生素子として発光ダイオード(LED)を含みうる。別の例において、インジケータの各々は、QRコード(登録商標)(クイック応答コードとも称される)、あるいはカラーパネルのような視覚インジケータでありうるか、または、別個の形状(distinct shape)(例えば、四角形、三角形、星形、等)のような、一意の視覚特性(unique visual characteristic)を含みうる。1つの構成において、インジケータは、インジケータがフロア102の床(ground)から見えるように、フロア102の天井に各々設置されうる。以下に説明するように、モバイルデバイス104は、基準軸107に対するモバイルデバイス104の方位軸106を決定するために、インジケータのうちの2つ以上を使用するように構成されうる。
[0019] 図2Aは、モバイルデバイス104を例示する図である。図2Aに示されているように、モバイルデバイス104は、前面カメラ(front facing camera)105およびディスプレイスクリーン204を含む。1つの態様において、前面カメラ105は、前面カメラ105内に設置されたデジタル画像センサ(例えば、CMOSセンサ)を介して画像をキャプチャしうる。モバイルデバイス104は、ディスプレイスクリーン204上の前面カメラ105によってキャプチャされた画像を表示しうる。
[0020] 図1を参照すると、モバイルデバイス104は、2つ以上のインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)の1つまたは複数の画像をキャプチャするように前面カメラ105を動作させうる。モバイルデバイス104は、モバイルデバイス104の上部、および前面カメラ105の視野内にロケートされたインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のうちの2つ以上から識別情報を受信するように前面カメラ105をさらに動作させうる。1つの態様において、また以下に説明するように、前面カメラ105は、図1の1つまたは複数のインジケータからいずれの識別情報も受信せずに、インジケータのうちの1つまたは複数からの識別情報を検出しうる。
[0021] 1つの態様において、インジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)は、可視光通信(VLC)信号を送信するように構成されたLEDデバイスでありうる。VLC信号は、モバイルデバイス104の前面カメラ105およびデジタル画像センサによって検出されうる。VLC信号は、次いで、モバイルデバイス104によって復号されうる。このような態様において、インジケータによって送信されるVLC信号は、インジケータの識別情報を含みうる。モバイルデバイス104は、インジケータによって送信された識別情報とインジケータを関連付けうる。例えば、インジケータによって送信される識別情報は、他のインジケータに対して一意である48ビットMACアドレスでありうる。このような識別情報が一意であり、特定の会場(例えば、オフィスビル、スーパーマーケット、またはショッピングモールのフロア)にロケートされたインジケータを明確にすること(disambiguation)を可能にするならば、他のタイプの識別情報がインジケータによって送信されることもあることが理解されるべきである。1つの態様において、モバイルデバイス104は、複数のインジケータからのVLC信号を同時に復号するように構成されうる。
[0022] 例えば、前面カメラ105は、インジケータE116によって送信された第1のVLC信号と、インジケータF118によって送信された第2のVLC信号とを検出および復号しうる。モバイルデバイス104は、第1のVLC信号に含まれる識別情報を決定するため、およびインジケータE116を識別するために、インジケータE116によって送信された第1のVLC信号を復号しうる。モバイルデバイス104は、第2のVLC信号に含まれる識別情報を決定するため、およびインジケータF118を識別するために、インジケータF118によって送信された第2のVLC信号を復号しうる。この例において、モバイルデバイス104は、第1のVLC信号を介してインジケータE116から受信された第1の48ビットMACアドレスに基づいて、インジケータE116を識別し得、ここで、第1の48ビットMACアドレスは、インジケータE116を識別するか、またはインジケータE116に対応する。モバイルデバイス104は、第2のVLC信号を介してインジケータF118から受信された第2の48ビットMACアドレスに基づいて、インジケータF118を識別し得、ここで、第2の48ビットMACアドレスは、インジケータF118を識別するか、またはインジケータF118に対応する。
[0023] 1つの態様において、インジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のうちの1つまたは複数は、いずれの情報も送信しないこともある。このような態様において、情報は、前面カメラ105内に設置されたデジタル画像センサ(例えば、CMOSセンサ)によって検出および解釈されうる、インジケータの形状、色、およびまたは視覚構造に組み込まれうる。
[0024] 1つの態様において、モバイルデバイス104が2つ以上のインジケータを識別した後に、モバイルデバイス104は、モバイルデバイス104が現在ロケートされている会場のマップを参照しうる。1つの構成において、会場のマップは、会場にロケートされたインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のうちの2つ以上のロケーションを含みうる。
[0025] 1つの態様において、マップ216は、モバイルデバイス104のメモリに記憶されうる。別の態様において、マップ216は、遠隔サーバ(図示せず)に記憶されうる。このような態様において、モバイルデバイス104は、方位情報を求めて遠隔サーバに問合せ(query)しうる。例えば、モバイルデバイス104は、識別されたインジケータ116ならびに118に関する情報を、問合せと共に遠隔サーバ(ネットワークとも称される)に送りうる。1つの構成において、遠隔サーバは、モバイルデバイス104の方位と共に応答しうる。1つの態様において、マップ216は、ワイヤレスローカルエリアネットワーク(WLAN)、広域ネットワーク(WAN)、または他のネットワークからの帯域外(RF)信号を使用して、モバイルデバイス104へダウンロードされうる。例えば、このようなマップ216のダウンロードは、屋内会場に入ったことをモバイルデバイス104が決定したときに、モバイルデバイス104によって自動的にトリガされうる。例えば、モバイルデバイス104は、コンテキスト的な情報を使用して、またはGPSと地上RF技法の組み合わせを使用する測位システムを採用することによって、屋内会場に入ったことを決定しうる。
[0026] 例えば、図2Bを参照すると、モバイルデバイス104は、フロア102のマップ216を参照しうる。このような例において、モバイルデバイス104は、マップ216上の、識別されたインジケータ(例えば、インジケータE116およびインジケータF118)のロケーションを決定し得、基準軸107に対する識別されたインジケータの方位を決定しうる。モバイルデバイス104は、次いで、基準軸107に対する自身の方位軸106を決定しうる。
[0027] ここで、モバイルデバイス104の例示的な方位決定動作が、図1、図2A、および図2Bを参照して説明されることになる。図1に関して前述したように、モバイルデバイス104は、図2Aに示されている画像206のような、前面カメラ105を介してインジケータ116ならびに118の1つまたは複数の画像をキャプチャしうる。モバイルデバイス104は、インジケータ116ならびに118を識別する。1つの態様において、モバイルデバイス104は、前面カメラ105を介してインジケータ116ならびに118各々から識別情報を受信し得、受信された識別情報に基づいてインジケータ116ならびに118を識別しうる。モバイルデバイス104は、モバイルデバイス104によって決定される方位軸(例えば、方位軸106)通りに向いている間に、インジケータ116ならびに118の画像206をキャプチャすることが留意されるべきである。モバイルデバイスは、マップ216上で、キャプチャされた画像206の中のインジケータ116ならびに118のロケーションを識別する。マップ216は、モバイルデバイス104のメモリに記憶されうるか、または遠隔サーバから受信されうる。
[0028] 図2Bに示されているように、モバイルデバイス104は、識別されたインジケータ116ならびに118をつなぐベクトル220をマップ216上に描きうる。1つの態様において、ベクトル220は、図2Bに示されるように、インジケータE116の中心とインジケータF118の中心とを通るように描かれうる。ベクトル220は、インジケータ軸と称されうる。モバイルデバイス104は、基準軸107の北軸222のような、基準軸に対するインジケータ軸(例えば、ベクトル220)の角度を決定しうる。記述しやすさのために、北軸222が図2Bではベクトル218として示されている。基準軸(例えば、ベクトル218)に対するインジケータ軸(例えば、ベクトル220)の角度ωは、インジケータ軸(例えば、ベクトル220)の方位を表す。
[0029] モバイルデバイス104は、前面カメラ105によってキャプチャされた画像206上にベクトル212を描きうる。1つの態様において、ベクトル212は、図2Aに示されているように、インジケータE208として識別された画素のセットの中心と、インジケータF210として識別された画素のセットの中心とを通るように描かれうる。ベクトル212は、画像インジケータ軸と称されうる。モバイルデバイス104は、スクリーン204の下からスクリーン204の上まで伸びる軸として定義される、固定軸(スクリーン軸としても称される)(例えば、ベクトル軸214)に対する画像インジケータ軸(例えば、ベクトル212)の角度を決定しうる。スクリーン軸(例えば、ベクトル214)に対する画像インジケータ軸(例えば、ベクトル212)の角度Θは、スクリーン軸(例えば、ベクトル214)に対する画像インジケータ軸(例えば、ベクトル212)の方位を表す。角度Θの負(negative of the angle θ)は、インジケータ軸(例えば、ベクトル220)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)を表す。したがって、基準軸(例えば、図2Bでベクトル218として表された北軸222)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)は、角度ωと角度−Θを合計することによって決定されうる。例えば、図2Bを参照すると、モバイルデバイス104は、角度ωと角度−Θの合計を決定し得、ここで、この合計は、基準軸(例えば、ベクトル218)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)の角度を表す。
[0030] モバイルデバイス104が、方位情報を求めて遠隔サーバに問合せする前述された態様において、モバイルデバイス104は、インジケータ116ならびに118のアイデンティティと、インジケータ116ならびに118のキャプチャされた画像のうちの1つまたは複数とを含む問合せを遠隔サーバに送信しうる。遠隔サーバは、次いで、インジケータ116ならびに118のアイデンティティと、インジケータ116ならびに118の1つまたは複数のキャプチャされた画像とを使用して、モバイルデバイス104の方位を決定しうる。遠隔サーバは、次いで、モバイルデバイス104の方位に関する情報を送信しうる。モバイルデバイス104は、モバイルデバイス104の方位に関する情報を受信し得、受信された情報を使用して、その方位を決定しうる。例えば、遠隔サーバから受信されたモバイルデバイス104の方位に関する情報は、基準軸(例えば、図2Bでベクトル218として表された北軸222)に対するモバイルデバイス104の方位を示しうる。例えば、図2Bを参照すると、基準軸に対するモバイルデバイス104の方位は、角度ωと角度−Θの合計として表されうる。
[0031] 基準軸は、北軸222とは異なる軸に選択されうることが理解されるべきである。1つの態様において、基準軸は、磁気的/地理的な北軸あるいは南軸のような、任意の固定の基準軸であり得、ここで、その基準軸はマップに記憶されている。別の態様において、基準軸は、マップに含まれている基準軸に関連して決定されうる。例えば、基準軸は、マップ216の廊下224に対応する軸でありうる。別の例として、基準軸は、スーパーマーケットの特定の通路でありうる。
[0032] インジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)がフロア102の床(すなわち、モバイルデバイス104より下)に設置されており、モバイルデバイス104が、インジケータの1つまたは複数の画像をキャプチャするため、およびインジケータの2つ以上を識別するための情報を受信するために背面カメラ(rear camera)(図示せず)を使用する構成に、本明細書での開示が適用されることもあることもまた理解されるべきである。
[0033] 図3は、モバイルデバイスのための方法のフローチャート300である。例えば、この方法は、モバイルデバイス104によって行われうる。
[0034] ステップ302において、モバイルデバイスは、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャする。例えば、図1を参照すると、モバイルデバイス104は、2つ以上のインジケータ(例えば、インジケータE116およびインジケータF118)の1つまたは複数の画像をキャプチャするように前面カメラ105を動作させうる。
[0035] ステップ304において、モバイルデバイスは、第1のインジケータから第1の識別情報を受信し、第2のインジケータから第2の識別情報を受信する。1つの態様において、第1および第2のインジケータは、識別情報を通信するように構成されたLEDでありうる。例えば、図1を参照すると、モバイルデバイス104は、モバイルデバイス104の上部、および前面カメラ105の視野内にロケートされたインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のうちの2つ以上の各々から識別情報を受信するように前面カメラ105を動作させうる。1つの態様において、各インジケータは、インジケータの識別情報を含んだVLC信号を送信するように構成されたLEDデバイスでありうる。例えば、インジケータによって送信される識別情報は、他のインジケータに対して一意である48ビットMACアドレスでありうる。
[0036] ステップ306において、モバイルデバイスは、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別する。1つの例において、図1を参照すると、モバイルデバイス104は、インジケータE116から受信された第1の48ビットMACアドレスに基づいて、インジケータE116を識別し得、ここで、第1の48ビットMACアドレスは、インジケータE116を識別するか、またはインジケータE116に対応する。このような例において、モバイルデバイス104は、インジケータF118から受信された第2の48ビットMACアドレスに基づいて、インジケータF118をさらに識別し得、ここで、第2の48ビットMACアドレスは、インジケータF118を識別するか、またはインジケータF118に対応する。別の例において、図1を参照すると、モバイルデバイス104は、前面カメラ105のデジタル画像センサ(例えば、CMOSセンサ)によって検出されうるインジケータE116の第1の識別情報に基づいてインジケータE116を識別しうる。例えば、第1の識別情報は、一意のQRコード(登録商標)、カラーパネル、または別個の形状のような、一意の視覚特性でありうる。このような例において、モバイルデバイス104は、前面カメラ105のデジタル画像センサ(例えば、CMOSセンサ)によって検出されうるインジケータF118の第2の識別情報に基づいてインジケータF118を識別しうる。例えば、第2の識別情報は、一意のQRコード(登録商標)、カラーパネル、または別個の形状のような、一意の視覚特性でありうる。
[0037] ステップ308において、モバイルデバイスは、ワイヤレス通信を介してマップを受信する。1つの態様において、マップは、モバイルデバイスが屋内にロケートされたときに自動的に受信される。例えば、図2Bを参照すると、モバイルデバイス104は、図1に示される屋内会場(例えば、フロア102)のマップ216を受信しうる。1つの態様において、また図2Bに示されているように、マップ216は、屋内会場にロケートされたインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のロケーションを示しうる。
[0038] ステップ310において、モバイルデバイスは、マップ上の第1および第2のインジケータのそれぞれのロケーションを決定する。例えば、図2Bを参照すると、モバイルデバイス104は、マップ216上のインジケータE116およびインジケータF118のロケーションを決定しうる。
[0039] ステップ312において、モバイルデバイスは、マップの基準軸を決定する。例えば、図2Bを参照すると、モバイルデバイス104は、基準軸107の北軸222を基準軸として決定しうる。1つの態様において、基準軸はマップ216内に示されうる。
[0040] ステップ314において、モバイルデバイスは、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定する。1つの態様において、モバイルデバイスの方位は、基準軸に対して決定される。例えば、図2Bに示されているように、モバイルデバイス104は、識別されたインジケータ116ならびに118をつなぐインジケータ軸(例えば、ベクトル220)をマップ216上に描きうる。モバイルデバイス104は、基準軸(例えば、ベクトル218)に対するインジケータ軸(例えば、ベクトル220)の角度を決定しうる。基準軸(例えば、ベクトル218)に対するインジケータ軸(例えば、ベクトル220)の角度ωは、インジケータ軸(例えば、ベクトル220)の方位を表す。
[0041] モバイルデバイス104は、前面カメラ105によってキャプチャされた画像206上に画像インジケータ軸(例えば、ベクトル212)を描きうる。モバイルデバイス104は、スクリーン212の下からスクリーン212の上まで伸びる軸として定義される、スクリーン軸(例えば、ベクトル軸214)に対する画像インジケータ軸(例えば、ベクトル212)の角度を決定しうる。スクリーン軸(例えば、ベクトル214)に対する画像インジケータ軸(例えば、ベクトル212)の角度Θは、スクリーン軸(例えば、ベクトル214)に対する画像インジケータ軸(例えば、ベクトル212)の方位を表す。角度Θの負は、インジケータ軸(例えば、ベクトル220)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)を表す。したがって、基準軸(例えば、図2Bでベクトル218として表された北軸222)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)は、角度ωと角度−Θを合計することによって決定されうる。例えば、図2Bを参照すると、モバイルデバイス104は、角度ωと角度−Θの合計を決定し得、ここで、この合計は、基準軸(例えば、ベクトル218)に対するモバイルデバイス104の方位軸(例えば、ベクトル106)の角度を表す。
[0042] 図3に点線で示されたステップ304、308、310、ならびに312がオプションのステップを表すことが理解されるべきである。例えば、1つの実施形態において、ステップ302、306、ならびに314は、ステップ304、308、310、ならびに312を行わずに行われうる。ステップ304、308、310、ならびに312の様々な組み合わせが、様々な実施形態にしたがって行われうることがさらに理解されるべきである。例えば、1つの実施形態において、ステップ302、304、306、ならびに314は、ステップ308、310、ならびに312を行わずに行われうる。
[0043] 図4は、モバイルデバイスのための方法のフローチャート400である。例えば、この方法は、モバイルデバイス104によって行われうる。
[0044] ステップ402において、モバイルデバイスは、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャする。例えば、図1を参照すると、モバイルデバイス104は、2つ以上のインジケータ(例えば、インジケータE116およびインジケータF118)の1つまたは複数の画像をキャプチャするように前面カメラ105を動作させうる。
[0045] ステップ404において、モバイルデバイスは、第1のインジケータから第1の識別情報を受信し、第2のインジケータから第2の識別情報を受信する。1つの態様において、第1および第2のインジケータの各々は、識別情報を通信するように構成されたLEDでありうる。例えば、図1を参照すると、モバイルデバイス104は、モバイルデバイス104の上部、および前面カメラ105の視野内にロケートされたインジケータ(例えば、インジケータ108、110、112、114、116、118、120、および122)のうちの2つ以上から識別情報を受信するように前面カメラ105を動作させうる。1つの態様において、各インジケータは、インジケータの識別情報を含んだVLC信号を送信するように構成されたLEDデバイスでありうる。例えば、インジケータによって送信される識別情報は、他のインジケータに対して一意である48ビットMACアドレスでありうる。
[0046] ステップ406において、モバイルデバイスは、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別する。1つの例において、図1を参照すると、モバイルデバイス104は、インジケータE116から受信された第1の48ビットMACアドレスに基づいて、インジケータE116を識別し得、ここで、第1の48ビットMACアドレスは、インジケータE116を識別するか、またはインジケータE116に対応する。このような例において、モバイルデバイス104は、インジケータF118から受信された第2の48ビットMACアドレスに基づいて、インジケータF118を識別し得、ここで、第2の48ビットMACアドレスは、インジケータF118を識別するか、またはインジケータF118に対応する。別の例において、図1を参照すると、モバイルデバイス104は、前面カメラ105のデジタル画像センサ(例えば、CMOSセンサ)によって検出されうるインジケータE116の第1の識別情報に基づいてインジケータE116を識別しうる。例えば、第1の識別情報は、一意のQRコード(登録商標)、カラーパネル、または別個の形状のような、一意の視覚特性でありうる。このような例において、モバイルデバイス104は、前面カメラ105のデジタル画像センサ(例えば、CMOSセンサ)によって検出されうるインジケータF118の第2の識別情報に基づいてインジケータF118を識別しうる。例えば、第2の識別情報は、一意のQRコード(登録商標)、カラーパネル、または別個の形状のような、一意の視覚特性でありうる。
[0047] ステップ408において、モバイルデバイスは、1つまたは複数のキャプチャされた画像と、第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信する。
[0048] ステップ410において、モバイルデバイスは、ネットワークからモバイルデバイスの方位に関する情報を受信する。
[0049] ステップ412において、モバイルデバイスは、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定する。1つの態様において、モバイルデバイスの方位の決定は、モバイルデバイスの方位に関する受信された情報にさらに基づく。例えば、ネットワークから受信されたモバイルデバイスの方位に関する情報は、基準軸(例えば、図2Bでベクトル218として表された北軸222)に対するモバイルデバイス104の方位を示しうる。例えば、図2Bを参照すると、基準軸に対するモバイルデバイス104の方位は、角度ωと角度−Θの合計として表されうる。
[0050] 図4に点線で示されたステップ404、408、ならびに410がオプションのステップを表すことが理解されるべきである。例えば、1つの実施形態において、ステップ402、406、ならびに412は、ステップ404、408、ならびに410を行わずに行われうる。ステップ404、408、ならびに410の様々な組み合わせが、様々な実施形態にしたがって行われうることがさらに理解されるべきである。例えば、1つの実施形態において、ステップ402、404、406、ならびに412は、ステップ408ならびに410を行わずに行われうる。
[0051] 図5は、実例的な装置502における異なるモジュール/手段/コンポーネント間のデータフローを例示する概念的なデータフロー図500である。装置は、モバイルデバイス104のようなモバイルデバイスでありうる。装置は、ネットワークから装置の方位に関する情報を受信し、ワイヤレス通信を介してマップを受信するモジュール504と、第1のインジケータから第1の識別情報を受信して、第2のインジケータから第2の識別情報を受信し、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャするモジュール506と、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別するモジュール508と、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいて装置の方位を決定し、マップ上の第1および第2のインジケータのそれぞれのロケーションを決定し、マップ上の基準軸を決定するモジュール510と、マップを記憶するモジュール512と、1つまたは複数のキャプチャされた画像と、第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信するモジュール514と、を含む。
[0052] 装置は、図3および図4の上述のフローチャートにおけるアルゴリズムのステップの各々を行う追加のモジュールを含みうる。したがって、図3および図4の上述のフローチャートの各ステップは、モジュールによって行われることができ、装置はこれらのモジュールのうちの1または複数を含みうる。これらモジュールは、記述されたプロセス/アルゴリズムを遂行するように特に構成されるか、記述されたプロセス/アルゴリズムを行うように構成されたプロセッサによってインプリメントされるか、プロセッサによるインプリメンテーションのためにコンピュータ可読媒体内に記憶されるか、またはこれらの何らかの組み合わせの、1つまたは複数のハードウェアコンポーネントでありうる。
[0053] 図6は、処理システム614を採用する装置502’のためのハードウェアのインプリメンテーションの例を例示する図600である。処理システム614は、バス624によって概して表されるバスアーキテクチャでインプリメントされうる。バス624は、処理システム614の特定のアプリケーションと全体的な設計制約に依存して、任意の数の相互接続バスおよびブリッジを含みうる。バス624は、プロセッサ604、モジュール504、506、508、510、512、ならびに514、およびコンピュータ可読媒体606によって表される、1つまたは複数のプロセッサおよび/またはハードウェアモジュールを含む様々な回路をリンクさせる。バス624は、また、タイミングソースのような他の様々な回路、周辺機器、電圧レギュレータ、および電力管理回路をリンクさせることができ、これらは、当該技術分野では周知であるため、これ以上は説明されないであろう。
[0054] 処理システム614は、トランシーバ610に結合されうる。トランシーバ610は、1つまたは複数のアンテナ620に結合される。トランシーバ610は、伝送媒体を介して他の様々な装置と通信するための手段を提供する。トランシーバ610は、1つまたは複数のアンテナ620から信号を受信し、受信された信号から情報を抽出し、抽出された情報を処理システム614、特に受信モジュール504に提供する。さらに、トランシーバ610は、処理システム614、特に送信モジュール514から情報を受信し、受信された情報に基づいて、1つまたは複数のアンテナ620に適用される信号を生成する。処理システム614は、コンピュータ可読媒体606に結合されるプロセッサ604を含む。プロセッサ604は、コンピュータ可読媒体606に記憶されたソフトウェアの実行を含む、一般的な処理を担っている。このソフトウェアは、プロセッサ604によって実行されると、処理システム614に、任意の特定の装置に関して上述された様々な機能を行わせる。コンピュータ可読媒体606は、また、ソフトウェアを実行するときにプロセッサ604によって操作されるデータを記憶するために使用されうる。処理システムは、さらに、モジュール504、506、508、510、512、ならびに514のうちの少なくとも1つを含む。これらモジュールは、プロセッサ604において稼働するソフトウェアモジュールであり、コンピュータ可読媒体606に存在/記憶され、プロセッサ604に結合された1つまたは複数のハードウェアモジュール、またはこれらの何らかの組み合わせでありうる。
[0055] 1つの構成において、ワイヤレス通信のための装置502/502’は、少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャするための手段と、第1の識別情報に基づいて第1のインジケータを識別し、第2の識別情報に基づいて第2のインジケータを識別するための手段と、少なくとも第1のインジケータおよび第2のインジケータのキャプチャされた1つまたは複数の画像に基づいて装置の方位を決定するための手段と、第1のインジケータから第1の識別情報を受信し、第2のインジケータから第2の識別情報を受信するための手段と、マップ上の第1および第2のインジケータのそれぞれのロケーションを決定するための手段と、マップ上の基準軸を決定するための手段と、1つまたは複数のキャプチャされた画像と、第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信するための手段と、ネットワークから装置の方位に関する情報を受信するための手段と、ワイヤレス通信を介してマップを受信するための手段と、を含む。前述した手段は、前述した手段によって記載された機能を行うように構成された装置502’の処理システム614および/または装置502の前述したモジュールのうちの1つまたは複数でありうる。
[0056] 開示されたプロセスにおけるステップの特定の順序または階層は、実例的なアプローチの例示であることが理解される。設計の選好に基づいて、これらプロセスにおけるステップの特定の順序または階層は並べ替えられうることが理解される。さらに、いくつかのステップは、組み合わされうるか、または省略されうる。添付の方法の請求項は、様々なステップのエレメントを例示の順序で提示するが、提示された特定の順序または階層に限定されるように意味したものではない。
[0057] 先の説明は、当業者が本明細書に説明された様々な態様を実現することを可能にするために提供されている。これらの態様に対する様々な修正は、当業者には容易に明らかになり、本明細書で定義される包括的な原理は他の態様に適用されうる。したがって、特許請求の範囲は、本明細書に示される態様に限定されるように意図されたものではなく、請求項の文言と矛盾しない最大範囲であると認められるべきであり、ここにおいて、単数のエレメントへの参照は、そのように明確に記載されていない限り、「1つおよび1つのみ」を意味するのではなく、むしろ「1つまたは複数」を意味するように意図されている。そうでないことが明確に記載されていない限り、「いくつかの」という用語は1つまたは複数を指す。「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、A、B、および/またはCの任意の組み合わせを含み、複数のA、複数のB、または、複数のCを含みうる。特に、「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、Aのみ、Bのみ、Cのみ、AとB、AとC、BとC、またはAとBとCであることができ、ここで、このような任意の組み合わせが、A、B、またはCのメンバーあるいは1つまたは複数のメンバーを含みうる。当業者に既知である、あるいは後に知られることになる、本開示全体にわたって説明された様々な態様のエレメントに対する全ての構造的および機能的な均等物は、参照によって本明細書に明確に組み込まれ、特許請求の範囲によって包含されるよう意図されている。さらに、本明細書に開示されたことのいずれも、そのような開示が特許請求の範囲において明示的に記載されているかどうかにかかわらず、公共に寄与されるようには意図されていない。いずれの請求項の要素も、その要素が「〜のための手段」というフレーズを使用して明示的に記載されていない限り、ミーンズプラスファンクションとして解釈されるべきではない。
[0057] 先の説明は、当業者が本明細書に説明された様々な態様を実現することを可能にするために提供されている。これらの態様に対する様々な修正は、当業者には容易に明らかになり、本明細書で定義される包括的な原理は他の態様に適用されうる。したがって、特許請求の範囲は、本明細書に示される態様に限定されるように意図されたものではなく、請求項の文言と矛盾しない最大範囲であると認められるべきであり、ここにおいて、単数のエレメントへの参照は、そのように明確に記載されていない限り、「1つおよび1つのみ」を意味するのではなく、むしろ「1つまたは複数」を意味するように意図されている。そうでないことが明確に記載されていない限り、「いくつかの」という用語は1つまたは複数を指す。「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、A、B、および/またはCの任意の組み合わせを含み、複数のA、複数のB、または、複数のCを含みうる。特に、「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、Aのみ、Bのみ、Cのみ、AとB、AとC、BとC、またはAとBとCであることができ、ここで、このような任意の組み合わせが、A、B、またはCのメンバーあるいは1つまたは複数のメンバーを含みうる。当業者に既知である、あるいは後に知られることになる、本開示全体にわたって説明された様々な態様のエレメントに対する全ての構造的および機能的な均等物は、参照によって本明細書に明確に組み込まれ、特許請求の範囲によって包含されるよう意図されている。さらに、本明細書に開示されたことのいずれも、そのような開示が特許請求の範囲において明示的に記載されているかどうかにかかわらず、公共に寄与されるようには意図されていない。いずれの請求項の要素も、その要素が「〜のための手段」というフレーズを使用して明示的に記載されていない限り、ミーンズプラスファンクションとして解釈されるべきではない。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
モバイルデバイスのための方法であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記モバイルデバイスの方位を決定することと
を備える、方法。
[C2]
前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することをさらに備える、C1に記載の方法。
[C3]
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
をさらに備え、
前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、C1に記載の方法。
[C4]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、C3に記載の方法。
[C5]
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
をさらに備え、
前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、C1に記載の方法。
[C6]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C1に記載の方法。
[C7]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C1に記載の方法。
[C8]
前記一意の視覚特性は、色または形状を備える、C7に記載の方法。
[C9]
ワイヤレス通信を介して前記マップを受信することをさらに備える、C3に記載の方法。
[C10]
前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、C9に記載の方法。
[C11]
ワイヤレス通信のための装置であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャするための手段と、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別するための手段と、
前記少なくとも第1のインジケータおよび第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定するための手段と
を備える、装置。
[C12]
前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するための手段をさらに備える、C11に記載の装置。
[C13]
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定するための手段と、
前記マップ上の基準軸を決定するための手段と
をさらに備え、
前記装置の前記方位は、前記基準軸に対して決定される、C11に記載の装置。
[C14]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、C13に記載の装置。
[C15]
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信するための手段と、
前記ネットワークから前記装置の前記方位に関する情報を受信するための手段と
をさらに備え、
前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、C11に記載の装置。
[C16]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C11に記載の装置。
[C17]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C11に記載の装置。
[C18]
前記一意の視覚特性は、色または形状を備える、C17に記載の装置。
[C19]
ワイヤレス通信を介して前記マップを受信するための手段をさらに備える、C13に記載の装置。
[C20]
前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、C19に記載の装置。
[C21]
ワイヤレス通信のための装置であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定することと
を行うように構成された処理システムを備える、装置。
[C22]
前記処理システムは、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することを行うようにさらに構成される、C21に記載の装置。
[C23]
前記処理システムは、
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
を行うようにさらに構成され、
前記装置の前記方位は、前記基準軸に対して決定される、C21に記載の装置。
[C24]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、C23に記載の装置。
[C25]
前記処理システムは、
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記装置の前記方位に関する情報を受信することと
を行うようにさらに構成され、
前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、C21に記載の装置。
[C26]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C21に記載の装置。
[C27]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C21に記載の装置。
[C28]
前記一意の視覚特性は、色または形状を備える、C27に記載の装置。
[C29]
前記処理システムは、ワイヤレス通信を介して前記マップを受信することを行うようにさらに構成される、C23に記載の装置。
[C30]
前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、C29に記載の装置。
[C31]
コンピュータ可読媒体を備えるコンピュータプログラム製品であって、
前記コンピュータ可読媒体は、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定することと
のためのコードを備える、コンピュータプログラム製品。
[C32]
前記コンピュータ可読媒体は、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するためのコードをさらに備える、C31に記載のコンピュータプログラム製品。
[C33]
前記コンピュータ可読媒体は、
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
のためのコードをさらに備え、
前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、C31に記載のコンピュータプログラム製品。
[C34]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、C33に記載のコンピュータプログラム製品。
[C35]
前記コンピュータ可読媒体は、
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
のためのコードをさらに備え、
前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、C31に記載のコンピュータプログラム製品。
[C36]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C31に記載のコンピュータプログラム製品。
[C37]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C31に記載のコンピュータプログラム製品。
[C38]
前記一意の視覚特性は、色または形状を備える、C37に記載のコンピュータプログラム製品。
[C39]
前記コンピュータ可読媒体は、ワイヤレス通信を介して前記マップを受信するためのコードをさらに備える、C33に記載のコンピュータプログラム製品。
[C40]
前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、C39に記載のコンピュータプログラム製品。
[0057] 先の説明は、当業者が本明細書に説明された様々な態様を実現することを可能にするために提供されている。これらの態様に対する様々な修正は、当業者には容易に明らかになり、本明細書で定義される包括的な原理は他の態様に適用されうる。したがって、特許請求の範囲は、本明細書に示される態様に限定されるように意図されたものではなく、請求項の文言と矛盾しない最大範囲であると認められるべきであり、ここにおいて、単数のエレメントへの参照は、そのように明確に記載されていない限り、「1つおよび1つのみ」を意味するのではなく、むしろ「1つまたは複数」を意味するように意図されている。そうでないことが明確に記載されていない限り、「いくつかの」という用語は1つまたは複数を指す。「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、A、B、および/またはCの任意の組み合わせを含み、複数のA、複数のB、または、複数のCを含みうる。特に、「A、B、またはCのうちの少なくとも1つ」、「A、B、およびCのうちの少なくとも1つ」、および「A、B、C、またはこれらの任意の組み合わせ」のような組み合わせは、Aのみ、Bのみ、Cのみ、AとB、AとC、BとC、またはAとBとCであることができ、ここで、このような任意の組み合わせが、A、B、またはCのメンバーあるいは1つまたは複数のメンバーを含みうる。当業者に既知である、あるいは後に知られることになる、本開示全体にわたって説明された様々な態様のエレメントに対する全ての構造的および機能的な均等物は、参照によって本明細書に明確に組み込まれ、特許請求の範囲によって包含されるよう意図されている。さらに、本明細書に開示されたことのいずれも、そのような開示が特許請求の範囲において明示的に記載されているかどうかにかかわらず、公共に寄与されるようには意図されていない。いずれの請求項の要素も、その要素が「〜のための手段」というフレーズを使用して明示的に記載されていない限り、ミーンズプラスファンクションとして解釈されるべきではない。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
モバイルデバイスのための方法であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記モバイルデバイスの方位を決定することと
を備える、方法。
[C2]
前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することをさらに備える、C1に記載の方法。
[C3]
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
をさらに備え、
前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、C1に記載の方法。
[C4]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、C3に記載の方法。
[C5]
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
をさらに備え、
前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、C1に記載の方法。
[C6]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C1に記載の方法。
[C7]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C1に記載の方法。
[C8]
前記一意の視覚特性は、色または形状を備える、C7に記載の方法。
[C9]
ワイヤレス通信を介して前記マップを受信することをさらに備える、C3に記載の方法。
[C10]
前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、C9に記載の方法。
[C11]
ワイヤレス通信のための装置であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャするための手段と、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別するための手段と、
前記少なくとも第1のインジケータおよび第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定するための手段と
を備える、装置。
[C12]
前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するための手段をさらに備える、C11に記載の装置。
[C13]
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定するための手段と、
前記マップ上の基準軸を決定するための手段と
をさらに備え、
前記装置の前記方位は、前記基準軸に対して決定される、C11に記載の装置。
[C14]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、C13に記載の装置。
[C15]
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信するための手段と、
前記ネットワークから前記装置の前記方位に関する情報を受信するための手段と
をさらに備え、
前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、C11に記載の装置。
[C16]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C11に記載の装置。
[C17]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C11に記載の装置。
[C18]
前記一意の視覚特性は、色または形状を備える、C17に記載の装置。
[C19]
ワイヤレス通信を介して前記マップを受信するための手段をさらに備える、C13に記載の装置。
[C20]
前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、C19に記載の装置。
[C21]
ワイヤレス通信のための装置であって、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定することと
を行うように構成された処理システムを備える、装置。
[C22]
前記処理システムは、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することを行うようにさらに構成される、C21に記載の装置。
[C23]
前記処理システムは、
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
を行うようにさらに構成され、
前記装置の前記方位は、前記基準軸に対して決定される、C21に記載の装置。
[C24]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、C23に記載の装置。
[C25]
前記処理システムは、
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記装置の前記方位に関する情報を受信することと
を行うようにさらに構成され、
前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、C21に記載の装置。
[C26]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C21に記載の装置。
[C27]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C21に記載の装置。
[C28]
前記一意の視覚特性は、色または形状を備える、C27に記載の装置。
[C29]
前記処理システムは、ワイヤレス通信を介して前記マップを受信することを行うようにさらに構成される、C23に記載の装置。
[C30]
前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、C29に記載の装置。
[C31]
コンピュータ可読媒体を備えるコンピュータプログラム製品であって、
前記コンピュータ可読媒体は、
少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定することと
のためのコードを備える、コンピュータプログラム製品。
[C32]
前記コンピュータ可読媒体は、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するためのコードをさらに備える、C31に記載のコンピュータプログラム製品。
[C33]
前記コンピュータ可読媒体は、
マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
前記マップ上の基準軸を決定することと
のためのコードをさらに備え、
前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、C31に記載のコンピュータプログラム製品。
[C34]
前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
を備え、
前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、C33に記載のコンピュータプログラム製品。
[C35]
前記コンピュータ可読媒体は、
前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
のためのコードをさらに備え、
前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、C31に記載のコンピュータプログラム製品。
[C36]
前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、C31に記載のコンピュータプログラム製品。
[C37]
前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、C31に記載のコンピュータプログラム製品。
[C38]
前記一意の視覚特性は、色または形状を備える、C37に記載のコンピュータプログラム製品。
[C39]
前記コンピュータ可読媒体は、ワイヤレス通信を介して前記マップを受信するためのコードをさらに備える、C33に記載のコンピュータプログラム製品。
[C40]
前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、C39に記載のコンピュータプログラム製品。

Claims (40)

  1. モバイルデバイスのための方法であって、
    少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
    第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
    前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記モバイルデバイスの方位を決定することと
    を備える、方法。
  2. 前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することをさらに備える、請求項1に記載の方法。
  3. マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
    前記マップ上の基準軸を決定することと
    をさらに備え、
    前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、請求項1に記載の方法。
  4. 前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
    前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
    前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
    を備え、
    前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、請求項3に記載の方法。
  5. 前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
    前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
    をさらに備え、
    前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、請求項1に記載の方法。
  6. 前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、請求項1に記載の方法。
  7. 前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、請求項1に記載の方法。
  8. 前記一意の視覚特性は、色または形状を備える、請求項7に記載の方法。
  9. ワイヤレス通信を介して前記マップを受信することをさらに備える、請求項3に記載の方法。
  10. 前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、請求項9に記載の方法。
  11. ワイヤレス通信のための装置であって、
    少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャするための手段と、
    第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別するための手段と、
    前記少なくとも第1のインジケータおよび第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定するための手段と
    を備える、装置。
  12. 前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するための手段をさらに備える、請求項11に記載の装置。
  13. マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定するための手段と、
    前記マップ上の基準軸を決定するための手段と
    をさらに備え、
    前記装置の前記方位は、前記基準軸に対して決定される、請求項11に記載の装置。
  14. 前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
    前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
    前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
    を備え、
    前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、請求項13に記載の装置。
  15. 前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信するための手段と、
    前記ネットワークから前記装置の前記方位に関する情報を受信するための手段と
    をさらに備え、
    前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、請求項11に記載の装置。
  16. 前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、請求項11に記載の装置。
  17. 前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、請求項11に記載の装置。
  18. 前記一意の視覚特性は、色または形状を備える、請求項17に記載の装置。
  19. ワイヤレス通信を介して前記マップを受信するための手段をさらに備える、請求項13に記載の装置。
  20. 前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、請求項19に記載の装置。
  21. ワイヤレス通信のための装置であって、
    少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
    第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
    前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいて前記装置の方位を決定することと
    を行うように構成された処理システムを備える、装置。
  22. 前記処理システムは、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信することを行うようにさらに構成される、請求項21に記載の装置。
  23. 前記処理システムは、
    マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
    前記マップ上の基準軸を決定することと
    を行うようにさらに構成され、
    前記装置の前記方位は、前記基準軸に対して決定される、請求項21に記載の装置。
  24. 前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記装置の前記方位を決定することは、
    前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
    前記装置の固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
    を備え、
    前記装置の前記方位を決定することは、前記第1および第2の角度にさらに基づく、請求項23に記載の装置。
  25. 前記処理システムは、
    前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
    前記ネットワークから前記装置の前記方位に関する情報を受信することと
    を行うようにさらに構成され、
    前記装置の前記方位を決定することは、前記装置の前記方位に関する前記受信された情報にさらに基づく、請求項21に記載の装置。
  26. 前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、請求項21に記載の装置。
  27. 前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、請求項21に記載の装置。
  28. 前記一意の視覚特性は、色または形状を備える、請求項27に記載の装置。
  29. 前記処理システムは、ワイヤレス通信を介して前記マップを受信することを行うようにさらに構成される、請求項23に記載の装置。
  30. 前記マップは、前記装置が屋内にロケートされたときに自動的に受信される、請求項29に記載の装置。
  31. コンピュータ可読媒体を備えるコンピュータプログラム製品であって、
    前記コンピュータ可読媒体は、
    少なくとも第1のインジケータおよび第2のインジケータの1つまたは複数の画像をキャプチャすることと、
    第1の識別情報に基づいて前記第1のインジケータを識別し、第2の識別情報に基づいて前記第2のインジケータを識別することと、
    前記少なくとも前記第1のインジケータおよび前記第2のインジケータの前記キャプチャされた1つまたは複数の画像に基づいてモバイルデバイスの方位を決定することと
    のためのコードを備える、コンピュータプログラム製品。
  32. 前記コンピュータ可読媒体は、前記第1のインジケータから前記第1の識別情報を受信し、前記第2のインジケータから前記第2の識別情報を受信するためのコードをさらに備える、請求項31に記載のコンピュータプログラム製品。
  33. 前記コンピュータ可読媒体は、
    マップ上の前記第1および第2のインジケータのそれぞれのロケーションを決定することと、
    前記マップ上の基準軸を決定することと
    のためのコードをさらに備え、
    前記モバイルデバイスの前記方位は、前記基準軸に対して決定される、請求項31に記載のコンピュータプログラム製品。
  34. 前記第1および第2のインジケータは、前記マップ上の第1の軸に沿って位置しており、前記第1の軸は、前記基準軸に対して第1の角度を形成し、前記モバイルデバイスの前記方位を決定することは、
    前記第1および第2のインジケータが前記キャプチャされた1つまたは複数の画像のうちの1つに位置する第2の軸を決定することと、
    前記モバイルデバイスの固定軸に対して前記第2の軸によって形成された第2の角度を決定することと
    を備え、
    前記モバイルデバイスの前記方位を決定することは、前記第1および第2の角度にさらに基づく、請求項33に記載のコンピュータプログラム製品。
  35. 前記コンピュータ可読媒体は、
    前記1つまたは複数のキャプチャされた画像と、前記第1および第2のインジケータのアイデンティティとのうちの少なくとも1つをネットワークに送信することと、
    前記ネットワークから前記モバイルデバイスの前記方位に関する情報を受信することと
    のためのコードをさらに備え、
    前記モバイルデバイスの前記方位を決定することは、前記モバイルデバイスの前記方位に関する前記受信された情報にさらに基づく、請求項31に記載のコンピュータプログラム製品。
  36. 前記第1および第2のインジケータの各々は、前記識別情報を通信するように構成された発光ダイオード(LED)を備える、請求項31に記載のコンピュータプログラム製品。
  37. 前記第1および第2の識別情報は、QRコードまたは一意の視覚特性を各々備える、請求項31に記載のコンピュータプログラム製品。
  38. 前記一意の視覚特性は、色または形状を備える、請求項37に記載のコンピュータプログラム製品。
  39. 前記コンピュータ可読媒体は、ワイヤレス通信を介して前記マップを受信するためのコードをさらに備える、請求項33に記載のコンピュータプログラム製品。
  40. 前記マップは、前記モバイルデバイスが屋内にロケートされたときに自動的に受信される、請求項39に記載のコンピュータプログラム製品。
JP2016531764A 2013-07-30 2014-07-24 屋内環境においてモバイルフォンの方位を決定するための方法および装置 Ceased JP2016534335A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/954,356 2013-07-30
US13/954,356 US20150036016A1 (en) 2013-07-30 2013-07-30 Methods and apparatus for determining the orientation of a mobile phone in an indoor environment
PCT/US2014/047949 WO2015017231A1 (en) 2013-07-30 2014-07-24 Methods and apparatus for determining the orientation of a mobile phone in an indoor environment

Publications (2)

Publication Number Publication Date
JP2016534335A true JP2016534335A (ja) 2016-11-04
JP2016534335A5 JP2016534335A5 (ja) 2017-08-10

Family

ID=51352786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016531764A Ceased JP2016534335A (ja) 2013-07-30 2014-07-24 屋内環境においてモバイルフォンの方位を決定するための方法および装置

Country Status (5)

Country Link
US (1) US20150036016A1 (ja)
EP (1) EP3028008B1 (ja)
JP (1) JP2016534335A (ja)
CN (1) CN105431709B (ja)
WO (1) WO2015017231A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317747B2 (en) * 2014-05-06 2016-04-19 Qualcomm Incorporated Determining an orientation of a mobile device
US20160258761A1 (en) * 2015-03-03 2016-09-08 Qualcomm Incorporated Vlc-based vector field fingerprint mapping
US9536452B2 (en) 2015-05-13 2017-01-03 Abl Ip Holding Llc System and method to assist users having reduced visual capability utilizing lighting device provided information
JP6551785B2 (ja) * 2015-09-10 2019-07-31 パナソニックIpマネジメント株式会社 情報提示方法、サーバ、及び、情報提示システム
US20170155572A1 (en) 2015-11-30 2017-06-01 International Business Machines Corporation Relative positioning of a mobile computing device in a network
US20170206644A1 (en) * 2016-01-15 2017-07-20 Abl Ip Holding Llc Light fixture fingerprint detection for position estimation
US20170206658A1 (en) * 2016-01-15 2017-07-20 Abl Ip Holding Llc Image detection of mapped features and identification of uniquely identifiable objects for position estimation
US10072934B2 (en) 2016-01-15 2018-09-11 Abl Ip Holding Llc Passive marking on light fixture detected for position estimation
US9964955B2 (en) 2016-08-04 2018-05-08 Canvas Technology, Inc. System and methods of determining a geometric pose of a camera based on spatial and visual mapping
WO2018039337A1 (en) 2016-08-23 2018-03-01 Canvas Technology, Inc. Autonomous cart for manufacturing and warehouse applications
US10158425B2 (en) 2016-09-14 2018-12-18 Qualcomm Incorporated Methods and systems for adjusting an orientation of a light sensor
US10325391B2 (en) * 2016-11-21 2019-06-18 Qualcomm Incorporated Oriented image stitching for spherical image content
US10191140B2 (en) * 2017-06-01 2019-01-29 Osram Sylvania Inc. Luminaire identification and positioning by constellation
US11760221B2 (en) 2017-06-27 2023-09-19 A9.Com, Inc. Charging systems and methods for autonomous carts
US10793369B2 (en) 2017-07-12 2020-10-06 A9.Com, Inc. Conveyor system for autonomous robot
US10551933B2 (en) * 2017-11-02 2020-02-04 International Business Machines Corporation Media sharing with visualized positioning layout in real time
US10769836B2 (en) 2017-12-27 2020-09-08 Industrial Technology Research Institute Method and apparatus for establishing coordinate system and data structure product

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10213445A (ja) * 1996-11-26 1998-08-11 Matsushita Electric Works Ltd ナビゲーション装置
WO2006065563A2 (en) * 2004-12-14 2006-06-22 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
JP2010117301A (ja) * 2008-11-14 2010-05-27 Panasonic Electric Works Co Ltd 可視光通信式ナビゲーションシステム
JP2010117291A (ja) * 2008-11-14 2010-05-27 Pioneer Electronic Corp ナビゲーション装置
JP2013042246A (ja) * 2011-08-11 2013-02-28 Fujitsu Ltd 携帯端末及び位置及び方位推定プログラム
JP2013517483A (ja) * 2010-01-18 2013-05-16 クアルコム,インコーポレイテッド オブジェクトを使用した慣性航法システムの整合および較正

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7510078B2 (en) * 2004-09-30 2009-03-31 Montezuma Mgf., Inc. Tool box
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
FR2924684B1 (fr) * 2007-12-07 2010-01-01 Snecma Suspension d'un turboreacteur a un aeronef
KR101508976B1 (ko) * 2007-12-31 2015-04-10 삼성전자주식회사 가시광 통신을 이용한 네비게이션 시스템 및 방법
US20100322635A1 (en) * 2009-06-18 2010-12-23 Sony Ericsson Mobile Communications Ab Using ambient led light for broadcasting info and navigation
KR101878712B1 (ko) * 2011-05-27 2018-07-18 삼성전자주식회사 가시광 통신과 gps를 이용한 위치 정보 확인 장치 및 방법
WO2012174301A1 (en) * 2011-06-14 2012-12-20 Related Content Database, Inc. System and method for presenting content with time based metadata
US9287976B2 (en) * 2011-07-26 2016-03-15 Abl Ip Holding Llc Independent beacon based light position system
CN102902289A (zh) * 2011-07-29 2013-01-30 富泰华工业(深圳)有限公司 测试系统以及测试方法
US9395188B2 (en) * 2011-12-01 2016-07-19 Maxlinear, Inc. Method and system for location determination and navigation using structural visual information
US9539164B2 (en) * 2012-03-20 2017-01-10 Xerox Corporation System for indoor guidance with mobility assistance
EP2858269B1 (en) * 2012-05-24 2018-02-28 Panasonic Intellectual Property Corporation of America Information communication method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10213445A (ja) * 1996-11-26 1998-08-11 Matsushita Electric Works Ltd ナビゲーション装置
WO2006065563A2 (en) * 2004-12-14 2006-06-22 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
JP2010117301A (ja) * 2008-11-14 2010-05-27 Panasonic Electric Works Co Ltd 可視光通信式ナビゲーションシステム
JP2010117291A (ja) * 2008-11-14 2010-05-27 Pioneer Electronic Corp ナビゲーション装置
JP2013517483A (ja) * 2010-01-18 2013-05-16 クアルコム,インコーポレイテッド オブジェクトを使用した慣性航法システムの整合および較正
JP2013042246A (ja) * 2011-08-11 2013-02-28 Fujitsu Ltd 携帯端末及び位置及び方位推定プログラム

Also Published As

Publication number Publication date
CN105431709A (zh) 2016-03-23
EP3028008B1 (en) 2020-12-02
US20150036016A1 (en) 2015-02-05
WO2015017231A1 (en) 2015-02-05
EP3028008A1 (en) 2016-06-08
CN105431709B (zh) 2018-10-12

Similar Documents

Publication Publication Date Title
JP2016534335A (ja) 屋内環境においてモバイルフォンの方位を決定するための方法および装置
JP5959759B2 (ja) 近接ベースアクセス要求に対するセキュリティ機構のための方法及び装置
JP6297094B2 (ja) 近接フィンガープリントによる位置推定
US11638117B2 (en) Beacon addressing
US20150004935A1 (en) Method and apparatus for generating access codes based on information embedded in various signals
US10445778B2 (en) Short distance user recognition system, and method for providing information using same
EP3796682A1 (en) Geo-fencing based upon semantic location
US20160234652A1 (en) Updating points of interest for positioning
US20160261987A1 (en) Vlc-based vector field fingerprint mapping
US20150092061A1 (en) Location based brand detection
US20140279790A1 (en) Context aware localization, mapping, and tracking
JP2014240836A (ja) ローカル・マップ及び位置特有の注釈付きデータを提供するための人間援助型の技術
WO2017041571A1 (zh) 一种室内定位方法及用户终端
JP2014524577A (ja) 屋内測位のためのロゴ検出
US20190005550A1 (en) Advertisement audience dynamical detection circuit, computer program product, and related method for estimating quantity of out-of-home (ooh) advertisement audiences passing through specific location in specific time period
US20140087764A1 (en) Method and System for Calculating Directional Information Including Estimated Distance to Recently Moved or Newly Tagged Objects to a Moving, Wireless Enabled Device
US20180007508A1 (en) Indoor positioning system and method thereof
US11514600B2 (en) Information processing device and information processing method
US20180195867A1 (en) Systems and methods for indoor and outdoor mobile device navigation
US9730009B1 (en) Sparse Wi-Fi access point database for mobile devices
JP2023511126A (ja) 超音波ビーコン追跡システムおよび超音波ビーコン追跡方法
Statler et al. Alternative technologies to bluetooth beacons

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180822

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20190528