JP6495553B2 - 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法 - Google Patents

初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法 Download PDF

Info

Publication number
JP6495553B2
JP6495553B2 JP2018534579A JP2018534579A JP6495553B2 JP 6495553 B2 JP6495553 B2 JP 6495553B2 JP 2018534579 A JP2018534579 A JP 2018534579A JP 2018534579 A JP2018534579 A JP 2018534579A JP 6495553 B2 JP6495553 B2 JP 6495553B2
Authority
JP
Japan
Prior art keywords
navigation
landmark
instructions
initial
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018534579A
Other languages
English (en)
Other versions
JP2019504316A (ja
Inventor
ジョシュア・エス・スポック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2019504316A publication Critical patent/JP2019504316A/ja
Application granted granted Critical
Publication of JP6495553B2 publication Critical patent/JP6495553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3661Guidance output on an external device, e.g. car radio
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、ナビゲーション指示に関し、詳細には、ナビゲーション指示において画像を使用することに関する。
本明細書で提供している背景技術の説明は、一般的に、開示の内容を提示することを目的としている。本発明者の研究、および、本願の背景技術に記載している限りにおいて、出願時に従来技術としてみなし得ない説明の態様は、本開示に対する従来技術として明示的にも暗示的にも認められるものではない。
運転手、自転車運転者、歩行者を地理的ロケーション間で自動的にルート決定するナビゲーションシステムは、距離、道路の名称、建物番号などの表示を一般的に使用してそのルートに基づいてナビゲーション指示を生成する。例えば、これらのシステムは、「1/4マイル進み、その後、メイプル通りを右折してください」といった指示を運転手に提供し得る。目的地に向かう途中のユーザに対して、ナビゲーションシステムのポータブルコンポーネントは、関連ナビゲーション指示、すなわち、移動の方向に基づいた指示を提供し得る。そのようなナビゲーション指示の例として、「メイン通りを左折してください」を含む。しかしながら、ナビゲーションの開始時に、ユーザが静止しており移動の方向が不明な場合には、ナビゲーションシステムは、一般に、「ステート通りを北に進んでください」などの絶対方向を提供する。ユーザは自身の向きを常に把握しているわけではないので、ユーザが絶対方向を使用するのは困難となり得る。しかしながら、ポータブルデバイスが静止している間に、ポータブルデバイスがその動作または進行方向(heading)を決定することは困難となる。
一般的に言えば、本開示のシステムは、ロケーションの360度の範囲内にあるポータブルデバイスの初期ロケーションにおける候補ナビゲーションランドマークを識別する。候補ナビゲーションランドマークは、360度のビュー内で目視可能、360度の範囲内で聴き取り可能、またさもなければ、初期ロケーションからどの方向でも知覚可能であり得る。その後、システムは、初期の移動の方向に位置しているランドマークに選択を限定することなく、これらのランドマークのうちの1つまたはいくつかに言及する初期ナビゲーション指示を生成する。システムは、ポータブルデバイスが静止している場合にはそのような初期ナビゲーション指示を生成することが可能であり、ポータブルデバイスのセンサに頼ってポータブルデバイスまたはユーザの現在の向きを決定するわけではない。場合によっては、システムは、ユーザの背後にあるであろうランドマークに言及する初期ナビゲーション指示を彼または彼女が移動を開始すると生成する。例えば、初期ナビゲーション指示は、「噴水から離れて丘に向けて歩いてください」であり得る。さらに、システムが選択するランドマークは、近接したものである必要はなく、山などの遠方の自然物体、および橋、塔、高層ビルなどの人工構造物を含み得る。クラウドソーシングまたは自動化技術を使用して、システムはまた、例えば、野外コンサートが近隣のロケーションで報告されている場合には「音楽が聞こえる方に歩いてください」といった聴覚ランドマークを識別するとともに初期ナビゲーション指示において言及し得る。
これらの技術の例示的な実施形態は、初期ナビゲーションガイダンスを提供するための方法であり、1つまたは複数のプロセッサによって少なくとも部分的に実行することが可能である。方法は、ポータブルデバイスの現在のロケーションから目的地までのルートを決定するステップであって、ルートは、一連の有向セクションを含む、ステップと、目的地までルートに沿ってポータブルデバイスのユーザをガイドするナビゲーション指示を生成するステップとを含む。ナビゲーション指示を生成するステップは、ポータブルデバイスの現在のロケーションの360度の範囲内で知覚可能な候補ナビゲーションランドマークを識別するステップと、候補ナビゲーションランドマークから、一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークを選択するステップと、ナビゲーション指示のうちの初期指示を生成するステップであって、初期指示は、選択されたナビゲーションランドマークに言及する、ステップと、初期ナビゲーション指示がポータブルデバイスのユーザインターフェースを介して提供されるようにするステップとを含む。
これらの技術の別の例示的な実施形態は、位置決定モジュールと、ユーザインターフェースモジュールと、位置決定モジュールと、ユーザインターフェースモジュールに接続されたプロセッシングハードウェアと、プロセッシングハードウェアによって読み出し可能な非一時的メモリとを含む、ポータブルコンピューティングデバイスである。メモリは、プロセッシングハードウェアによって実行されると、ポータブルコンピューティングデバイスに、一連の有向セクションを含むルートに沿って目的地までユーザをガイドするためのナビゲーション指示を取得することであって、ナビゲーション指示は、一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークに言及する初期ナビゲーション指示を含む、ことと、ユーザインターフェースモジュールを介して初期ナビゲーション指示を提供することとを行わせる、命令を記憶する。
これらの技術の別の例示的な実施形態は、初期ナビゲーションガイダンスを提供するための命令を記憶する非一時的コンピュータ可読媒体である。命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、ポータブルデバイスの現在のロケーションから目的地までのルートを決定することであって、ルートは、一連の有向セクションを含む、ことと、目的地までルートに沿ってポータブルデバイスのユーザをガイドするナビゲーション指示を生成することとを行わせる。ナビゲーション指示を生成するために、命令は、1つまたは複数のプロセッサに、ポータブルデバイスの現在のロケーションの360度の範囲内で知覚可能な候補ナビゲーションランドマークを識別することと、一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークを選択することと、ナビゲーション指示のうちの初期指示を生成することであって、初期指示は、選択されたナビゲーションランドマークに言及する、生成することとを行わせる。命令は、1つまたは複数のプロセッサに、ポータブルデバイスのユーザインターフェースを介して初期ナビゲーション指示を提供することをさらに行わせる。
これらの技術の別の例示的な実施形態は、初期ナビゲーションガイダンスを提供するための命令を記憶する非一時的コンピュータ可読媒体である。命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサに、目的地までポータブルコンピューティングデバイスのユーザをガイドするナビゲーション指示のための要求を受信することと、要求に応答して、ポータブルデバイスの現在のロケーションから目的地までのルートを取得することであって、ルートは、一連の有向セクションを含む、ことと、目的地までルートに沿ってポータブルデバイスのユーザをガイドするナビゲーション指示を取得することであって、ナビゲーション指示は、一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークに言及する初期ナビゲーション指示を含む、ことと、ポータブルデバイスのユーザインターフェースを介した出力のために初期ナビゲーション指示を提供することとを行わせる。
これらの技術の他の例示的な実施形態は、一連の有向セクションのうちの最初の有向セクションの方向に実質的に沿った方向に位置しているナビゲーションランドマークを選択する方法およびシステムである。さらに他の例示的な方法およびシステムは、最初の有向セクションの方向に沿っても最初の有向セクションの方向の反対の方向に沿ってもいない方向に位置している(例えば、ナビゲーションランドマークが位置している方向が最初の有向セクションの方向に対して実質的に直角であり得る)ナビゲーションランドマークを選択する。
ある実施形態による、ポータブルデバイスの現在のロケーションの360度の範囲内で知覚可能なランドマークに言及することによって、初期ナビゲーション指示を生成する、例示的なコンピューティングシステムのブロック図である。 図1のシステムにおいて実施され得る、360度の範囲内で知覚可能なランドマークを使用して運転手のための初期ナビゲーション指示を生成するための例示的な方法のフロー図である。 図1のシステムにおいて実施され得る、いくつかのメトリックに基づいて初期ナビゲーション指示のためのランドマークを選択するための例示的な方法のフロー図である。 本開示のナビゲーションソフトウェアモジュールがインタラクティブな方式で初期ナビゲーション指示を提供するために生成し得る、ポータブルデバイスの例示的なユーザインターフェースのスクリーンショットを示す図である。 本開示のナビゲーションソフトウェアモジュールがインタラクティブな方式で初期ナビゲーション指示を提供するために生成し得る、ポータブルデバイスの例示的なユーザインターフェースのスクリーンショットを示す図である。 本開示のナビゲーションソフトウェアモジュールがインタラクティブな方式で初期ナビゲーション指示を提供するために生成し得る、ポータブルデバイスの例示的なユーザインターフェースのスクリーンショットを示す図である。 図1のシステムのある例示的な実施形態による、初期ナビゲーション指示を生成する際に距離および近接したナビゲーションランドマークの使用を概略的に示すブロック図である。 ポータブルデバイスの現在のロケーションに対して異なる方向に位置している2つのナビゲーションランドマークに言及する初期ナビゲーション指示を生成するための例示的な方法のフロー図である。 あるロケーションから撮影された写真を使用して、初期ナビゲーション指示のためのナビゲーションランドマークとしての役割を果たし得るロケーションを識別するための例示的な方法のフロー図である。
一般的概要
目的地に向かうルートの途中のユーザに対して、本開示のナビゲーションシステムは、関連ナビゲーション指示、すなわち、移動の方向に基づいた指示を提供し得る。そのようなナビゲーション指示の例として、「メイン通りを左折してください」を含む。しかしながら、ナビゲーションの開始時に、ユーザが静止しており移動の方向が不明な場合には、「ステート通りを北に進んでください」などの絶対方向を使用するのは困難となり得る。初期ナビゲーション指示を生成するために、ナビゲーションシステムは、ロケーションの360度の範囲内にあるポータブルデバイスの初期ロケーションにおける候補ナビゲーションランドマークを識別する。その後、ナビゲーションシステムは、初期の移動の方向に位置しているナビゲーションランドマークに選択を限定することなく、これらのナビゲーションランドマークのうちの1つまたはいくつかに言及する初期ナビゲーション指示を生成する。
場合によっては、ナビゲーションシステムは、ユーザの背後にあるであろうナビゲーションランドマークに言及する初期ナビゲーション指示を彼または彼女が移動を開始すると生成する。例えば、初期ナビゲーション指示は、「噴水から離れて丘に向けて歩いてください」であり得る。さらに、システムが選択する1つまたはいくつかのナビゲーションランドマークは、近接したものである必要はなく、山などの遠方の自然物体、および橋、塔、高層ビルなどの人工構造物を含み得る。クラウドソーシングを使用して、ナビゲーションシステムはまた、例えば、野外コンサートが近隣のロケーションで報告されている場合には「音楽が聞こえる方に歩いてください」といった聴覚ランドマークを識別するとともに初期ナビゲーション指示において言及し得る。
ナビゲーションランドマークは、恒久的または一過性であり得る。ナビゲーションシステムは、ナビゲーションランドマークについての様々なメトリックを生成し、あるロケーションおよびある向きについてのナビゲーションランドマークを選択する際にそのメトリックを使用し得る。メトリックは、ナビゲーションランドマークの可観測性、顕著性、および一意性に関連し得る。これらのファクタにアクセスするために、システムは、マシンビジョンおよびクラウドソーシングなどの他の自動化技術を使用し得る。
例示的なコンピュータ環境
図1は、初期ナビゲーション指示を生成するための技術のうちの少なくともいくつかが実施され得る環境10を図示している。環境10は、通信ネットワーク16を介して相互接続されているポータブルシステム12およびサーバシステム14を含む。サーバシステム14は、順に、様々なデータベース、および、いくつかの実施形態においては、ライブ交通サービスまたは気象サービスなどのサードパーティシステム(混乱を避けるため図示せず)と通信し得る。環境10内で動作するナビゲーションシステム18は、ナビゲーション指示内に含めるため、詳細には、初期ナビゲーション指示を生成するために、視覚および/または聴覚ランドマークを選択するように構成されるコンポーネントを含む。ナビゲーションシステム18は、ポータブルシステム12で、サーバシステム14で、またはポータブルシステム12で部分的におよびサーバシステム14で部分的に実施され得る。
ポータブルシステム12は、スマートフォン、スマートウォッチもしくはヘッドマウントディスプレイなどのウェアラブルデバイス、またはタブレットコンピュータなどといったポータブル電子デバイスを含み得る。いくつかの実施形態またはシナリオにおいては、ポータブルシステム12はまた、車両に組み込まれるまたは搭載されるコンポーネントを含む。例えば、タッチスクリーンを有するヘッドユニットなどの電子コンポーネントを備えた車両の運転手は、ナビゲーションのために自身のスマートフォンを使用し得る。スマートフォンは、車両のセンサにアクセスするために、および/または、ヘッドユニットのスクリーン上にナビゲーション指示を提供するために、Bluetooth(登録商標)などの短距離通信リンクを介してヘッドユニットと接続し得る。一般に、ポータブルまたはウェアラブルユーザデバイスのモジュール、車両のモジュール、および外部デバイスまたはデバイスのモジュールは、ポータブルシステム12のコンポーネントとして動作し得る。
ポータブルシステム12は、1つまたは複数の中央処理ユニット(CPU)、グラフィックコンテンツを効率的にレンダリングするための1つまたは複数のグラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)、または任意の他の適切なタイプのプロセッシングハードウェアを含み得る、処理モジュール22を含み得る。さらに、ポータブルシステム12は、永続的(例えば、ハードディスク、フラッシュドライブ)および/または非永続的(例えば、RAM)コンポーネントで構成されているメモリ24を含み得る。ポータブルシステム12は、ユーザインターフェース28およびネットワークインターフェース30をさらに含む。シナリオ次第ではあるが、ユーザインターフェース28は、ポータブル電子デバイスのユーザインターフェースまたは車両のユーザインターフェースに対応し得る。いずれにせよ、ユーザインターフェース28は、タッチスクリーン、マイクロフォン、キーボードなどといった1つまたは複数の入力コンポーネントと、スクリーンまたはスピーカなどといった1つまたは複数の出力コンポーネントとを含み得る。
ネットワークインターフェース30は、短距離および/または長距離通信をサポートし得る。例えば、ネットワークインターフェース30は、セルラ通信、IEEE802.11(例えば、Wi-Fi)または802.15(Bluetooth(登録商標))などのパーソナルエリアネットワークプロトコルをサポートし得る。いくつかの実施形態においては、ポータブルシステム12は、ポータブルシステム12内の複数のデバイスを相互接続するとともにポータブルシステム12をネットワーク16に接続する複数のネットワークインターフェースモジュールを含む。例えば、ポータブルシステム12は、スマートフォン、車両のヘッドユニット、およびフロントガラスに搭載されたカメラを含み得る。スマートフォンおよびヘッドユニットは、Bluetooth(登録商標)を使用して通信し得るし、スマートフォンおよびカメラは、USBを使用して通信し得るし、スマートフォンは、ポータブルシステム12の様々なコンポーネントへの情報およびそのようなコンポーネントからの情報を伝達するために、4Gセルラサービスを使用してネットワーク16を介してサーバ14と通信し得る。
さらに、場合によっては、ネットワークインターフェース30は、ジオポジショニングをサポートし得る。例えば、ネットワークインターフェース30は、Wi-Fi三辺測量をサポートし得る。他の場合には、ポータブルシステム12は、グローバル・ポジショニング・サービス(GPS)モジュールなどの専用の位置決定モジュール32を含み得る。一般に、ポータブルシステム12は、車両およびスマートフォンの両方において実施される位置決定モジュールなどの冗長なコンポーネントを含む、様々な追加のコンポーネントを含み得る。
図1に図示した例示的な実施形態においては、メモリ24は、初期ナビゲーション指示API25、地理アプリケーション26、およびサードパーティアプリケーション27を実施する命令を記憶する。しかしながら、別の実施形態においては、メモリ24は、API25と、API25を呼び出すことによってナビゲーションランドマークに関連する初期ナビゲーション指示を取得するとともにアプリケーション固有の方式で初期ナビゲーション指示を使用するウェブブラウザまたはゲーミングアプリケーションなどのサードパーティアプリケーション27とだけを記憶する。別の実施形態においては、メモリ24は、例えば、初期ナビゲーション指示を取得するとともに運転方向の一部としてユーザインターフェース28を介してこれらの初期ナビゲーション指示を提供する地理アプリケーション26だけを記憶する。より一般的には、メモリ24は、API25、地理アプリケーション36、またはその両方を記憶する。
図1を引き続き参照すると、ポータブルシステム12は、インターネットなどのワイドエリアネットワークであり得るネットワーク16を介して、サーバシステム14と通信し得る。サーバシステム14は、複数の地理的ロケーションにわたって分散されたデバイスを含む、1つまたは複数のサーバデバイスに実装され得る。サーバシステム14は、ルート決定エンジン40、ナビゲーション指示ジェネレータ42、およびランドマーク選択モジュール44を実施し得る。コンポーネント40〜44は、ハードウェア、ファームウェア、およびソフトウェアの任意の適切な組合せを使用して実装され得る。サーバシステム15は、任意の適切なデータのストレージおよびアクセス技術を使用して実装され得る、マップデータベース50、視覚ランドマークデータベース52、およびユーザプロファイルデータベース54などのデータベースにアクセスし得る。
作動中、ルート決定エンジン40は、ナビゲーション指示のための要求をポータブルシステム12から受信し得る。要求は、出発元、目的地、および、例えば、有料道路を避けるといった要求などの制約を含み得る。要求は、例えば、地理アプリケーション26またはAPI25からもたらされ得る。それに応じて、ルート決定エンジン40は、マップデータベース50から、道路ジオメトリデータ、道路および交差点の制約(例えば、一方通行、左折禁止)、道路種別データ(例えば、高速道路、地方道路)、速度制限データなどを読み出して、出発元から目的地までのルートを生成する。いくつかの実施形態においては、ルート決定エンジン40はまた、最良のルートを選択する際にライブ交通データを取得する。最良または「主要」なルートに加えて、ルート決定エンジン40は、1つまたはいくつかの代替のルートを生成し得る。
道路データに加えて、マップデータベース50は、様々な川、山、および森などの自然地勢、および建物および公園などの人工地勢に関するジオメトリおよびロケーションのインディケーションの記述を記憶し得る。マップデータは、他のデータの中でも、ベクトルグラフィックデータ、ラスタ画像データ、およびテキストデータを含み得る。例示的な実施形態においては、マップデータベース50は、四分木などのトラバース可能なデータ構造への地理空間データの2次元的編成に一般的に対応するマップタイルにマップデータを編成する。
ナビゲーション指示ジェネレータ42は、ルート決定エンジン40によって生成された1つまたは複数のルートを使用して、一連のナビゲーション指示を生成し得る。ナビゲーション指示の例として、「500フィートでエルム通りを右折してください」および「4マイル継続的にまっすぐ進んでください」を含む。ナビゲーション指示ジェネレータ42は、ポータブルシステム12に関連付けられた運転手の言語でこれらおよび同様のフレーズを構成するために、自然言語生成技術を実装し得る。指示は、テキスト、音声、またはその両方を含み得る。以下で詳細に説明しているように、ナビゲーション指示ジェネレータ42および/またはポータブルシステム12内に実装されるソフトウェアコンポーネントは、ポータブルデバイスがルートの途中の間に提供されるナビゲーション指示とは異なる方式でナビゲーションランドマークに言及する初期ナビゲーション指示を生成する。
ランドマーク選択モジュール44は、ナビゲーションアプリケーション26も含み得るナビゲーションシステム18の一部として動作し得る。ランドマーク選択モジュール44は、顕著な建物、広告掲示板、信号機、一時停止の標識、像および記念碑、ならびに企業を表すシンボルなどの視覚ランドマークを参照して、ナビゲーション指示ジェネレータ42によって生成されたナビゲーション指示を増補し得る。本目的を達成するために、ランドマーク選択モジュール44は、視覚ランドマークデータベース52にアクセスして、ナビゲーションルートに沿って位置している視覚ランドマークのセットを選択し得る。ランドマーク選択モジュール44は、ポータブルコンピューティングデバイスが静止しているインディケーションなどといった追加の信号を考慮して、初期ナビゲーション指示に含まれる1つまたは複数のランドマークを選択する。初期ナビゲーション指示のためのランドマークを選択する場合には、ランドマーク選択モジュール44は、以下で説明しているような、異なる選択基準(例えば、360度の範囲内の可視性)を適用し得る。
視覚ランドマークデータベース52は、運転している(または自転車に乗っている、歩いている、またさもなければ、ナビゲーションルートに沿って移動している)際に目視可能となり、それゆえ、視覚ランドマークとしての役割を果たし得る、顕著な地理的エンティティに関する情報を記憶し得る。各視覚ランドマークについては、視覚ランドマークデータベース52は、写真、地理座標、テキスト形式の記述、ユーザによって投稿されたコメント、ならびに視覚ランドマークの有用性および/または視覚ランドマークの特定の画像の有用性を示す数値メトリックのうちの1つのまたはいくつかを記憶し得る。いくつかの実施形態においては、視覚ランドマークデータベース52内のランドマーク固有のレコードは、同一の視点からの、すなわち、同一のロケーションからカメラの同一の向きで撮影された、視覚ランドマークについての複数のビューを記憶する。しかしながら、視覚ランドマークの複数のビューは、時刻、気象条件、季節などにより異なり得る。データレコードは、各画像に対してこれらのパラメータを指定するメタデータを含み得る。例えば、データレコードは、写真が撮影されたときを示すタイムスタンプとともにイルミネーションに照らされた夜間の広告掲示板の写真と、対応するタイムスタンプとともに同一の視点からの日中の広告掲示板の別の写真とを含み得る。さらに、データレコードは、雪が降る天候の間、雨が降る天候の間、霧がかかった天候の間などに撮影された広告掲示板の写真と、各写真について対応する指示子とを含み得る。その上さらに、データレコードは、異なる季節の間に撮影された写真を含み得る。
要するに、視覚ランドマークデータベース52は、場合によっては、同一の誘導で利用可能なランドマーク(例えば、同一の交差点の近傍にある右手の広告掲示板および左手の教会)の数の観点と、同一のランドマークで利用可能な画像の観点との両方で重複する、視覚ランドマークの大規模なセットを記憶し得る。ナビゲーションシステム18は、重複したランドマークのどれが(高速で運転している際に運転手がある視覚ランドマークを認識することが困難となり得るような)特定の照明条件、気象条件、交通状況に役立つかと、対応するシーンが(リアルタイム画像から推測されるように)運転手の視点からどれくらいよく見えるかとを決定し得る。
同一の視覚ランドマークの複数の画像に加えて、視覚ランドマークデータベース52は、「大きなガラスの建物」、「その前面に大きな『M』がある建物」、「国際的な旗がある建物」などといった、同一のランドマークについての複数の記述を記憶し得る。サーバシステム14の事業者および/またはクラウドソーシングの取り組みの一環としてランドマーク情報を投稿するユーザは、このような記述を投稿し得るし、サーバシステム14は、以下でより詳細に説明しているフィードバック処理技術を使用して運転手が見つけるのにどの記述がより役立つかを決定し得る。運転手のフィードバックの追跡を維持するために、ある例示的な実施形態における視覚ランドマークデータベース52は、視覚ランドマークがとにかくナビゲーション指示において言及されるべきかどうかにアクセスするために使用され得る視覚ランドマークについての全体的な数値メトリック、異なる時刻についての独立した数値メトリック、異なる気象条件など、および/または異なる画像についての独立した数値メトリックを記憶する。
視覚ランドマークデータベース52にデータ投入するために、サーバシステム14は、衛星画像、様々なユーザによって投稿された写真およびビデオ、特殊なパノラマカメラを備えた車によって収集された車道レベル画像、歩行者および自転車運転者によって収集された車道および歩道画像、ユーザからクラウドソーシングされた情報(例えば、「ステート通りおよびメイン通りにおけるストリートフェア」)などを受信し得る。同様に、視覚ランドマークデータベース52は、サーバシステム14の事業者およびユーザ生成されたコンテンツを投稿する人々などといった様々なソースからランドマークの記述を受信し得る。クラウドソーシング技術を使用することに加えてまたは代えて、サーバシステム14は、潜在的な視覚ランドマークについて、3D再構成、コンピュータビジョン、他の自動化技術を使用して、可観測性、顕著性、および一意性の数値メトリックを生成し得るし、様々なオーディオ処理技術を使用して、聴覚ランドマークについて、同様のメトリック(例えば、ボリューム、周波数範囲、独自性)を決定し得る。いくつかの実施形態におけるサーバシステム14は、ユーザ生成されたコンテンツから導出されたメトリックを使用して、例えば、自動的に生成されたメトリックを補足または修正する。
図1に図示しているように、視覚ランドマークデータベース52は、比較的少ないロケーションにおいて目視可能となる、非常に特徴的な、有名な建物の画像70と、多くのロケーションから目視可能となる大規模構造物の画像72と、一般的には目立たないがある状況(例えば、複数のより小さな建物の隣)では、十分に観測可能で、顕著で、一意となり得る建物の画像74とを記憶し得る。
別の実施形態においては、視覚ランドマークデータベース52は、他のデータベース内の画像に対する言及のみを記憶する。例えば、1つまたはいくつかのデータベースは、画像70、72および74を記憶し得るし、様々な電子サービスは、(ユーザアルバムの提供、オンライン写真ギャラリー、バーチャルツアー、または業務データの補足などといった)様々な目的のためのこれらの画像を使用し得る。これらの画像は頻繁に更新されるため、このような実施形態における視覚ランドマークデータベース52は、ストレージ内の重複およびデータベースの同期に関連する遅延を避けるために画像に対する言及のみを記憶し得る。同様の方式で、視覚ランドマークデータベース52は、あるランドマークについて、マップデータのコピーではなく、マップデータベース50内の対応するマップデータに対する言及を記憶し得る。
図1を引き続き参照すると、ユーザプロファイルデータベース54は、彼らが好んで見る視覚ランドマークのタイプに関するユーザプリファレンスを記憶し得る。例えば、あるユーザのプロファイルは、彼女がランドマークとして広告掲示板を好むことが示され得る。ランドマーク選択モジュール44は、重複した視覚ランドマークから視覚ランドマークを選択する際に、ファクタの少なくとも1つのとしてユーザプリファレンスを使用し得る。いくつかの実施形態においては、ユーザは、ナビゲーションシステム18がこのデータを使用することを彼または彼女が許可するインディケーションを提供する。重複した視覚ランドマークから視覚ランドマークを選択するための他のファクタは、顕著性、可観測性、および一意性の数値メトリックなどといった、対象メトリックを含み得る。例示的な実施形態においては、対象メトリックはユーザプリファレンスよりも優先される。
例示的な動作において、ポータブルシステム12は、ナビゲーション指示のための要求を生成して、要求をサーバシステム14に送信する。要求は、ポータブルシステム12の現在のロケーションのインディケーション、および、ポータブルシステム12が現在静止していることを暗示的または明示的に示し得るインディケーションを含み得る。ナビゲーションシステム18は、ポータブルシステム12の現在のロケーションに対する任意の単一の方向にナビゲーションランドマークの選択を限定することなく、どのナビゲーションランドマークがポータブルシステム12の現在のロケーションにおいて目視可能であるかまたはさもなければ知覚可能であるかを決定する。
上述したようなナビゲーションシステム18の機能性は、任意の適切な方式でポータブルシステム12とサーバシステム14との間で分散され得る。いくつかの実施形態においては、例えば、サーバシステム14は、目的地まで移動するためのナビゲーション指示とともに、ポータブルシステム12の現在のロケーションの周囲の複数のランドマークのインディケーションを提供し得るし、地理アプリケーション26および/またはAPI25は、初期ナビゲーション指示をローカルでフォーマットし得る。
次に、ナビゲーションランドマークを用いて初期ナビゲーション指示を生成し、適切なナビゲーションランドマークデータを用いてデータベースにデータ投入するための例示的な方法を、図2および3を参照して説明しており、ポータブルシステム12が提供し得る例示的なインターフェーについての説明がその後に続いている。初期ナビゲーションにおいてナビゲーションランドマークを選択および提供するための追加の例および方法を、図5から7を参照してさらに説明している。
初期ナビゲーション指示を生成するための例示的な方法
図2は、運転手のための初期ナビゲーション指示を生成するための例示的な方法100のフロー図である。説明したナビゲーションシステム18は、1つのまたはいくつかのデバイスにおいて、1つまたは複数のプロセッサ上で実行可能な命令のセットとして方法100を実施し得る。例えば、方法100を構成する動作のうちの一部またはすべては、モジュール40、42および44において実施され得る。
方法100は、目的地までのルートを決定するブロック102を起点としている。例えば、要求は、ポータブルデバイスの現在のロケーションからあるロケーションまでユーザをナビゲーションするために、図1のポータブルシステム12などのポータブルデバイスから受信され得る。ルートは、道路ジオメトリ、速度制限および通行料要件などの様々な道路特性、現在の道路条件、天候などを考慮して、任意の適切な技術に従って決定され得る。ルートは、中間地点の間にある一連の有向セクションを含み得る。例示的なシーケンスは、(i)5番大通りとメイン通りの現在のロケーションから9番大通りとメイン通りの角までメイン通りに沿って北へ、(ii)9番大通りとメイン通りの角から9番大通りとメイプル通りの角まで9番大通りに沿って西へ、(iii)9番大通りとメイプル通りの角からメイプル通りに沿って100ヤードほど南へといった、有向セクションを含み得る。
ブロック104において、ポータブルデバイスの現在のロケーションの360度の範囲内で知覚可能な候補ナビゲーションランドマークを識別する。図3を参照して詳細に説明しているように、図1のデータベース52または同様のデータベースは、様々な地理的ロケーションから顕著かつ一意に観測可能な様々なナビゲーションランドマークに関連しているデータを記憶し得る。例えば、データベースは、5番大通りとメイン通りとの角について、顕著かつ一意に観測可能なナビゲーションランドマークが、200ヤード北にシティホール、1/4マイル西に鉄道橋、南の遠方に山脈(例えば、10マイル以上)、および50ヤード東に噴水を含むことを示し得る。
次に、ブロック106において、1つまたはいくつかのナビゲーションランドマークが初期ナビゲーション指示に含めるために選択され、対応する初期ナビゲーション指示がブロック108において生成される。上述した例を継続して、あるルートに対応するシーケンス中の初期有向セクションは、5番大通りとメイン通りから北への移動を定義する。このセグメントについての初期ナビゲーション指示は、この開始ロケーションの南の遠方に位置している山脈に対する言及を含み得る。より詳細な例として、初期ナビゲーション指示は、「山脈から離れるように移動を開始してください」というテキストを含み得る。さらに、初期ナビゲーション指示は、反対方向に位置しているシティホールに言及し得るし、テキストは、「山脈から離れてシティホールに向けて移動を開始してください」であり得る。
初期ナビゲーション指示は、ブロック110において、視覚的にまたはアナウンスの形式で、ユーザインターフェースを介して提供され得る。図4A〜Cでより詳細に図示しているように、初期ナビゲーション指示はまた、ユーザが言及されたナビゲーションランドマークに関連する追加の詳細を閲覧できるように、インタラクティブな方式で提供され得る。初期ナビゲーション指示が上述した方式でユーザに提供されると、後続のナビゲーション指示は、「ブロードウェイの2つのブロック先を左折してください」などの相対的な誘導を示すことが可能になる。
図3を新たに参照すれば、いくつかのメトリックに基づいて初期ナビゲーション指示のためのランドマークを選択するための例示的な方法150が、例えば、1つまたは複数のプロセッサ上で実行可能な命令のセットとして、モジュール44において実施され得る。より一般的には、方法150は、いくつかの実施形態が複数のデバイスまたはシステムにわたって分散された1つのまたはいくつかのモジュールにおいて実施され得る。いくつかの実施形態によれば、方法150は、オフラインまたはバッチモードで実行され、様々な候補ナビゲーションランドマークについてのメトリックを生成するとともに後続の選択のためにそれぞれのデータベースレコードを更新する。他の実施形態においては、方法150は、例えば、図2を参照して上述したブロック106の一部としてリアルタイムで実行される。
ブロック152において、ある地理的ロケーションのための候補ナビゲーションランドマークのインディケーションを受信する。例えば、ある都市のロケーションについては、そのロケーションのすぐ近くに近接した任意の識別可能な構造物、そのロケーションで目視可能となることが把握されている任意の自然地勢、そのロケーションで知覚可能となることが把握されているノイズの源などがある。次に、ブロック154〜158において、候補ナビゲーションランドマークについての様々な数値メトリックを決定し得る。
ブロック154において、可観測性のメトリックを決定する。本明細書で使用されており、可観測性は、移動者が彼または彼女の位置を変えることなくナビゲーションランドマークを見つけることができる確率を指す。例えば、通りの一方の側から見えない噴水は常に観測可能となり得ない、それゆえ、そのメトリックは比較的低くなる。同様に、季節性またはさもなければ一過性の特徴も常に観測可能とはなり得ない。それゆえ、可観測性メトリックも比較的低くなり得る(または、いくつかの実施形態においては、適切な季節についての可観測性メトリックは比較的高くなり得るし、残りの季節についての可観測性メトリックは比較的低くなり得る)。一方、シティのスクエアの中央にある大きな記念碑についての可観測性メトリックは、スクエア内のロケーションについて比較的高い値が割り当てられ得る。
可観測性のメトリックについての数値は、1つのまたはいくつかの信号を使用して計算され得る。例えば、あるランドマークの写真は、ランドマークの名称がタグ付けされ得るし、姿勢データ(カメラのロケーションまたは向きのインディケーション)がタグ付けされ得る。姿勢データに反映されているような、同一のロケーションから撮影された同一のランドマークのある数の写真は、一般に、ナビゲーションランドマークが高い可観測性メトリックを有しているはずであるという強い指標となる。さらに、スキャニング、ユーザ写真、パノラマ画像、航空画像などからの3D再構成を使用して構築される3次元(3D)モデルは、より長距離に関する見通し線を決定するために使用され得る。
その上さらに、一過性の特徴は、ナビゲーションランドマークとしての役割を果たし得るし、適切な期間の間は可観測性の高いメトリックが割り当てられ得る。例えば、農業従事者のマーケットは、季節によって週のうち何日か開かれ得るし、公的な美術展示品は、制限された時間の間、展示され得る。図1に戻って参照すれば、マップデータベース50または同様のデータベースは、あるロケーションにある農業従事者のマーケットについての業務データを含み得る。農業従事者のマーケットに関連したこの業務データおよび/またはクラウドソーシングされた情報は、メトリック可観測性を生成する際に使用され得る。
ブロック156において、方法150を実施するモジュールは、候補ナビゲーションランドマークについての顕著性のメトリックを決定する。本目的を達成するために、モジュールは、どれくらい広くに候補ナビゲーションランドマークが撮影されているかまたは様々な文書中で言及されているかのインディケーションとしてそのような信号を使用し得る。顕著性のメトリックのための数値は、例えば、候補ナビゲーションランドマークのインデックス化された写真の数および/または検索ヒットのヒット、レビュー、候補ナビゲーションランドマークに関連するクエリの数をカウントすることによって、計算され得る。
モジュールが使用し得る別の信号は、候補ナビゲーションランドマークを周辺要素から容易に見つけ出すことができるかどうかを示す。一例として、コンピュータビジョン特徴検出器/分類器は、候補ナビゲーションランドマークを含むあるシーンの写真内にある候補ナビゲーションランドマークを識別しようと試み得るし、写真は、所与の地理的ロケーションにおいて撮影されている。候補ナビゲーションランドマークが高い信頼性で識別され得る場合には、顕著性を示す信号として使用され得る。
図3を引き続き参照すると、一意性のメトリックがブロック158において計算され得る。本目的を達成するために、候補ナビゲーションランドマークの他のランドマークとの近接度が、例えば、近隣の候補ナビゲーションランドマークまたは関心地点が同一のタイプ(例えば、噴水、交通信号)であるかどうかを決定するために評価され得る。そのタイプの関心地点のいくつかは、期待される注目すべきもの(例えば、記念碑)を本質的に有し得る。他のタイプの関心地点は、互いに一般的に類似していると期待され得る(例えば、交通標識)。
ブロック154、156および158において決定されるメトリックは、全体的なスコアを生成するために任意の適切な方式で重み付けされる。ブロック160において、1つまたはいくつかのランドマークは、全体的なスコアを考慮して、必要に応じて、ブロック154、156および158において決定されたメトリックのうちの2つのみを考慮して、初期ナビゲーション指示とともに使用するために選択され得る。
例示的なユーザインターフェース
図1に戻って参照すれば、地理アプリケーション26またはサードパーティアプリケーション27は、インタラクティブユーザインターフェースを介して初期ナビゲーション指示を提供し得る。このようなインターフェースのある例示的な実施形態を図4A〜Cを参照して説明する。スクリーンショット200、220および240の各々は、ポータブルデバイス201のタッチスクリーン上に表示されるソフトウェアアプリケーションの例示的な出力を図示している。これらの例はスマートフォンまたはタブレットコンピュータとって典型的な矩形レイアウトで示しているが、正方形、円形、楕円形、および他のタイプのレイアウトが、例えば、スマートウォッチまたは専用のナビゲーションデバイスなどの他のタイプのデバイスに対して一般的に同様の方式で実施され得る。
図4Aに示している例示的なスクリーンショット200をまず参照すれば、指示ウィンドウ202は、デジタルマップ204を部分的にオーバーラップしており、初期ナビゲーション指示は、ユーザの現在のロケーション、第1の中間地点、およびユーザが移動すべき方向を図示しているマーカを使用して示される。上述したように、ユーザが静止している場合にはポータブルデバイスのセンサがユーザの向きを確実に決定することは困難であり、それゆえ、デジタルマップ204をユーザの周辺と整合させてユーザを支援することが困難となる。スクリーンショット200は、ユーザがナビゲーション指示を要求したことに応じて、または、いくつかの実施形態においては、ユーザにルートの概要を提示した後の一連のナビゲーション指示の提示を開始するためのユーザコマンドに応じて、直ちに生成され得る。
本例における指示ウィンドウ202は、ルートの最初の有向セクションに沿って移動の方向に位置しているナビゲーションランドマーク(銀行)、および反対方向に位置しているナビゲーションランドマーク(噴水)の両方に言及するテキストを含む。それゆえ、テキストは、ユーザに銀行に向けて噴水から離れるように歩くように指示する。いくつかの実施形態においては、デジタルマップ204は、タップなどの直接的な接触を介してインタラクティブを行うとともにアクセス可能である。デジタルマップ204内で検出されたタップイベントに応じて、指示ウィンドウ202を閉じることが可能である。
図4Aに図示しているように、指示ウィンドウ202は、初期ナビゲーション指示内で言及されているナビゲーションランドマークのタイプを示すアイコンを含み得る。ランドマーク選択モジュール44または図1のシステム内で動作する別のモジュールは、これらのアイコンを利用可能なランドマークのタイプのリストから選択し得る。アイコンは、対応するナビゲーションについてのランドマークに関する追加の情報にアクセスするために個別に選択可能であり得る。あるいは、ユーザは、指示ウィンドウ202を閉じることを選択して、デジタルマップ204に、スクリーン全体を占有させ得る、または、ともかくそのスクリーンの大部分を占有させ得る。
図4Bおよび4Cを参照すれば、ユーザ、銀行に対応するアイコンを選択して、指示ウィンドウ202と同様にデジタルマップ204を部分的にオーバーラップし得る情報スクリーン210にアクセスし得る。アイコンの選択は、タップイベント、ダブルイベント、または任意の適切なタイプのインタラクションに対応し得る。情報スクリーン210は、ナビゲーションランドマークの従来の(フラットな)写真、ナビゲーションランドマークのパノラマ写真、ランドマークのインタラクティブ3Dビュー、または任意の他の利用可能な画像を含み得る。必要に応じて、情報スクリーン210はまた、ナビゲーションランドマークについての業務データを含み得る。
次に、図5のブロック図300は、初期ナビゲーション指示を生成する際に距離および近接したナビゲーションランドマークの使用を概略的に示している。このような例示的なシナリオにおいては、ポータブルデバイスの現在のロケーションはマーカ302によって表されており、ナビゲーション指示のための目的地はマーカ304によって表されている。現在のロケーションと目的地との間のルート306は、最初の有向セクション310を含む、一連の有向セクションで構成される。
図1および5を参照すれば、ポータブルシステム12のユーザがルート306に沿ってナビゲーションを開始すると、ナビゲーションシステム18は、ロケーション302からかなり離れたところ(例えば、40マイル)に位置している山320、およびマーカ302によって表されるロケーションと同一の交差点に位置しているガソリンスタンド322に言及する初期ナビゲーション指示を生成し得る。より詳細には、ナビゲーションシステム18は、テキスト350を生成して、山320から離れてガソリンスタンド322に向けて運転またはウォーキングを開始するようにポータブルシステム12のユーザに指示し得る。
より明確にするために、図6は、ポータブルデバイスの現在のロケーションに対して異なる方向に位置している2つのナビゲーションランドマークに言及する初期ナビゲーション指示を生成するための例示的な方法400を図示している。方法400は、上述したようなナビゲーションシステム18において実施され得る。より詳細な例として、方法400は、コンピュータ可読媒体に記憶されており1つまたは複数のプロセッサによって実行可能な命令のセットとしてナビゲーション指示ジェネレータ42において実施され得る。
ブロック402において、第1のナビゲーションランドマークが、上述した可観測性、顕著性、および一意性のメトリックを考慮して、360度の範囲内で選択される。また、ユーザプリファレンス(例えば、「利用可能な場合には広告掲示板を使用する」、「聴覚ランドマークを使用しない」)が複数の候補から選択するために使用され得る。一般に、第1のナビゲーションランドマークは、一連の有向セクションの最初の有向セクションの方向に対して任意の方向で選択され得る。例えば、第1のナビゲーションランドマークは、移動の方向に対して左手側に位置している。図4A〜Cを参照して上述した例示的なシナリオにおいては、概略方向に位置している銀行は、第1のナビゲーションランドマークとしての役割を果たす。図5を参照して上述した例示的なシナリオにおいては、山は、第1のナビゲーションランドマークとしての役割を果たす。
初期ナビゲーション指示はただ1つのランドマークに対する言及を含み得るが、方法400は、ブロック404において360度の範囲内にある第2のナビゲーションランドマークを選択するステップを含むことができる。第1および第2のナビゲーションランドマークは、移動の初期方向に対して異なる方向に位置し得る。ブロック406において、第1のナビゲーションランドマークおよび第2のナビゲーションランドマークに関連する移動に言及する初期ナビゲーション指示のテキストを生成する。移動は、例えば、第1のナビゲーションランドマークから離れて第2のナビゲーションランドマークに向かうといったものであり得る。いくつかの実施形態においては、テキストは、「<第1のナビゲーションランドマーク>から<第2のナビゲーションランドマーク>まで<方向>に移動」といったテンプレートに従って生成される。
ブロック408において、第1のナビゲーションランドマークおよび第2のナビゲーションランドマークのタイプに対応するアイコンが選択される。図4A〜Cに図示しているように、アイコンは、ナビゲーションランドマークに関する追加の情報を読み出すための選択可能な制御として機能し得る。ブロック406において生成されたテキストおよびブロック408において取得されるアイコンを使用する初期ナビゲーション指示が生成される(ブロック410)。初期ナビゲーション指示は、その後、表示のため、またはさもなければ、ユーザインターフェースを介した出力のために、ポータブルシステムに提供され得る。
ナビゲーションランドマークデータベースの更新
図7は、あるロケーションから撮影された写真を使用して、初期ナビゲーション指示のためのナビゲーションランドマークとしての役割を果たし得るロケーションを識別するための例示的な方法450のフロー図である。図1に戻って参照すれば、方法450は、例えば、視覚データベース52にデータ投入するための技術の1つとして、ランドマーク選択モジュール44において実施され得る。方法450は、コンピュータ可読媒体に記憶されており1つまたは複数のプロセッサによって実行される命令のセットとして実施され得る。
図7を参照すれば、ランドマークの写真のセットがブロック452において識別される。例えば、多くの人々が、ワシントンD.Cにあるナショナル・ギャラリー・オブ・アートの建物のそれらの写真をシェアし得るし、多くは、「ナショナル・ギャラリー・オブ・アート」というタイトルで(「タグ」)それらの写真にラベル付けする。さらに、これらのユーザの多くは、それらの写真が撮影されたロケーションについてのインディケーションをシェアする。
ブロック454において、ランドマークの複数の写真が撮影されたロケーションが決定される。例えば、ナショナル・ギャラリー・オブ・アートの建物の写真は、人々が写真を撮影する傾向があるあるロケーションでクラスタリングされ得る。より詳細な例として、1,000枚の例示的な写真のうちの40%が第1の交差点で撮影され得るし、別の30%が第2の交差点で撮影され得るし、残りの写真が複数の他のロケーションの周囲に分散され得る。それゆえ、ブロック454において、第1および第2の交差点が、このランドマークが見えるロケーションとして選択され得る。
ブロック456において、第1および第2の交差点からナショナル・ギャラリー・オブ・アートの建物へのそれぞれの方向がマップデータを使用して決定される。ブロック458において、データベース(図1のデータベース52など)が、第1の交差点において、ナショナル・ギャラリー・オブ・アートの建物が、第1の交差点からある方向に位置している、候補ナビゲーションランドマークであることを示すように、更新される。同様に、データベースは、この建物がまた、第2の交差点における、対応する方向に位置している、候補ナビゲーションランドマークであることを示すように更新され得る。図1のナビゲーションシステム18は、候補ナビゲーションランドマークを選択する際にこれらの保存されているインディケーションを以降に使用し得る。
より一般的には、ナビゲーションシステム18はまた、データベース52にデータ投入するための様々な技術を使用する。そのような技術の例として、あるロケーションにおいて行われる一時的な展示会、ストリートフェア、音楽祭などに関する主催者からインディケーションを受信すること、または、クラウドソーシング技術に従ってユーザから同様のインディケーションを受信して一時的なイベントのインディケーションを取得することを含む。聴覚ランドマークについては、ユーザは、ナビゲーションシステム18が「地下鉄の駅から離れて音楽の聞こえる方に歩いてください」といったタイプの初期ナビゲーション指示を生成することができるように、あるノイズレベルを上回る音源を報告し得る。
追加の考察
本明細書に記載の例示的な方法の様々な動作が、関連動作を行うように(例えば、ソフトウェアによって)一時的に構成または恒久的に構成される1つまたは複数のプロセッサによって、少なくとも部分的に、行われ得る。一時的または恒久的に構成されようと、そのようなプロセッサは、1つまたは複数の動作または機能を行うように動作するプロセッサ実装モジュールを構成し得る。本明細書で言及しているモジュールは、いくつかの例示的な実施形態においては、プロセッサ実装モジュールを含み得る。
同様に、本明細書に記載の方法またはルーチンは、少なくとも部分的にプロセッサ実装され得る。例えば、方法の動作の少なくとも一部は、1つまたは複数のプロセッサまたはプロセッサ実装ハードウェアモジュールによって行われ得る。動作のうちのいくつかのパフォーマンスは、単一のマシン内に存在するだけでなく、多数のマシンにわたってデプロイされる、1つまたは複数のプロセッサに分散され得る。いくつかの例示的な実施形態においては、プロセッサまたは複数のプロセッサは、(例えば、ホーム環境、オフィス環境内に、またはサーバファームとして)単一のロケーションに位置し得る一方で、他の実施形態においては、プロセッサは、多数のロケーションにわたって分散され得る。
1つまたは複数のプロセッサはまた、クラウドコンピュータ環境において、または、サーズ(SaaS)として、関連動作のパフォーマンスをサポートするように動作し得る。例えば、動作の少なくとも一部は、(プロセッサを含むマシンの例として)一群のコンピュータによって行われ得るし、これらの動作は、ネットワーク(例えば、インターネット)を介して、および、1つまたは複数の適切なインターフェース(例えば、アプリケーションプログラムインターフェース(API))を介して、アクセス可能である。
本開示を読むことにより、当業者は、初期ナビゲーション指示を生成するためのシステムについてのさらなる追加の代替の構造的および機能的な設計を理解することになるであろう。そのため、特定の実施形態および応用を図示および説明してきたが、開示した実施形態が本明細書に開示の精密な構成およびコンポーネントに限定されないことは理解されよう。当業者にとって明らかとなるであろう、様々な修正、変更、および変形は、添付の特許請求の範囲において定義されている精神および範囲を逸脱しない限り、本明細書に開示の方法および装置についての配置、動作、詳細においてなされ得る。
10 環境
12 ポータブルシステム
14 サーバシステム
16 通信ネットワーク
18 ナビゲーションシステム
22 処理モジュール
24 メモリ
26 地理アプリケーション
28 ユーザインターフェース
30 ネットワークインターフェース
40 モジュール
40 ルート決定エンジン
42 ナビゲーション指示ジェネレータ
44 ランドマーク選択モジュール
50 マップデータベース
52 視覚ランドマークデータベース
54 ユーザプロファイルデータベース
70 画像
200 スクリーンショット
201 ポータブルデバイス
202 指示ウィンドウ
204 デジタルマップ
210 情報スクリーン
302 ロケーション
320 山
350 テキスト

Claims (18)

  1. 初期ナビゲーションガイダンスを提供するための方法であって、前記方法は、
    ポータブルデバイスが現在のロケーションで静止していると決定するステップと、
    1つまたは複数のプロセッサによって、前記ポータブルデバイスの前記現在のロケーションから目的地までのルートを決定するステップであって、前記ルートは、一連の有向セクションを含む、ステップと、
    前記ポータブルデバイスが前記現在のロケーションで静止していると決定したことに応じて、
    前記1つまたは複数のプロセッサによって、前記目的地まで前記ルートに沿って前記ポータブルデバイスのユーザをガイドするナビゲーション指示を生成するステップであって、
    前記ポータブルデバイスの前記現在のロケーションの360度の範囲内で知覚可能な候補ナビゲーションランドマークを識別するステップと、
    前記候補ナビゲーションランドマークから、前記一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークを選択するステップと、
    前記ナビゲーション指示のうちの初期ナビゲーション指示を生成するステップであって、前記初期ナビゲーション指示は、前記選択されたナビゲーションランドマークに言及する、ステップと
    を含む、ステップと、
    前記初期ナビゲーション指示が前記ポータブルデバイスのユーザインターフェースを介して提供されるようにするステップと
    を含む、方法。
  2. 前記選択されたナビゲーションランドマークは、第1のナビゲーションランドマークであり、前記ナビゲーション指示を生成するステップは、
    前記候補ナビゲーションランドマークから、前記一連の有向セクションのうちの前記最初の有向セクションの前記方向に実質的に沿った方向に位置している第2のナビゲーションランドマークを選択するステップと、
    前記第2のナビゲーションランドマークにさらに言及する前記初期ナビゲーション指示を生成するステップと
    をさらに含む、請求項1に記載の方法。
  3. 前記初期ナビゲーション指示を生成するステップは、「<第1のナビゲーションランドマーク>から<第2のナビゲーションランドマーク>まで<方向>に移動」というフォーマットを使用するステップを含む、請求項2に記載の方法。
  4. 前記初期ナビゲーション指示を生成するステップは、
    前記第1のナビゲーションランドマークおよび前記第2のナビゲーションランドマークの各々について、第1のアイコンおよび第2のアイコンをそれぞれ選択するステップであって、各アイコンがランドマークのタイプを示す、ステップと、
    前記第1のアイコンおよび前記第2のアイコンを用いて前記初期ナビゲーション指示をアノーテーションするステップと
    をさらに含む、請求項2に記載の方法。
  5. 前記候補ナビゲーションランドマークを識別するステップは、
    (i)写真に撮影されたランドマークおよび(ii)前記写真が撮られたロケーションを用いてアノーテーションされた前記写真を記憶する電子データベースにアクセスするステップと、
    前記電子データベースを使用して、同一のランドマークを描写する前記ポータブルデバイスの前記現在のロケーションから撮影された写真のセットを識別するステップと、
    前記候補ナビゲーションランドマークの1つのとして写真の前記セット内に描写される前記ランドマークを選択するステップとを含む、請求項1に記載の方法。
  6. 前記候補ナビゲーションランドマークを識別するステップは、雑音レベルを上回るオーディオ信号の源に対応する聴覚ナビゲーションランドマークを識別するステップを含む、請求項1に記載の方法。
  7. 前記候補ナビゲーションランドマークを識別するステップは、一時的な地理位置情報イベントに対応する一過性のナビゲーションランドマークを識別するステップを含む、請求項1に記載の方法。
  8. 前記候補ナビゲーションランドマークを識別するステップは、候補ナビゲーションランドマークとして地勢を識別するステップを含む、請求項1に記載の方法。
  9. ポータブルコンピューティングデバイスであって、
    前記ポータブルコンピューティングデバイスの現在の地理的ロケーションを決定する、位置決定モジュールと、
    ユーザインターフェースモジュールと、
    前記位置決定モジュールおよび前記ユーザインターフェースモジュールに接続された、プロセッシングハードウェアと、
    前記プロセッシングハードウェアによって読み出し可能な非一時的メモリであって、前記プロセッシングハードウェアによって実行されると、前記ポータブルコンピューティングデバイスに、
    一連の有向セクションを含むルートに沿って前記ポータブルコンピューティングデバイスの前記現在の地理的ロケーションから目的地までユーザをガイドするためのナビゲーション指示を取得することであって、前記ナビゲーション指示は、前記一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークに言及する初期ナビゲーション指示を含む、ことと、
    前記ポータブルコンピューティングデバイスが前記現在のロケーションで静止していると決定したことに応じて、前記ユーザインターフェースモジュールを介して前記初期ナビゲーション指示を提供することと
    を行わせる命令を記憶する、非一時的メモリと
    を含む、ポータブルコンピューティングデバイス。
  10. 記ナビゲーションランドマークは、第1のランドマークであり、前記初期ナビゲーション指示は、前記一連の有向セクションのうちの前記最初の有向セクションの前記方向に実質的に沿った方向に位置している第2のナビゲーションランドマークにさらに言及する、請求項9に記載のポータブルコンピューティングデバイス。
  11. 前記ユーザインターフェースモジュールを介して前記初期ナビゲーション指示を提供するために、前記命令は、前記ポータブルコンピューティングデバイスに、前記ナビゲーションランドマークのタイプに対応する選択可能なアイコンを表示することをさらに行わせる、請求項9に記載のポータブルコンピューティングデバイス。
  12. 前記命令は、前記ポータブルコンピューティングデバイスに、前記アイコンが前記ユーザインターフェースモジュールを介して選択されたことに応じて、前記ナビゲーションランドマークに関連している追加の情報を表示することをさらに行わせる、請求項11に記載のポータブルコンピューティングデバイス。
  13. 1つまたは複数のプロセッサによって実行されると、
    目的地までポータブルコンピューティングデバイスのユーザをガイドするナビゲーション指示のための要求を受信することと、
    前記要求に応答して、前記ポータブルコンピューティングデバイスの現在のロケーションから前記目的地までのルートを取得することであって、前記ルートは、一連の有向セクションを含む、ことと、
    前記目的地まで前記ルートに沿って前記ポータブルコンピューティングデバイスのユーザをガイドするナビゲーション指示を取得することであって、前記ナビゲーション指示は、前記一連の有向セクションのうちの最初の有向セクションの方向と実質的に反対の方向に位置しているナビゲーションランドマークに言及する初期ナビゲーション指示を含む、ことと、
    前記ポータブルコンピューティングデバイスが前記現在のロケーションで静止していると決定したことに応じて、前記ポータブルコンピューティングデバイスのユーザインターフェースを介した出力のために前記初期ナビゲーション指示を提供することと
    を行うように構成される命令を記憶する、コンピュータ可読記憶媒体
  14. 前記命令は、アプリケーションプログラミングインターフェース(API)を実施し、前記ポータブルコンピューティングデバイス上で動作するサードパーティソフトウェアアプリケーションは、前記APIを呼び出して、(i)前記ポータブルコンピューティングデバイスの前記現在のロケーションおよび前記目的地を特定し、(ii)前記初期ナビゲーション指示を取得して前記ポータブルコンピューティングデバイスの前記ユーザインターフェースを介して前記初期ナビゲーション指示を表示する、請求項13に記載のコンピュータ可読記憶媒体
  15. 前記命令は、1つまたは複数のネットワークサーバ上で動作するタスクをさらに実施し、前記タスクは、データベースにクエリを行い、前記ポータブルコンピューティングデバイスの前記現在のロケーションの360度の範囲内で知覚可能な候補ナビゲーションランドマークを識別するように構成され、前記データベースは、前記候補ナビゲーションランドマークの各々について、(i)可観測性のメトリック、(ii)顕著性のメトリック、および(iii)一意性のメトリックのうちの1つまたは複数を記憶する、請求項14に記載のコンピュータ可読記憶媒体
  16. 記ナビゲーションランドマークは、第1のナビゲーションランドマークであり、前記初期ナビゲーション指示は、前記一連の有向セクションのうちの前記最初の有向セクションの前記方向に実質的に沿った方向に位置している第2のナビゲーションランドマークにさらに言及する、請求項13に記載のコンピュータ可読記憶媒体
  17. 前記初期ナビゲーション指示は、前記第1のナビゲーションランドマークのタイプに対応する第1のアイコンおよび前記第2のナビゲーションランドマークのタイプに対応する第2のアイコンを用いてアノーテーションされる、請求項16に記載のコンピュータ可読記憶媒体
  18. 前記ナビゲーションランドマークは、(i)雑音レベルを上回るオーディオ信号の源に対応する聴覚ナビゲーションランドマークまたは(ii)一時的な地理位置情報イベントに対応する一過性のナビゲーションランドマークのうちの1つである、請求項13に記載のコンピュータ可読記憶媒体
JP2018534579A 2016-10-26 2017-10-12 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法 Active JP6495553B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/335,100 2016-10-26
US15/335,100 US10168173B2 (en) 2016-10-26 2016-10-26 Systems and methods for using visual landmarks in initial navigation
PCT/US2017/056254 WO2018080798A1 (en) 2016-10-26 2017-10-12 Systems and methods for using visual landmarks in initial navigation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019039718A Division JP6833886B2 (ja) 2016-10-26 2019-03-05 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2019504316A JP2019504316A (ja) 2019-02-14
JP6495553B2 true JP6495553B2 (ja) 2019-04-03

Family

ID=60162316

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2018534579A Active JP6495553B2 (ja) 2016-10-26 2017-10-12 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
JP2019039718A Active JP6833886B2 (ja) 2016-10-26 2019-03-05 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
JP2021007926A Active JP7127165B2 (ja) 2016-10-26 2021-01-21 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2019039718A Active JP6833886B2 (ja) 2016-10-26 2019-03-05 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
JP2021007926A Active JP7127165B2 (ja) 2016-10-26 2021-01-21 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法

Country Status (6)

Country Link
US (4) US10168173B2 (ja)
EP (3) EP3734228A1 (ja)
JP (3) JP6495553B2 (ja)
CN (2) CN109891195B (ja)
GB (1) GB2556696B (ja)
WO (1) WO2018080798A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042862A (ja) * 2016-09-15 2018-03-22 株式会社三洋物産 遊技機
JP2018042860A (ja) * 2016-09-15 2018-03-22 株式会社三洋物産 遊技機
US10168173B2 (en) * 2016-10-26 2019-01-01 Google Llc Systems and methods for using visual landmarks in initial navigation
JP7108053B2 (ja) 2018-09-06 2022-07-27 グーグル エルエルシー 馴染みのあるロケーションを中間目的地とするナビゲーション指示
JP7209746B2 (ja) 2018-09-06 2023-01-20 グーグル エルエルシー マッピングアプリケーションにおいてパーソナル化ランドマークを表示すること
US12072928B2 (en) * 2018-10-22 2024-08-27 Google Llc Finding locally prominent semantic features for navigation and geocoding
KR102096078B1 (ko) * 2018-12-05 2020-04-02 네이버랩스 주식회사 이동 경로 안내 제공 방법, 장치, 시스템 및 컴퓨터 프로그램
JP6995078B2 (ja) * 2019-03-29 2022-01-14 本田技研工業株式会社 道路管理装置
JP6995080B2 (ja) * 2019-03-29 2022-01-14 本田技研工業株式会社 情報取得装置
JP6995077B2 (ja) * 2019-03-29 2022-01-14 本田技研工業株式会社 道路管理装置
CN110081902A (zh) * 2019-05-14 2019-08-02 腾讯科技(深圳)有限公司 导航中的方向指示方法、装置及终端
US12055936B2 (en) * 2019-06-17 2024-08-06 Toyota Research Institute, Inc. Autonomous rideshare rebalancing
US11334174B2 (en) 2019-07-18 2022-05-17 Eyal Shlomot Universal pointing and interacting device
WO2021076099A1 (en) * 2019-10-15 2021-04-22 Google Llc Weather and road surface type-based navigation directions
CN113155117A (zh) * 2020-01-23 2021-07-23 阿里巴巴集团控股有限公司 导航系统、方法和装置
CN113532456A (zh) * 2020-04-21 2021-10-22 百度在线网络技术(北京)有限公司 用于生成导航路线的方法及装置
JP6828934B1 (ja) * 2020-08-18 2021-02-10 株式会社ビーブリッジ ナビゲーション装置、ナビゲーションシステム、ナビゲーション方法、ナビゲーションプログラム
CN112729310A (zh) * 2020-12-25 2021-04-30 张欣 室内基于地标物的导航方法和系统
US20220316906A1 (en) * 2021-04-03 2022-10-06 Naver Corporation Apparatus and Method for Generating Navigational Plans
CN113343128A (zh) 2021-05-31 2021-09-03 阿波罗智联(北京)科技有限公司 用于推送信息的方法、装置、设备以及存储介质
JP2023019344A (ja) * 2021-07-29 2023-02-09 株式会社アイシン 情報処理システム
US20230213351A1 (en) * 2021-12-30 2023-07-06 Omnieyes Co., Ltd. Taiwan Branch System and method for navigation
JP7438497B2 (ja) * 2022-03-23 2024-02-27 本田技研工業株式会社 情報処理システム、及び、情報処理方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09304090A (ja) 1996-05-21 1997-11-28 Canon Inc 地図情報処理装置
JP3587691B2 (ja) * 1998-07-30 2004-11-10 日本電信電話株式会社 ナビゲーション方法および装置およびこの方法を処理するプログラムを記録した記録媒体
JP2002260160A (ja) 2001-02-28 2002-09-13 Toshiba Corp 道案内方法及び装置
US7383123B2 (en) 2003-06-03 2008-06-03 Samsung Electronics Co., Ltd. System and method of displaying position information including an image in a navigation system
JP2005099418A (ja) 2003-09-25 2005-04-14 Casio Comput Co Ltd オブジェクト表示装置およびプログラム
US7831387B2 (en) 2004-03-23 2010-11-09 Google Inc. Visually-oriented driving directions in digital mapping system
US7158878B2 (en) 2004-03-23 2007-01-02 Google Inc. Digital mapping system
US7480567B2 (en) * 2004-09-24 2009-01-20 Nokia Corporation Displaying a map having a close known location
JP4675811B2 (ja) 2006-03-29 2011-04-27 株式会社東芝 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム
JP4737549B2 (ja) * 2006-08-22 2011-08-03 ソニー株式会社 位置検出装置、位置検出方法、位置検出プログラム及びナビゲーション装置
EP1965172B1 (en) 2007-03-02 2010-11-17 Alpine Electronics, Inc. Information display system and method for displaying information associated with map related data
US8478515B1 (en) 2007-05-23 2013-07-02 Google Inc. Collaborative driving directions
US8224395B2 (en) 2009-04-24 2012-07-17 Sony Mobile Communications Ab Auditory spacing of sound sources based on geographic locations of the sound sources or user placement
US20110098910A1 (en) 2009-10-22 2011-04-28 Nokia Corporation Method and apparatus for intelligent guidance using markers
JP2011179883A (ja) * 2010-02-26 2011-09-15 Fujitsu Ten Ltd ナビゲーションシステム、車載機、プログラム、及び、ナビゲーション方法
US8417448B1 (en) * 2010-04-14 2013-04-09 Jason Adam Denise Electronic direction technology
US8762041B2 (en) * 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US20150112593A1 (en) * 2013-10-23 2015-04-23 Apple Inc. Humanized Navigation Instructions for Mapping Applications
CN103968846B (zh) * 2014-03-31 2017-02-08 小米科技有限责任公司 定位导航方法和装置
JP6258981B2 (ja) 2014-07-29 2018-01-10 ヤマハ株式会社 プログラムおよび情報処理方法
JP2016099270A (ja) * 2014-11-25 2016-05-30 セイコーエプソン株式会社 位置算出方法、位置算出装置及び位置算出プログラム
WO2017024308A1 (en) 2015-08-06 2017-02-09 Walc Inc. Method and system for real-time sensory-based navigation
US9464914B1 (en) * 2015-09-01 2016-10-11 International Business Machines Corporation Landmark navigation
CN105890608B (zh) 2016-03-31 2020-08-21 百度在线网络技术(北京)有限公司 导航参考点确定方法和装置、导航方法和装置
US10168173B2 (en) * 2016-10-26 2019-01-01 Google Llc Systems and methods for using visual landmarks in initial navigation

Also Published As

Publication number Publication date
EP3734228A1 (en) 2020-11-04
US11604077B2 (en) 2023-03-14
US10739158B2 (en) 2020-08-11
EP4194814A1 (en) 2023-06-14
US20180112993A1 (en) 2018-04-26
WO2018080798A1 (en) 2018-05-03
EP3405751A1 (en) 2018-11-28
CN109891195A (zh) 2019-06-14
JP2019109252A (ja) 2019-07-04
JP7127165B2 (ja) 2022-08-29
GB2556696B (en) 2020-01-01
US20200370914A1 (en) 2020-11-26
US20230213350A1 (en) 2023-07-06
CN117029868A (zh) 2023-11-10
US20190137295A1 (en) 2019-05-09
US10168173B2 (en) 2019-01-01
EP3405751B1 (en) 2020-06-24
JP2019504316A (ja) 2019-02-14
US12050109B2 (en) 2024-07-30
GB201717605D0 (en) 2017-12-13
CN109891195B (zh) 2023-09-08
JP6833886B2 (ja) 2021-02-24
GB2556696A (en) 2018-06-06
JP2021063839A (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7127165B2 (ja) 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
US10126141B2 (en) Systems and methods for using real-time imagery in navigation
US11501104B2 (en) Method, apparatus, and system for providing image labeling for cross view alignment
US8983773B2 (en) Pictorial navigation
JP2017523392A (ja) 進路変更方向プレビューの生成
JP7485824B2 (ja) ランドマークを使用してユーザの現在の場所または方位を検証するための方法、コンピュータ機器、およびコンピュータ可読メモリ
JP2014185925A (ja) 案内サーバ、案内方法および案内プログラム
KR20230129975A (ko) 드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들
KR102719426B1 (ko) 인터렉티브 랜드마크 기반 위치 파악

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180806

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190306

R150 Certificate of patent or registration of utility model

Ref document number: 6495553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250