JP6450779B2 - ストリートビュー目的地への案内を提供する方法およびデバイス - Google Patents

ストリートビュー目的地への案内を提供する方法およびデバイス Download PDF

Info

Publication number
JP6450779B2
JP6450779B2 JP2016570310A JP2016570310A JP6450779B2 JP 6450779 B2 JP6450779 B2 JP 6450779B2 JP 2016570310 A JP2016570310 A JP 2016570310A JP 2016570310 A JP2016570310 A JP 2016570310A JP 6450779 B2 JP6450779 B2 JP 6450779B2
Authority
JP
Japan
Prior art keywords
annotation information
information
street view
target area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016570310A
Other languages
English (en)
Other versions
JP2017524905A (ja
Inventor
テン マー,
テン マー,
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2017524905A publication Critical patent/JP2017524905A/ja
Application granted granted Critical
Publication of JP6450779B2 publication Critical patent/JP6450779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1654Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with electromagnetic compass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3423Multimodal routing, i.e. combining two or more modes of transportation, where the modes can be any of, e.g. driving, walking, cycling, public transport
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、インターネット技術の分野に関し、特に、ストリートビュー目的地への案内を提供する方法およびデバイスに関する。
既存の技術では、ストリートビュー目的地への案内は、主に、ユーザ検索を用いて提供され、すなわち、目的地の検索およびそこへの案内は、ユーザによって打ち込まれたキーワードに従って提供されるか、または話題をプッシュ通知することによって提供される、すなわち、デザイナーズホテルおよび人気の観光スポット等の種々のストリートビューの話題が、ユーザにアクティブにプッシュ通知され、案内は、ユーザの選択に従って提供される。
本開示の実装では、本発明者は、既存の技術が少なくとも以下の問題を有することを見出している。
ユーザ検索の案内様式では、案内は、ユーザ入力に基づいて提供される必要があり、それは、使用のために不便である。話題プッシュ通知の案内様式では、プッシュ通知される話題は、ユーザが関心を持っていない話題、またはユーザによって必要とされない話題であり得、それは、望ましくない実際の効果を有することもあり、良好に標的化されない。
本発明の実施形態は、標的様式でストリートビュー目的地への案内を効率的かつ便利に実装することができる、ストリートビュー目的地への案内を提供する方法およびデバイスを開示する。
本発明の実施形態の第1の側面は、ストリートビュー目的地への案内を提供する方法であって、
デバイスが位置するシナリオの現実のシナリオ画像を取得することと、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定し、現実のシナリオ画像内に、表示される必要がある注釈情報を表示することと、
選択される注釈情報を決定し、選択された注釈情報に対応するストリートビューの詳細情報を表示することと
を含む、方法を開示する。
本発明の実施形態の第2の側面は、ストリートビュー目的地への案内を提供するためのデバイスであって、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュールと、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュールと、
選択される注釈情報を決定するように構成されている第2の決定モジュールと、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュールと
を含む、デバイスを開示する。
本発明はさらに、例えば、以下を提供する。
(項目1)
ストリートビュー目的地への案内を提供する方法であって、
デバイスが位置するシナリオの現実のシナリオ画像を取得することと、
前記デバイスの現在の場所およびデバイスが向いている方向を決定することと、
前記デバイスの前記現在の場所および前記デバイスが向いている方向に従って、表示される必要がある注釈情報を決定することと、
前記現実のシナリオ画像内に前記表示される必要がある注釈情報を表示することと、
選択される注釈情報を決定することと、
前記選択された注釈情報に対応するストリートビューの詳細情報を表示することと
を含む、方法。
(項目2)
前記デバイスが位置するシナリオの現実のシナリオ画像を取得することは、前記デバイスのカメラを使用して、前記デバイスが位置するシナリオの前記現実のシナリオ画像を取得することを含む、項目1に記載の方法。
(項目3)
前記デバイスの前記現在の場所は、全地球測位システム(GPS)測位装置を使用することによって決定され、前記デバイスの前記デバイスが向いている方向は、センサを使用することによって決定され、前記センサは、加速度計、ジャイロスコープ、および電子コンパスのうちの1つ以上のものを備えている、項目1に記載の方法。
(項目4)
前記デバイスの前記現在の場所および前記デバイスが向いている方向に従って、表示される必要がある注釈情報を決定することは、
前記デバイスの前記現在の場所と前記デバイスが向いている方向とに対応する注釈情報を取得することと、
注釈情報をフィルタ処理するためのポリシーに従って、前記取得された注釈情報にフィルタ処理を行うことと、
前記フィルタ処理した後に得られた注釈情報が前記表示される必要がある注釈情報であることを決定することと
を含む、項目1に記載の方法。
(項目5)
前記注釈情報をフィルタ処理するためのポリシーに従って、前記取得された注釈情報にフィルタ処理を行うことは、
前記注釈情報に対応する現実のシナリオのタイプに従って、前記取得された注釈情報にフィルタ処理を行うこと、および/または、
前記注釈情報に対応する現実のシナリオから前記デバイスの前記現在の場所までの距離に従って、前記取得された注釈情報にフィルタ処理を行うこと
を含む、項目4に記載の方法。
(項目6)
前記現実のシナリオ画像内に前記表示される必要がある注釈情報を表示することは、前記表示される必要がある注釈情報と前記現実のシナリオ画像とを前記デバイスのディスプレイ画面上にオーバーレイ様式で表示することを含む、項目1に記載の方法。
(項目7)
標的エリアが前記デバイスの前記ディスプレイ画面上に設定されている場合、前記方法は、前記標的エリア内の注釈情報と前記注釈情報に対応する現実のシナリオとを強調様式で表示することをさらに含む、項目6に記載の方法。
(項目8)
前記選択される注釈情報を決定することは、ユーザが注釈情報をクリックしたことが検出されると、前記ユーザがクリックした前記注釈情報を前記選択される注釈情報として決定することを含む、項目1に記載の方法。
(項目9)
前記選択される注釈情報を決定することは、標的エリア内の注釈情報が前記標的エリア内に留まる時間が閾値を超えたことが検出されると、前記注釈情報が前記選択される注釈情報であることを決定することを含む、項目1に記載の方法。
(項目10)
前記選択される注釈情報を決定することは、ユーザが前記デバイスを揺り動かしたことが検出されると、標的エリア内の注釈情報が前記選択される注釈情報であることを決定することを含む、項目1に記載の方法。
(項目11)
前記選択される注釈情報を決定することは、視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値を超えたことが検出されると、前記注釈情報が前記選択される注釈情報であることを決定することを含む、項目1に記載の方法。
(項目12)
前記選択される注釈情報を決定することは、音声を使用することによってユーザによって入力された注釈情報入力が検出されると、前記注釈情報が前記選択される注釈情報であることを決定することを含む、項目1に記載の方法。
(項目13)
前記方法は、2つ以上の注釈情報が標的エリア内に現れる場合、事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することをさらに含む、項目1に記載の方法。
(項目14)
前記事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することは、前記標的エリアの中心点に最も近い注釈情報が前記標的エリア内の前記注釈情報であることを決定することを含む、項目13に記載の方法。
(項目15)
前記事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することは、前記標的エリア内に現れる注釈情報の重みに従って、最も高い重みを伴う注釈情報を選択し、前記注釈情報が前記標的エリア内の前記注釈情報であることを決定することを含む、項目13に記載の方法。
(項目16)
前記事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することは、1つの注釈情報をランダムに選択し、前記1つの注釈情報が前記標的エリア内の前記注釈情報であることを決定することを含む、項目13に記載の方法。
(項目17)
前記選択された注釈情報に対応するストリートビューの詳細情報を表示することは、前記選択された注釈情報に対応する前記ストリートビューの詳細ページを表示することを含み、前記詳細ページは、ストリートビューサムネイル、住所詳細、連絡先番号、および距離を備えている、項目1に記載の方法。
(項目18)
前記選択された注釈情報に対応するストリートビューの詳細情報を表示した後、ユーザが前記詳細ページ上の前記ストリートビューサムネイルをクリックしたことが検出されると、対応するストリートビューパノラマを表示することをさらに含む、項目17に記載の方法。
(項目19)
前記選択された注釈情報に対応するストリートビューの詳細情報を表示した後、前記ストリートビュー目的地までの経路を計画することに対する要求が受信されると、前記現在の場所から前記ストリートビュー目的地までの最適ルートを決定することをさらに含み、前記最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート、および非公共輸送手段のための最適ルートのうちの1つ以上のものを備えている、項目17に記載の方法。
(項目20)
前記注釈情報は、関心地点(POI)情報、ストリートビューサムネイル、近くの活動情報、緊急情報、輸送機関情報、および距離のうちの1つ以上のものを備えている、項目1に記載の方法。
本発明の実施形態の技術的解決策をより明確に説明するために、以下は、実施形態または既存の技術を説明するために要求される付随の図面を簡単に紹介する。明らかに、以下の説明における付随の図面は、本発明のいくつかの実施形態のみを示し、当業者は、依然として、創造的努力を伴わずに、これらの付随の図面から他の図面を導出し得る。
図1は、本発明のある実施形態による、ストリートビュー目的地への案内を提供する方法の概略フロー図である。
図2は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別の方法の概略フロー図である。
図3Aは、本発明のある実施形態による、携帯電話のカメラを使用することによって現実のシナリオ画像を取得する概略図である。
図3Bは、本発明のある実施形態による、注釈情報をフィルタ処理するためのポリシーを設定する概略図である。
図3Cは、本発明のある実施形態による、拡張現実技術を使用することによって、表示される必要がある注釈情報と現実のシナリオ画像とを携帯電話のディスプレイ画面上にオーバーレイ様式で表示する概略図である。
図3Dは、選択された注釈情報に対応するストリートビューの詳細ページを表示する概略図である。
図4は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別の方法の概略フロー図である。
図5は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するためのデバイスの概略構造図である。
図6は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である。
図7は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である。
図8は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である。
図9は、本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である。
当業者が、本発明の実施形態において提供される技術的解決策をより理解することを可能にするために、以下は、本発明の実施形態において提供される技術的解決策に伴われるいくつかの技術的用語を簡単に説明する。
拡張現実(AR):コンピュータによって生成される仮想オブジェクト、シナリオ、またはシステムプロンプト情報が、現実のシナリオ上にオーバーレイされることにより、現実を拡張し、現実の世界におけるユーザの知覚を向上させる。ユーザと現実の世界との間の接続は、切断され、仮想オブジェクトが、ユーザの眼の前に表示される。したがって、情報が、より便利に取得されることができ、オブジェクトとの相互作用は、より自然となる。
空間的測位およびジェスチャ決定技術:拡張現実内にオーバーレイされた仮想情報が、空間的測位においてユーザの移動またはジェスチャに関連付けられることが確実にされる。ユーザが、方向転換または移動すると、視野が変化する。故に、コンピュータによって生成される拡張情報は、変化し、情報は、ディスプレイ画面の正しい場所にリアルタイムで表示される。
以下は、本発明の実施形態における付随の図面を参照して、本発明の実施形態における技術的解決策を明確かつ完全に説明する。明らかに、説明される実施形態は、本発明の実施形態の全てではなく、単に、その一部である。創造的努力を伴わずに、本発明の実施形態に基づいて当業者によって得られた他の実施形態は全て、本開示の保護範囲内にあるものとする。
本発明のある実施形態による、ストリートビュー目的地への案内を提供する方法の概略フロー図である図1を参照する。本方法は、以下のステップを含み得る。
S101:デバイスが位置するシナリオの現実のシナリオ画像を取得するステップ。
本発明のこの実施形態では、デバイスが位置するシナリオの現実の画像は、デバイスのカメラを使用することによって取得され得、現実の画像は、デバイスのディスプレイ画面上に表示される。
S102:デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するステップ。
本発明のこの実施形態では、デバイスの現在の場所は、全地球測位システム(GPS)測位装置を使用することによって決定され得、デバイスのデバイスが向いている方向は、センサを使用することによって決定され得、センサは、限定ではないが、加速度計、ジャイロスコープ、電子コンパス等を含み得る。
具体的には、デバイスの現在の場所およびデバイスが向いている方向が決定された後、デバイスの現在の場所およびデバイスが向いている方向に対応する注釈情報がさらに取得され得、取得された注釈情報のフィルタ処理が、注釈情報をフィルタ処理するための事前設定ポリシーに従って行われ、フィルタ処理した後に得られた注釈情報が表示される必要がある注釈情報であることが決定される。
デバイスの現在の場所およびデバイスが向いている方向に対応する注釈情報が取得される場合、その注釈情報データベースが、対応する注釈情報を取得するように、デバイスの現在の場所およびデバイスが向いている方向に従って検索され得る。注釈情報データベース内の注釈情報は、事前に手動で収集され得る。例えば、デバイスの現在の場所が、経度xxおよび緯度xxであり、デバイスの現在の対面方向が、真北である場合、デバイスの現在の場所およびデバイスが向いている方向に対応する注釈情報は、経度xxおよび緯度xxの場所の真北のショッピングモール、ホテル、映画館等であり得る。
デバイスの現在の場所およびデバイスが向いている方向に対応する注釈情報が取得された後、取得された注釈情報のフィルタ処理が、注釈情報をフィルタ処理するための事前設定ポリシーに従って行われ得る。注釈情報をフィルタ処理するためのポリシーは、事前にユーザによって設定され得る。例えば、フィルタ処理は、注釈情報に対応する現実のシナリオのタイプ(例えば、生活サービス、観光スポット、およびショッピング)に従って行われ得る。例えば、生活サービスタイプ(ホテル、美味しい食事、運動、映画館、スーパーマーケット/コンビニ等であり得る)のみ表示されるか、またはホテル、美味しい食事、運動等のみのうちの1以上のものが表示されるように設定される。フィルタ処理はまた、注釈情報に対応する現実のシナリオからデバイスの現在の場所までの距離、例えば、5km、1km、500m等以内に従って行われ得る。もちろん、フィルタ処理はまた、他のフィルタ処理ポリシーに従って行われ得、例えば、フィルタ処理は、タイプおよび距離の両方に従って行われる。
S103:現実のシナリオ画像内に、表示される必要がある注釈情報を表示するステップ。
本発明のこの実施形態では、デバイスが位置するシナリオの現実のシナリオ画像が取得され、表示される必要がある注釈情報が決定された後、表示される必要がある注釈情報が、現実のシナリオ画像内に表示され得る。
具体的には、デバイスが位置するシナリオの現実のシナリオ画像が取得され、表示される必要がある注釈情報が決定された後、表示される必要がある注釈情報および現実のシナリオ画像は、デバイスのディスプレイ画面上にオーバーレイ様式で表示され得、それは、具体的には、拡張現実技術を使用することによって実装され得る。
好ましくは、本発明のこの実施形態では、標的エリアが、デバイスのディスプレイ画面上に設定され得る。表示される必要がある注釈情報および現実のシナリオ画像がデバイスのディスプレイ画面上にオーバーレイ様式で表示される場合、標的エリア内の注釈情報と注釈情報に対応する現実のシナリオとは、強調様式で表示され得る(例えば、ハイライトされるか、または比率の拡大を行うことによって表示される)。
ユーザがデバイスを移動させると、ディスプレイ画面上に表示されるデバイスの現実のシナリオ画像は、変化する。故に、注釈情報が表示される画面上の表示場所も、デバイスが移動するにつれて変化し、それは、具体的には、空間的測位およびジェスチャ決定技術を使用することによって実装され得る。
本発明のこの実施形態では、1つのみの注釈情報が標的エリア内に現れると、その注釈情報が標的エリア内の注釈情報であることが決定され、注釈情報と注釈情報に対応する現実のシナリオとは、強調様式で表示されることに留意されたい。複数の注釈情報が標的エリア内に現れると、1つの注釈情報が、事前設定ルールに従って選択され、その注釈情報が標的エリア内の注釈情報であることが決定され、その注釈情報とその注釈情報に対応する現実のシナリオとは、強調様式で表示される。例えば、標的エリア内に現れる注釈情報から標的エリアの中心までの距離が、別個にカウントされ、標的エリアの中心点に最も近い注釈情報が標的エリア内の注釈情報であることが決定され得る。最も高い重みを伴う注釈情報がまた、標的エリア内に現れる注釈情報の重み(各注釈情報の重みは、事前設定され得る)に従って選択され、その注釈情報が標的エリア内の注釈情報であることが決定され得る。標的エリア内に現れる注釈情報のうちの1つの注釈情報がまた、ランダムに選択され、その注釈情報が標的エリア内の注釈情報であることが決定され得る。もちろん、標的エリア内に現れる注釈情報のうちの1つの注釈情報がまた、標的エリア内の注釈情報であることは、他の様式で決定され(例えば、各注釈情報の優先順位が、事前設定され得、複数の注釈情報が標的エリア内に現れると、最高優先順位を伴う1つの注釈情報が標的エリア内の注釈情報であることが決定される)、その具体的様式は、本明細書では、再び列挙されない。
S104:選択される注釈情報を決定し、選択された注釈情報に対応するストリートビューの詳細情報を表示するステップ。
本発明のこの実施形態では、表示される必要がある注釈情報が現実のシナリオ画像内に表示された後、選択される注釈情報に対して、選択された注釈情報に対応するストリートビューの詳細情報が、表示され得る。
具体的には、標的エリアがデバイスのディスプレイ画面上に設定されている場合、選択される注釈情報は、少なくとも以下の様式で決定され得る。
様式1:ユーザが注釈情報をクリックしたことが検出されると、ユーザがクリックした注釈情報が選択される注釈情報であることが決定される。
このように、ユーザは、画面上に表示される注釈情報をクリックすることによって、注釈情報選択命令をデバイスに送信し得、ユーザが注釈情報をクリックしたことが検出されると、ユーザがクリックした注釈情報が選択される注釈情報であることが決定される。
様式2:標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えたことが検出されると、その注釈情報が選択される注釈情報であることが決定される。
このように、ユーザは、デバイスを移動させることによって標的エリアに、ユーザが選択を意図する注釈情報を移動させ得、注釈情報が標的エリア内に留まる時間が閾値(事前設定され得、例えば、2秒である)を超えることが確実にされる。デバイスが標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えることを検出すると、デバイスは、標的エリア内の注釈情報が選択される注釈情報であることを決定する。
様式3:ユーザがデバイスを揺り動かしたことが検出されると、標的エリア内の注釈情報が選択される注釈情報であることが決定される。
このように、ユーザは、デバイスを移動させることによって、標的エリア内の注釈情報を変化させ得、ユーザが標的エリア内の現在の注釈情報がユーザが選択を意図する注釈情報であることを決定すると、ユーザは、デバイスに、デバイスを揺り動かすことによって、標的エリア内の注釈情報を選択するための命令を送信し得る。デバイスがユーザがデバイスを揺り動かしたことを検出すると、デバイスは、標的エリア内の注釈情報が選択される注釈情報であることを決定する。
このように、デバイスによって、ユーザがデバイスを揺り動かしたことを検出することは、具体的には、事前設定ルールに従ってユーザが携帯電話を揺り動かしたことを検出することであり、例えば、揺り動かしが上向きおよび下向き(左および右または前方および後方)であり、かつ時間が閾値を超える(または揺動時間が閾値を超える)ことを検出することであり得る。
様式4:視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値(事前設定され得、例えば、2秒である)を超えたことが検出されると、その注釈情報が選択される注釈情報であることが決定される。
このように、ユーザは、事前設定時間を超える時間の間、ユーザが選択を意図する注釈情報を見つめることによって、注釈情報を選択し得、デバイスが、視線追跡技術を使用することによって、ユーザ(ユーザの眼球)が注釈情報に留まる時間が閾値を超えることを検出すると、デバイスは、その注釈情報が選択される注釈情報であることを決定する。
様式5:音声認識の手段を用いて、音声を使用することによってユーザによって入力された注釈情報が検出されると、その注釈情報が選択される注釈情報であることが決定される。

このように、ユーザは、音声入力を用いて、ユーザが選択を意図する注釈情報を選択し得る。ユーザが注釈情報の選択を意図すると、ユーザは、音声を使用することによって、直接、注釈情報を入力し得る(すなわち、注釈情報を読み上げ)。デバイスが、音声認識を用いて、音声を使用することによってユーザによって入力された注釈情報を検出すると、デバイスは、その注釈情報が選択される注釈情報であることを決定する。
標的エリアがデバイスのディスプレイ画面上に設定されていない場合、ユーザはまた、ユーザが選択を意図する注釈情報をクリックすることによって、注釈情報選択命令をデバイスに送信し得、デバイスがユーザが注釈情報をクリックしたことを検出すると、デバイスは、ユーザがクリックした注釈情報が選択される注釈情報であることを決定する。代替として、ユーザは、注釈情報を見つめることによって、注釈情報を選択し得、デバイスが、視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値を超えることを検出すると、デバイスは、注釈情報を選択される注釈情報として決定する。代替として、ユーザはまた、音声入力を用いて、注釈情報を選択し得、デバイスが、音声を使用することによってユーザによって入力された注釈情報を検出すると、デバイスは、その注釈情報が選択される注釈情報であることを決定する。
本発明のこの実施形態では、選択される注釈情報が決定された後、選択された注釈情報に対応するストリートビューの詳細情報が、表示され得る。例えば、選択された注釈情報に対応するストリートビューの詳細ページが、表示される。詳細ページは、限定ではないが、ストリートビューサムネイル、住所詳細、連絡先番号、および距離(ストリートビュー目的地から現在の場所までの距離)等の情報を含み得る。
ユーザは、詳細ページ上のストリートビューサムネイルをクリックすることによって、ストリートビューパノラマを閲覧し得る。故に、デバイスは、ユーザが対応するストリートビューをより良好に閲覧するように、デバイスがユーザが詳細ページ上のストリートビューサムネイルをクリックしたことを検出すると、対応するストリートビューパノラマを表示し得る。
さらに、本発明のこの実施形態における技術的解決策では、ストリートビュー目的地までの経路を計画(ナビゲート)する機能がさらに、提供され得る。例えば、「経路計画」(「ナビゲーション」または「目的地として設定」)選択肢が、ストリートビュー詳細ページ上に設定され、ユーザは、選択肢をクリックすることによって、現在の場所からストリートビュー目的地までの経路の計画をクエリし得る。
故に、デバイスは、デバイスがストリートビュー目的地までの経路を計画することに対する要求を受信すると、現在の場所からストリートビュー目的地までの最適ルートを決定し得、最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート、および非公共輸送手段のための最適ルートのうちの1つ以上のものを含み得る。
本発明のこの実施形態において提供される技術的解決策では、注釈情報は、限定ではないが、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の1つ以上の情報を含み得ることに留意されたい。ユーザは、注釈情報およびユーザの必要性に従って、ストリートビュー目的地をより良好に選択することができる。
本発明のこの実施形態では、ストリートビュー目的地への案内を提供するためのデバイスは、カメラを有するスマートフォン、タブレットコンピュータ、携帯情報端末(PDA)、またはモバイルインターネットデバイス(MID)等の端末デバイスであり得る。
図2を参照すると、図2は、本発明のある実施形態による、ストリートビュー目的地への案内を提供する方法の概略フロー図である。図2に示されるストリートビュー目的地への案内を提供する方法では、本発明のこの実施形態において提供される技術的解決策は、ストリートビュー目的地への案内を提供するためのデバイスがカメラを伴うスマートフォン(略して携帯電話)である実施例を使用することによって説明される。図2に示されるストリートビュー目的地への案内を提供する方法は、以下のステップを含み得る。
S201:カメラを使用することによって、デバイスが位置するシナリオの現実のシナリオ画像を取得するステップ。
図3Aを参照すると、この実施形態では、ユーザは、携帯電話のカメラを使用することによって、現実のシナリオの画像情報を取得し、画像情報を携帯電話のディスプレイ画面上に表示し得る。
S202:デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するステップ。
この実施形態では、GPS測位装置および加速度計、ジャイロスコープ、または電子コンパス等のセンサが、携帯電話の現在の場所および向いている方向を取得し、さらに、携帯電話の現在の場所および向いている方向に従って表示される必要がある注釈情報を決定するために、事前に携帯電話内に配置され得る。
ユーザは、設定インターフェースにおいて、表示される必要がある注釈情報を設定し得る。例えば、生活サービスタイプの注釈情報のみ表示されることが設定され得、現在の場所から500m以内のストリートビューの注釈情報のみ表示されることが設定され得る。概略図に対して、図3Bを参照されたい。
S203:表示される必要がある注釈情報と現実のシナリオ画像とをデバイスのディスプレイ画面上にオーバーレイ様式で表示するステップ。
図3Cを参照すると、この実施形態では、表示される必要がある注釈情報および現実のシナリオ画像は、拡張現実技術を使用することによって、携帯電話の画面上にオーバーレイ様式で表示され得る。標的エリアが、携帯電話の画面上に設定され、標的エリア内の注釈情報と注釈情報に対応する現実のシナリオとは、ハイライトされる。
表示される必要がある注釈情報および現実のシナリオ画像がデバイスのディスプレイ画面上にオーバーレイ様式で表示された後、画面上に表示される注釈情報はさらに、ユーザの設定に従ってフィルタ処理され得ることに留意し、そのフィルタ処理ポリシーに対して、ステップS102に説明される注釈情報をフィルタ処理するためのポリシーを参照されたい。
S204:標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えたことが検出されると、その注釈情報が選択される注釈情報であることを決定するステップ。
この実施形態では、選択される注釈情報は、標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えたことが検出されると、その注釈情報が選択される注釈情報であることが決定される様式で決定される。閾値が2秒に設定されると仮定すると、携帯電話が、注釈情報が標的エリアに進入し、標的エリア内の注釈情報が標的エリア内に留まる時間が2秒を超えたことを検出すると、その注釈情報が選択される注釈情報であることが決定される。
S205:選択された注釈情報に対応するストリートビューの詳細ページを表示するステップ。
図3Dを参照すると、この実施形態では、選択される注釈情報が決定された後、選択された注釈情報に対応するストリートビューの詳細ページが、画面上に表示され得る。詳細ページは、ストリートビューサムネイル、住所詳細、および連絡先番号等の情報を含み得、詳細ページは、「目的地として設定」選択肢を含む。ユーザは、「目的地として設定」選択肢をクリックすることによって、現在の場所からストリートビュー目的地までの最適ルートを閲覧することができ、最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート(例えば、バスまたは地下鉄)、および非公共輸送手段のための最適ルート(例えば、自ら運転する車または自転車)を含み得る。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別の方法の概略フロー図である、図4を参照する。本方法は、以下のステップを含み得る。
S401:カメラを使用することによって、デバイスが位置するシナリオの現実のシナリオ画像を取得するステップ。
S402:GPS測位装置を使用することによって、デバイスの現在の場所を決定し、方向センサを使用することによって、デバイスの向いている方向を決定するステップ。
S403:デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するステップ。
本発明のこの実施形態では、デバイスの現在の場所およびデバイスが向いている方向に対応する注釈情報が取得された後、注釈情報のフィルタ処理が、注釈情報をフィルタ処理するためにユーザによって設定されるポリシーに従って行われ得(フィルタ処理は、タイプおよび/または距離に従って行われ得る)、フィルタ処理した後に得られた注釈情報が表示される必要がある注釈情報であることが決定される。
S404:表示される必要がある注釈情報と現実のシナリオ画像とをデバイスのディスプレイ画面上にオーバーレイ様式で表示するステップ。
この実施形態では、注釈情報と現実のシナリオ画像とは、拡張現実技術を使用することによって、デバイスの画面上に表示され得る。
S405:ユーザが注釈情報をクリックする動作が検出されると、クリックされた注釈情報が選択される注釈情報であることを決定するステップ。
S406:選択された注釈情報に対応するストリートビューの詳細ページを表示するステップ。
詳細ページは、「経路計画」選択肢を含む。ユーザは、「経路計画」選択肢をクリックすることによって、現在の場所からストリートビュー目的地までの最適ルートを閲覧することができる。
S407:経路計画要求が受信されると、現在の場所からストリートビュー目的地までの最適ルートを表示するステップ。
最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート、および非公共輸送手段のための最適ルートのうちの1つ以上のものを含む。
前述の方法実施形態におけるものと同一技術的アイディアに基づいて、本発明の実施形態はさらに、ストリートビュー目的地への案内を提供するためのデバイスを提供し、デバイスは、前述の方法実施形態に適用可能である。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するためのデバイスの概略構造図である、図5を参照する。デバイスは、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュール51と、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュール52と、
選択される注釈情報を決定するように構成されている第2の決定モジュール53と、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュール54と
を含み得る。
取得モジュール51は、デバイスのカメラを使用することによって、デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成され得る。
表示モジュール54は、表示される必要がある注釈情報と現実のシナリオ画像とをデバイスのディスプレイ画面上にオーバーレイ様式で表示するように構成され得る。
標的エリアがデバイスのディスプレイ画面上に設定されている場合、
表示モジュール54はさらに、注釈情報が標的エリア内に現れる場合、強調様式で(例えば、ハイライトされるか、または比率の拡大を行うことによって表示される)注釈情報と注釈情報に対応する現実のシナリオとを表示するように構成され得る。
故に、第2の決定モジュール53は、ユーザが注釈情報をクリックしたことが検出されると、ユーザがクリックした注釈情報を選択される注釈情報として決定するか、または標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えたことが検出されると、その注釈情報を選択される注釈情報として決定するか、またはユーザがデバイスを揺り動かしたことが検出されると、標的エリア内の注釈情報を選択される注釈情報として決定するか、または視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値を超えたことが検出されると、その注釈情報を選択される注釈情報として決定するか、または音声を使用することによってユーザによって入力された注釈情報入力が検出されると、その注釈情報を選択される注釈情報として決定するように構成され得る。
表示モジュール54は、選択された注釈情報に対応するストリートビューの詳細ページを表示するように構成され得る。
詳細ページは、ストリートビューサムネイル、住所詳細、連絡先番号、および距離を含む。
表示モジュール54はさらに、ユーザが詳細ページ上のストリートビューサムネイルをクリックしたことが検出されると、対応するストリートビューパノラマを表示するように構成され得る。
注釈情報は、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の情報のうちの1つ以上のものを含む。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である、図6を参照する。デバイスは、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュール61と、
デバイスの現在の場所およびデバイスが向いている方向を決定するように構成されている第3の決定モジュール62と、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュール63と、
選択される注釈情報を決定するように構成されている第2の決定モジュール64と、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュール65と
を含み得る。
第3の決定モジュールは、全地球測位システム(GPS)測位装置を使用することによって、デバイスの現在の場所を決定し、および/またはセンサを使用することによって、デバイスのデバイスが向いている方向を決定するように構成され得、センサは、加速度計、ジャイロスコープ、および電子コンパスを含む。
注釈情報は、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の情報のうちの1つ以上のものを含む。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である、図7を参照する。デバイスは、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュール71と、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュール72と、
選択される注釈情報を決定するように構成されている第2の決定モジュール73と、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュール74と
を含み得る。
第1の決定モジュール72は、
デバイスの現在の場所とデバイスが向いている方向とに対応する注釈情報を取得するように構成されている取得ユニット721と、
注釈情報をフィルタ処理するためのポリシーに従って取得された注釈情報のフィルタ処理を行うように構成されているフィルタ処理ユニット722と、
フィルタ処理した後に得られた注釈情報が表示される必要がある注釈情報であることを決定するように構成されている決定ユニット723と
を含み得る。
フィルタ処理ユニット722は、注釈情報に対応する現実のシナリオのタイプ(例えば、生活サービス、観光スポット、およびショッピング)に従って取得された注釈情報のフィルタ処理を行うこと、および/または注釈情報に対応する現実のシナリオからデバイスの現在の場所までの距離(例えば、2km、1km、または500m以内)に従って取得された注釈情報のフィルタ処理をすることを行うように構成され得る。
注釈情報は、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の情報のうちの1つ以上のものを含む。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である、図8を参照する。デバイスは、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュール81と、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュール82と、
選択される注釈情報を決定するように構成されている第2の決定モジュール83と、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュール84と
を含み得る。
標的エリアがデバイスのディスプレイ画面上に設定されている場合、
表示モジュール84はさらに、注釈情報が標的エリア内に現れる場合、強調様式で(例えば、ハイライトされるか、または比率の拡大を行うことによって表示される)注釈情報と注釈情報に対応する現実のシナリオとを表示するように構成され得る。
故に、第2の決定モジュール83は、ユーザが注釈情報をクリックしたことが検出されると、ユーザがクリックした注釈情報が選択される注釈情報であることを決定するか、または標的エリア内の注釈情報が標的エリア内に留まる時間が閾値を超えたことが検出されると、その注釈情報が選択される注釈情報であることを決定するか、またはユーザがデバイスを揺り動かしたことが検出されると、標的エリア内の注釈情報が選択される注釈情報であることを決定するか、または視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値を超えたことが検出されると、その注釈情報が選択される注釈情報であることを決定するか、または音声を使用することによってユーザによって入力された注釈情報入力が検出されると、その注釈情報が選択される注釈情報であることを決定するように構成され得る。
故に、本発明のこの実施形態において提供されるストリートビュー目的地への案内を提供するためのデバイスはさらに、
2つ以上の注釈情報が標的エリア内に現れる場合、事前設定ルールに従って、1つの注釈情報を選択し、その1つの注釈情報が標的エリア内の注釈情報であることを決定するように構成されている第4の決定モジュール85を含み得る。
第4の決定モジュール85は、標的エリアの中心点に最も近い注釈情報が標的エリア内の注釈情報であることを決定するか、または標的エリア内に現れる注釈情報の重みに従って、最も高い重みを伴う注釈情報を選択し、その注釈情報が標的エリア内の注釈情報であることを決定するか、または1つの注釈情報をランダムに選択し、その1つの注釈情報が標的エリア内の注釈情報であることを決定するように構成され得る。
注釈情報は、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の情報のうちの1つ以上のものを含む。
本発明のある実施形態による、ストリートビュー目的地への案内を提供するための別のデバイスの概略構造図である、図9を参照する。デバイスは、
デバイスが位置するシナリオの現実のシナリオ画像を取得するように構成されている取得モジュール91と、
デバイスの現在の場所およびデバイスが向いている方向に従って、表示される必要がある注釈情報を決定するように構成されている第1の決定モジュール92と、
選択される注釈情報を決定するように構成されている第2の決定モジュール93と、
現実のシナリオ画像内に、表示される必要がある注釈情報を表示し、選択された注釈情報に対応するストリートビューの詳細情報を表示するように構成されている表示モジュール94と
を含み得る。
表示モジュール94は、選択された注釈情報に対応するストリートビューの詳細ページを表示するように構成され得る。
詳細ページは、ストリートビューサムネイル、住所詳細、連絡先番号、および距離を含む。
故に、表示モジュール94はさらに、ユーザが詳細ページ上のストリートビューサムネイルをクリックしたことが検出されると、対応するストリートビューパノラマを表示するように構成され得る。
故に、本発明のこの実施形態において提供されるストリートビュー目的地への案内を提供するためのデバイスはさらに、
ストリートビュー目的地までの経路を計画することに対する要求が受信されると、現在の場所からストリートビュー目的地までの最適ルートを決定するように構成されているナビゲーションモジュール95を含み得、最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート、および非公共輸送手段のための最適ルートのうちの1つ以上のものを含む。
注釈情報は、関心地点(POI)情報(例えば、ストリートビュー名、ストリートビュータイプ、ストリートビュー経度、およびストリートビュー緯度等の情報)、ストリートビューサムネイル、近くの活動情報(例えば、宣伝活動、有名人のコンサート、および人気の映画の上映)、緊急情報(例えば、交通事故)、輸送機関情報(例えば、道路が順調であるかどうか、および交通整理が行われているかどうか)、および距離等の情報のうちの1つ以上のものを含む。
前述の説明から、本発明の実施形態において提供される技術的解決策では、ストリートビュー目的地への案内を提供するための解決策が提供され、解決策は、より現実的視覚的効果およびより多くのシナリオ情報を有することが分かる。ユーザは、目的地ストリートビューを見出すように、表示される注釈情報とデバイスの正面の現実のシナリオとを直感的に比較することができる。目的地ストリートビューは、デバイスの現在の場所および向いている方向情報と、ユーザの選択とを参照して決定されるので、目的地ストリートビューは、実際のユーザの必要性をより良好に満たし、ストリートビュー案内は、より便り、効率的、かつ標的化されたものとなる。
当業者は、実施形態における方法のプロセスの全部または一部が、コンピュータプログラム命令関連ハードウェアによって実装され得ることを理解し得る。プログラムは、コンピュータ読み取り可能な記憶媒体内に記憶され得る。プログラムが起動すると、前述の方法実施形態のプロセスが、行われる。記憶媒体は、磁気ディスク、光学ディスク、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)等を含み得る。
前述に開示される内容は、単に、本発明の好ましい実施形態であって、本開示の範囲を限定することを意図するものではない。当業者は、前述の実施形態を実装するための手順の全部または一部を理解することができ、本開示の請求項に従うものによって行われる任意の均等物変形例は、依然として、本開示の範囲内であるものとする。

Claims (13)

  1. ストリートビュー目的地への案内を提供する方法であって、
    デバイスが位置するシナリオの現実のシナリオ画像を取得することと、
    前記デバイスの現在の場所およびデバイスが向いている方向を決定することと、
    前記デバイスの前記現在の場所および前記デバイスが向いている方向に従って、表示される必要がある注釈情報を決定することと、
    前記現実のシナリオ画像内に前記表示される必要がある注釈情報を表示することと、
    選択される注釈情報を決定することと、
    前記選択された注釈情報に対応するストリートビューの詳細情報を表示することと
    を含み、
    前記現実のシナリオ画像内に前記表示される必要がある注釈情報を表示することは、
    前記表示される必要がある注釈情報と前記現実のシナリオ画像とを前記デバイスのディスプレイ画面上にオーバーレイ様式で表示することと、
    標的エリアが前記デバイスの前記ディスプレイ画面上に設定されており、前記注釈情報が前記標的エリア内に現れる場合、前記方法は、前記標的エリア内の注釈情報と前記注釈情報に対応する現実のシナリオとを強調様式で表示することと、
    を含む、方法。
  2. 前記デバイスが位置するシナリオの現実のシナリオ画像を取得することは、前記デバイスのカメラを使用して、前記デバイスが位置するシナリオの前記現実のシナリオ画像を取得することを含む、請求項1に記載の方法。
  3. 前記デバイスの前記現在の場所は、全地球測位システム(GPS)測位装置を使用することによって決定され、前記デバイスの前記デバイスが向いている方向は、センサを使用することによって決定され、前記センサは、加速度計、ジャイロスコープ、および電子コンパスのうちの1つ以上のものを備えている、請求項1に記載の方法。
  4. 前記デバイスの前記現在の場所および前記デバイスが向いている方向に従って、表示される必要がある注釈情報を決定することは、
    前記デバイスの前記現在の場所と前記デバイスが向いている方向とに対応する注釈情報を取得することと、
    注釈情報をフィルタ処理するためのポリシーに従って、前記取得された注釈情報にフィルタ処理を行うことと、
    前記フィルタ処理した後に得られた注釈情報が前記表示される必要がある注釈情報であることを決定することと
    を含む、請求項1に記載の方法。
  5. 前記注釈情報をフィルタ処理するためのポリシーに従って、前記取得された注釈情報にフィルタ処理を行うことは、
    前記注釈情報に対応する現実のシナリオのタイプに従って、前記取得された注釈情報にフィルタ処理を行うこと、および/または、
    前記注釈情報に対応する現実のシナリオから前記デバイスの前記現在の場所までの距離に従って、前記取得された注釈情報にフィルタ処理を行うこと
    を含む、請求項4に記載の方法。
  6. 前記選択される注釈情報を決定することは、
    ユーザが注釈情報をクリックしたことが検出されると、前記ユーザがクリックした前記注釈情報を前記選択される注釈情報として決定すること、または、
    標的エリア内の注釈情報が前記標的エリア内に留まる時間が閾値を超えたことが検出されると、前記注釈情報が前記選択される注釈情報であることを決定すること、または、
    ユーザが前記デバイスを揺り動かしたことが検出されると、標的エリア内の注釈情報が前記選択される注釈情報であることを決定すること、または、
    視線追跡技術を使用することによって、ユーザが注釈情報に留まる時間が閾値を超えたことが検出されると、前記注釈情報が前記選択される注釈情報であることを決定すること、または、
    音声を使用することによってユーザによって入力された注釈情報入力が検出されると、前記注釈情報が前記選択される注釈情報であることを決定すること
    を含む、請求項1に記載の方法。
  7. 前記方法は、2つ以上の注釈情報が標的エリア内に現れる場合、事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することをさらに含む、請求項1に記載の方法。
  8. 前記事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することは、
    前記標的エリアの中心点に最も近い注釈情報が前記標的エリア内の前記注釈情報であることを決定すること、または、
    前記標的エリア内に現れる注釈情報の重みに従って、最も高い重みを伴う注釈情報を選択し、前記注釈情報が前記標的エリア内の前記注釈情報であることを決定すること
    を含む、請求項7に記載の方法。
  9. 前記事前設定ルールに従って、1つの注釈情報を選択し、前記1つの注釈情報が前記標的エリア内の注釈情報であることを決定することは、1つの注釈情報をランダムに選択し、前記1つの注釈情報が前記標的エリア内の前記注釈情報であることを決定することを含む、請求項7に記載の方法。
  10. 前記選択された注釈情報に対応するストリートビューの詳細情報を表示することは、前記選択された注釈情報に対応する前記ストリートビューの詳細ページを表示することを含み、前記詳細ページは、ストリートビューサムネイル、住所詳細、連絡先番号、および距離を備えている、請求項1に記載の方法。
  11. 前記選択された注釈情報に対応するストリートビューの詳細情報を表示した後、ユーザが前記詳細ページ上の前記ストリートビューサムネイルをクリックしたことが検出されると、対応するストリートビューパノラマを表示することをさらに含む、請求項10に記載の方法。
  12. 前記選択された注釈情報に対応するストリートビューの詳細情報を表示した後、前記ストリートビュー目的地までの経路を計画することに対する要求が受信されると、前記現在の場所から前記ストリートビュー目的地までの最適ルートを決定することをさらに含み、前記最適ルートは、最適歩行ルート、公共輸送手段のための最適ルート、および非公共輸送手段のための最適ルートのうちの1つ以上のものを備えている、請求項10に記載の方法。
  13. 前記注釈情報は、関心地点(POI)情報、ストリートビューサムネイル、近くの活動情報、緊急情報、輸送機関情報、および距離のうちの1つ以上のものを備えている、請求項1に記載の方法。
JP2016570310A 2014-06-05 2015-06-04 ストリートビュー目的地への案内を提供する方法およびデバイス Active JP6450779B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410247087.2 2014-06-05
CN201410247087.2A CN104596523B (zh) 2014-06-05 2014-06-05 一种街景目的地引导方法和设备
PCT/CN2015/080735 WO2015184996A1 (en) 2014-06-05 2015-06-04 Method and device for providing guidance to street view destination

Publications (2)

Publication Number Publication Date
JP2017524905A JP2017524905A (ja) 2017-08-31
JP6450779B2 true JP6450779B2 (ja) 2019-01-09

Family

ID=53122459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570310A Active JP6450779B2 (ja) 2014-06-05 2015-06-04 ストリートビュー目的地への案内を提供する方法およびデバイス

Country Status (6)

Country Link
US (2) US9891073B2 (ja)
EP (1) EP3123113A4 (ja)
JP (1) JP6450779B2 (ja)
KR (1) KR101864814B1 (ja)
CN (1) CN104596523B (ja)
WO (1) WO2015184996A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104596523B (zh) * 2014-06-05 2019-05-07 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
CN105162876A (zh) * 2015-09-23 2015-12-16 百度在线网络技术(北京)有限公司 用于呈现地理位置信息的方法、装置和系统
CN105243119B (zh) * 2015-09-29 2019-05-24 百度在线网络技术(北京)有限公司 确定图像的待叠加区域、叠加图像、图片呈现方法和装置
FR3043023B1 (fr) * 2015-10-28 2017-12-01 Peugeot Citroen Automobiles Sa Procede de localisation d’un vehicule motorise par rapport a un espace confine
CN106813670A (zh) * 2015-11-27 2017-06-09 华创车电技术中心股份有限公司 三维行车影像辅助装置
CN105651300A (zh) * 2015-11-30 2016-06-08 东莞酷派软件技术有限公司 一种信息获取方法及电子设备
CN107024222B (zh) * 2016-01-29 2020-06-12 华创车电技术中心股份有限公司 行车导航装置
WO2017181403A1 (zh) * 2016-04-22 2017-10-26 黄伟嘉 具定位点显示功能的行动装置以及定位点显示方法
US20170343375A1 (en) * 2016-05-31 2017-11-30 GM Global Technology Operations LLC Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
CN106203292A (zh) * 2016-06-28 2016-12-07 广东欧珀移动通信有限公司 一种图像的增强现实处理的方法、装置及移动终端
CN105973231A (zh) * 2016-06-30 2016-09-28 百度在线网络技术(北京)有限公司 一种导航方法和装置
EP3285216A1 (en) * 2016-08-19 2018-02-21 Nokia Technologies Oy Association of comments to points of interest in virtual reality
CN106341778A (zh) * 2016-08-24 2017-01-18 广西小草信息产业有限责任公司 一种网络接入系统和方法
KR101815158B1 (ko) * 2016-11-10 2018-01-05 주식회사 팝스라인 Mr 콘텐츠 제작 장치 및 그 방법
CN108151709B (zh) * 2016-12-06 2020-07-10 百度在线网络技术(北京)有限公司 应用于终端的定位方法和装置
CN106920079B (zh) 2016-12-13 2020-06-30 阿里巴巴集团控股有限公司 基于增强现实的虚拟对象分配方法及装置
CN106651525B (zh) * 2016-12-28 2020-11-10 上海趣立信息科技有限公司 一种基于电商平台的增强现实位置导引方法及其系统
CN108664455B (zh) * 2017-03-30 2023-01-03 腾讯科技(深圳)有限公司 地图标注数据处理方法和装置
US11733699B2 (en) 2017-06-16 2023-08-22 FLIR Belgium BVBA Ultrasonic perimeter ranging sensor systems and methods
CN107478237A (zh) * 2017-06-29 2017-12-15 百度在线网络技术(北京)有限公司 实景导航方法、装置、设备及计算机可读存储介质
CN109274926B (zh) * 2017-07-18 2020-10-27 杭州海康威视系统技术有限公司 一种图像处理方法、设备及系统
CN107396086A (zh) * 2017-07-28 2017-11-24 歌尔科技有限公司 基于vr头戴设备播放视频的方法及vr头戴设备
CN107704579B (zh) * 2017-09-30 2020-10-16 百度在线网络技术(北京)有限公司 基于路网的众包数据处理方法、装置、设备及存储介质
KR102091172B1 (ko) * 2018-03-08 2020-04-23 네이버 주식회사 거리뷰 제공 방법 및 장치
CN110832353B (zh) * 2018-04-17 2022-12-13 华为技术有限公司 一种图片处理方法及相关设备
CN110166787B (zh) * 2018-07-05 2022-11-29 腾讯数码(天津)有限公司 增强现实数据传播方法、系统和存储介质
CN108898678B (zh) * 2018-07-09 2020-02-21 百度在线网络技术(北京)有限公司 增强现实方法和装置
CN109656364B (zh) * 2018-08-15 2022-03-29 亮风台(上海)信息科技有限公司 一种用于在用户设备上呈现增强现实内容的方法与设备
CN110856107B (zh) * 2018-08-21 2023-08-22 上海擎感智能科技有限公司 智能导游方法、系统、服务器及车辆
GB2611002B (en) * 2018-09-20 2023-12-27 FLIR Belgium BVBA Video sensor fusion and model based virtual and augmented reality systems and methods
US10902264B2 (en) * 2018-11-25 2021-01-26 International Business Machines Corporation Automatic generation of secondary class annotations
CN109886191A (zh) * 2019-02-20 2019-06-14 上海昊沧系统控制技术有限责任公司 一种基于ar的识别物管理方法及系统
CN109933642B (zh) * 2019-04-04 2023-03-07 北京三快在线科技有限公司 引导图片的生成方法、装置、电子设备和存储介质
CN110136227A (zh) * 2019-04-26 2019-08-16 杭州飞步科技有限公司 高精地图的标注方法、装置、设备及存储介质
US10900801B2 (en) * 2019-06-07 2021-01-26 Capital One Services, Llc Augmented reality directions utilizing physical reference markers
US10682980B1 (en) 2019-06-07 2020-06-16 Capital One Services, Llc Systems and methods for test driving cars with limited human interaction
US10591576B1 (en) 2019-06-07 2020-03-17 Capital One Services, Llc Automated system for vehicle tracking
US10589720B1 (en) 2019-06-07 2020-03-17 Capital One Services, Llc Automated system for car access in retail environment
CN110285818B (zh) * 2019-06-28 2023-09-19 武汉大学 一种眼动交互增强现实的相对导航方法
JP2021026562A (ja) * 2019-08-06 2021-02-22 シャープ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
CN110503685B (zh) * 2019-08-14 2022-04-15 腾讯科技(深圳)有限公司 一种数据处理方法以及设备
US11988513B2 (en) 2019-09-16 2024-05-21 FLIR Belgium BVBA Imaging for navigation systems and methods
CN111047920B (zh) * 2019-12-25 2021-08-17 中国科学院高能物理研究所 宇宙射线径迹探测和显示装置
KR102347500B1 (ko) * 2020-03-13 2022-01-05 네이버 주식회사 거리뷰 제공 방법 및 장치
CN112179331B (zh) * 2020-09-23 2023-01-31 北京市商汤科技开发有限公司 Ar导航的方法、装置、电子设备及存储介质
CN112212865B (zh) * 2020-09-23 2023-07-25 北京市商汤科技开发有限公司 Ar场景下的引导方法、装置、计算机设备及存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697827B2 (en) * 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
CN101000372B (zh) * 2006-12-30 2010-09-29 深圳市凯立德计算机系统技术有限公司 一种追踪导航中的地图记录方法及设备
JP5102599B2 (ja) * 2007-12-12 2012-12-19 クラリオン株式会社 ナビゲーション装置
US20100009662A1 (en) * 2008-06-20 2010-01-14 Microsoft Corporation Delaying interaction with points of interest discovered based on directional device information
KR20100055254A (ko) * 2008-11-17 2010-05-26 엘지전자 주식회사 이동 단말기의 poi 정보 제공 방법 및 그 장치
JP4816748B2 (ja) * 2009-03-06 2011-11-16 ソニー株式会社 ナビゲーション装置及びナビゲーション方法
JP2010230551A (ja) 2009-03-27 2010-10-14 Sony Corp ナビゲーション装置及びナビゲーション方法
KR101561913B1 (ko) * 2009-04-17 2015-10-20 엘지전자 주식회사 이동 단말기의 영상 표시 방법 및 그 장치
KR101648339B1 (ko) * 2009-09-24 2016-08-17 삼성전자주식회사 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
JP2011122994A (ja) * 2009-12-14 2011-06-23 Funai Electric Co Ltd ナビゲーション装置
KR101096392B1 (ko) 2010-01-29 2011-12-22 주식회사 팬택 증강 현실 제공 시스템 및 방법
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
CN101794316A (zh) * 2010-03-30 2010-08-04 高翔 基于gps定位和方向识别的实景咨信系统及坐标偏移方法
JP5401387B2 (ja) * 2010-03-31 2014-01-29 株式会社ゼンリンデータコム 地図画像処理装置、地図画像処理方法及び地図画像処理プログラム
CN102338639B (zh) * 2010-07-26 2015-04-22 联想(北京)有限公司 信息处理设备和信息处理方法
CN102123194B (zh) * 2010-10-15 2013-12-18 张哲颖 利用增强实景技术优化移动导航和人机交互功能的方法
CN202043177U (zh) * 2010-10-15 2011-11-16 张哲颖 利用增强实景技术优化移动导航和人机交互的系统设备
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
CN102607566A (zh) * 2011-01-25 2012-07-25 鸿富锦精密工业(深圳)有限公司 道路实景导航系统及方法
JP5745284B2 (ja) * 2011-02-14 2015-07-08 キャンバスマップル株式会社 ナビゲーション装置、及びナビゲーションプログラム
US9087412B2 (en) * 2011-09-26 2015-07-21 Nokia Technologies Oy Method and apparatus for grouping and de-overlapping items in a user interface
CN102519478B (zh) * 2011-11-16 2016-01-13 深圳市凯立德科技股份有限公司 一种街景目的地引导方法及装置
JP5921320B2 (ja) * 2012-04-27 2016-05-24 富士通テン株式会社 表示システム、携帯装置、車載装置、及び、プログラム
CN102951089B (zh) * 2012-08-20 2015-04-01 上海工程技术大学 基于移动设备摄像头的车载导航及主动安全系统
CN202814409U (zh) * 2012-09-11 2013-03-20 厦门腾宸信息科技有限公司 实景导航系统
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
AU2013401486A1 (en) * 2013-09-24 2016-04-14 Metaio Gmbh Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
CN104596523B (zh) * 2014-06-05 2019-05-07 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备

Also Published As

Publication number Publication date
KR20160147052A (ko) 2016-12-21
US10677609B2 (en) 2020-06-09
JP2017524905A (ja) 2017-08-31
CN104596523B (zh) 2019-05-07
KR101864814B1 (ko) 2018-06-05
US20160265935A1 (en) 2016-09-15
EP3123113A4 (en) 2017-12-20
WO2015184996A1 (en) 2015-12-10
CN104596523A (zh) 2015-05-06
US9891073B2 (en) 2018-02-13
US20180120125A1 (en) 2018-05-03
EP3123113A1 (en) 2017-02-01

Similar Documents

Publication Publication Date Title
JP6450779B2 (ja) ストリートビュー目的地への案内を提供する方法およびデバイス
US9916673B2 (en) Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
JP6580703B2 (ja) モバイルデバイスの現在の地理的ロケーションに関連付けられたロケーションエンティティの曖昧性解消のためのシステムおよび方法
US8315791B2 (en) Method and apparatus for providing smart zooming of a geographic representation
US9582166B2 (en) Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
US9244940B1 (en) Navigation paths for panorama
US8532927B2 (en) Generating photogenic routes from starting to destination locations
US9678660B2 (en) Method and apparatus for conveying efficient map panning over a mapping user interface
EP3048422B1 (en) Method and apparatus for providing relevant point of interest on a multi-modal route
JP6344311B2 (ja) 表示装置、情報処理システム及び制御方法
US20170153113A1 (en) Information processing apparatus, information processing method, and program
KR20170046675A (ko) 경로 중단이 감소된 내비게이션 검색 결과의 제공 기법
EP3654254A1 (en) Method and apparatus for presenting privacy-respectful and personalized location-based comments based on passenger context and vehicle proximity to the location
JP2014519606A (ja) 短距離において複数の曲がり角を曲がるための支援を備えるナビゲーションシステム
JP6272484B2 (ja) 待ち合わせ支援システム、待ち合わせ支援プログラムおよび待ち合わせ支援方法
CN106796498B (zh) 为用户渲染地图的方法、系统和存储介质
CN112711719A (zh) 兴趣点搜索方法、装置及可读存储介质
US20150379040A1 (en) Generating automated tours of geographic-location related features
CN112189196B (zh) 个性化地标
JP2022007576A (ja) 情報処理システム、情報処理方法、情報処理プログラム、およびサーバ
JP2021196834A (ja) 情報処理システム
CN118089766A (zh) 交互控制方法、装置、车载设备、车辆及存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6450779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250