DE112013002796B4 - Bereitstellen von Navigationsinstruktionen während eine Vorrichtung im Sperrmodus ist - Google Patents

Bereitstellen von Navigationsinstruktionen während eine Vorrichtung im Sperrmodus ist Download PDF

Info

Publication number
DE112013002796B4
DE112013002796B4 DE112013002796.8T DE112013002796T DE112013002796B4 DE 112013002796 B4 DE112013002796 B4 DE 112013002796B4 DE 112013002796 T DE112013002796 T DE 112013002796T DE 112013002796 B4 DE112013002796 B4 DE 112013002796B4
Authority
DE
Germany
Prior art keywords
navigation
application
map
user
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112013002796.8T
Other languages
English (en)
Other versions
DE112013002796T5 (de
Inventor
c/o Apple Inc. Van Os Marcel
c/o Apple Inc. Vulcano Emanuele
c/o Apple Inc. Moore Bradford Allen
c/o Apple Inc. Cato Andrew B.
c/o Apple Inc. Pylappan Seejo K.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112013002796T5 publication Critical patent/DE112013002796T5/de
Application granted granted Critical
Publication of DE112013002796B4 publication Critical patent/DE112013002796B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3209Monitoring remote activity, e.g. over telephone lines or network connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • G06F1/3218Monitoring of peripheral devices of display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/3413Details of control of colour illumination sources
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0251Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity
    • H04W52/0254Power saving arrangements in terminal devices using monitoring of local events, e.g. events related to user activity detecting a user operation or a tactile contact or a motion of the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0267Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by controlling user interface components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/34Power consumption
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • G09G2330/022Power management, e.g. power saving in absence of operation, e.g. no data being entered during a predetermined time
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W52/00Power management, e.g. TPC [Transmission Power Control], power saving or power classes
    • H04W52/02Power saving arrangements
    • H04W52/0209Power saving arrangements in terminal devices
    • H04W52/0261Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level
    • H04W52/0274Power saving arrangements in terminal devices managing power supply demand, e.g. depending on battery level by switching on or off the equipment or parts thereof
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Ein Verfahren zum Bereitstellen von Navigationsanweisungen für eine Vorrichtung, die ein Anzeigebildschirm aufweist, wobei das Verfahren umfasst:Ausführen einer Vielzahl von Anwendungen, eine Navigationsanwendung beinhaltend;wenn die Navigationsanwendung im Vordergrund ausgeführt wird, Behalten den Anzeigebildschirm an und die Vorrichtung in einem nicht gesperrten Modus, um Punkt-zu-Punkt-Navigationsinstruktionen auf dem Anzeigebildschirm darzustellen, während die Vorrichtung verschiedene Navigationspunkte entlang der Navigationsroute passiert;Ausschalten des Anzeigebildschirms und Betreiben der Vorrichtung in einem Sperrmodus; undin dem Sperrmodus:Bestimmen, dass die Vorrichtung sich einem Navigationspunkt nähert, während der Anzeigebildschirm der Vorrichtung ausgeschaltet ist;automatisches Einschalten des Anzeigebildschirms;Anzeigen von Navigationsanweisungen ohne die Vorrichtung aus dem Sperrmodus zu nehmen; undAusschalten des Anzeigebildschirms, wenn die Vorrichtung den Navigationspunkt passiert hat.

Description

  • Hintergrund
  • Viele heute verfügbare kartenbasierte Anwendungen sind für eine Vielzahl verschiedener Vorrichtungen (z.B. Desktops, Laptops, Tablet-Vorrichtungen, Smartphones, Handgehaltene Empfänger für das globale Positionierungssystem (Global Positioning System, GPS), usw.) und für eine Vielzahl verschiedener Zwecke (z.B. Navigation, Durchsuchung, Sport usw.) bestimmt. Die meisten dieser Anwendungen generieren Anzeigen einer Karte basierend auf Kartendaten, welche relative Orte von Straßen, Highways, Punkte von Interesse usw. in der Karte beschreiben.
  • Die Karten, die in solchen Anwendungen verwendet werden, sind normalerweise zweidimensionale (2D) Karten oder dreidimensionale (3D) Karten. Allerdings nutzt eine große Anzahl der Anwendungen 2D-Karten zum Teil wegen der verarbeitungsintensiven Anforderungen der Betrachtung von 3D-Karten. Aus dem gleichen Grund sind Anwendungen, die 3D-Karten verwenden oft langsam, ineffizient, schlicht und/oder einfach, bis zu dem Punkt, der die Anwendung unbrauchbar macht.
  • US 6 360 167 B1 beschreibt ein Navigationssystem, das Multimedia-Anmerkungen basierend auf dem gegenwärtigen Standort des Fahrzeugs bereitstellt. Diese Präsentationen können Werbung oder Text oder andere Informationen umfassen, die vom Benutzer eingegeben und einem bestimmten Ort oder bestimmten Orten zugeordnet werden. Das Navigationssystem stellt auch einen Leser für entfernbare Medien bereit, der zusätzliche Informationen erhält, auf deren Grundlage das Navigationssystem arbeitet. Diese zusätzlichen Informationen können ortsbezogene Multimedia-Anmerkungen umfassen. Das Navigationssystem umfasst ferner ein drahtloses Kommunikationssystem, das mit weiteren standortbasierten Multimedia-Anmerkungen interagiert und diese bereitstellt.
  • US 2007 / 0 265 772 A1 beschreibt ein Verfahren und Navigationsgerät zum Anzeigen eines mehrseitigen Menüs, umfassend Konfigurationsoptionen zum Aktivieren eines ersten oder eines zweiten Betriebsmodus in Abhängigkeit von verschiedenen Parametern, einschließlich Geschwindigkeit, Verwendung von Menüelementen und Verwendung des Navigationsgeräts in entweder dem ersten oder zweiten Betriebsmodus und Mittel zum Bestimmen, ob der erste oder der zweite Betriebsmodus aktiviert ist.
  • DE 102 39 438 A1 beschreibt ein Navigationsgerät umfassend ein Lesegerät für Datenträger, eine Recheneinheit zum Aufbereiten von Navigationsdaten, die von dem Lesegerät über ein Wiedergabegerät gelesen werden, und eine Isolationseinheit zum Isolieren oder Blockieren eines Teils der Navigationsdaten.
  • Kurze Zusammenfassung
  • Einige Ausführungsformen der Erfindung stellen eine Vorrichtung bereit, die eine Navigationsanwendung mit einigen neuartigen Merkmalen beinhaltet. In einigen Ausführungsformen hat die Vorrichtung einen berührungsempfindlichen Bildschirm, der die Ausgabe von der Anwendung anzeigt und eine Mehrfachberührungsschnittstelle, die es einem Nutzer erlaubt, Berührungseingaben und gestische Eingaben durch den Bildschirm bereitzustellen, um mit der Anwendung zu interagieren.
  • In einigen Ausführungsformen beinhalten die neuartigen Merkmale der Navigationsanwendung (1) mehrere verschiedene Ansichten (z.B. eine zweidimensionale Punkt-zu-Punkt-Ansicht, eine dreidimensionale Punkt-zu-Punkt-Ansicht, eine Gesamtrouten-Ansicht, usw.) und glatte Übergänge zwischen diesen Ansichten während der Navigation, (2) neuartige Benutzerschnittstellensteuerungen (User Interface, UI) für Navigation, (3) realistisch aussehende Straßenschilder zur Identifizierung von Manövern entlang der Navigationsroute, (4) dynamische Erzeugung von Instruktionen und Richtungsindikatoren für Straßenschilder und andere Darstellungen von identifizierten Manövern, (5) informative Navigationsanzeigen, wenn die Navigationsanwendung im Hintergrund der Vorrichtung betrieben wird, (6) neuartige Stimmenerkennungs-Navigationsführung und (7) Integration mit anderen Routenanwendungen, die in oder für die Vorrichtung verfügbar sind.
  • Während in verschiedenen Ausführungsformen all diese Merkmale ein Teil der Navigationsanwendung sind, verwenden andere Ausführungsformen nicht alle diese Merkmale in der Navigationsanwendung. Auch ist in einigen Ausführungsformen die Navigationsanwendung Teil einer integrierten Kartenanwendung, die verschiedene andere nützliche Operationen bereitstellt, einschließlich eine Ortsdurchsuchung, eine Kartensuche und Routenidentifizierungsoperationen. Jedoch wird der Fachmann erkennen, dass in anderen Ausführungsformen die Navigationsanwendung eine alleinstehende Anwendung ist, die einige oder alle dieser anderen Operationen nicht beinhaltet.
  • Jedes der oben beschriebenen Merkmale ist hier beschrieben. Wie oben erwähnt stellt die Navigationsanwendung in einigen Ausführungsformen mehrere verschiedene Ansichten der Navigation und glatte Übergänge zwischen diesen Ansichten bereit. In einigen Ausführungsformen beinhalten Beispiele solcher Ansichten eine zweidimensionale (2D) Punkt-zu-Punkt- Ansicht, eine dreidimensionale (3D) Punkt-zu-Punkt- Ansicht und eine Gesamtrouten-Ansicht. In einigen Ausführungsformen erzeugt die Anwendung die Punkt-zu-Punkt-Ansicht aus einer perspektivischen Wiedergabeposition innerhalb einer 3D-Navigationsszene, die von der Vorrichtung wiedergegeben wird. Die perspektivische Wiedergabeposition ist in einigen Ausführungsformen einstellbar und kann als eine virtuelle Kamera betrachtet werden, die die 3D-Navigationsszene aus einer Vielzahl von verschiedenen Perspektiven erfassen kann (z.B. aus einer Vielzahl von verschiedenen Positionen und Ausrichtungen). Dementsprechend ist in einigen Ausführungsformen die Punkt-zu-Punkt-Navigation eine animierte Ausgabe der Navigationsroute, die vom Blickwinkel einer virtuellen Kamera ausgegeben wird, die entlang der Routenrichtung basierend auf der durchlaufenen Richtung und Geschwindigkeit des Benutzers, der die Vorrichtung trägt, durchläuft, welche in einigen Ausführungsformen von Richtungsdaten (z.B. GPS-Daten, triangulierte Mobilfunkmastdaten usw.) verbunden mit der Vorrichtung, erfasst werden.
  • Während der Navigation erlaubt die Navigationsanwendung in einigen Ausführungsformen einem Benutzer, die Position der virtuellen Kamera zu ändern (z.B. die Position, von welcher aus die Navigationsroute ausgegeben wird) durch gestische Eingabe auf dem Bildschirm der Vorrichtung. Die Bewegung der virtuellen Kamera (z.B. Bewegung von der Position, von welcher aus die Route ausgegeben wird) erlaubt der Navigationsanwendung alternative 3D-Ansichten darstellen. Einige Ausführungsformen verwenden die virtuelle Kamera sogar zur Wiedergabe einer von oben nach unten 2D-Ansicht für die Punkt-zu-Punkt-Navigation, während andere Ausführungsformen die von oben nach unten 2D-Ansicht durch Hinein- und Herauszoomen einer 2D-Karte wiedergeben.
  • In einigen Ausführungsformen stellt die Navigationsanwendung eine 3D-Steuerung (z.B. einen Knopf) dar, die sowohl als ein 3D-Indikator als auch als ein 3D-Initiator/Umschalter dient. Die 3D-Steuerung ist in einigen Ausführungsformen als eine schwebende Steuerung implementiert, die über der 2D- oder 3D-Navigationsdarstellung „schweben“ kann, wenn erforderlich, und aus der Darstellung heraus „schweben" kann, wenn nicht erforderlich. Diese Steuerung dient auch als ein Indikator, dass die aktuelle Ansicht eine 3D-Ansicht ist. Die 3D-Steuerung kann unterschiedliche Erscheinungen haben (z.B. gefärbt in grau, schwarz, blau, usw.), um unterschiedliche Angaben bereitzustellen. In einigen Ausführungsformen ist die 3D-Steuerung grau, wenn keine 3D-Daten für den aktuellen Ort des Benutzers verfügbar sind, schwarz, wenn die 3D-Daten verfügbar sind, aber der Benutzer die Karte derzeit in 2D betrachtet und violett, wenn der Benutzer die Karte im 3D-Modus betrachtet. In einigen Ausführungsformen zeigt die 3D-Steuerung ein Bild von einem Gebäude an, wenn der Benutzer an einer bestimmten Zoomstufe ist und stellt einen „Überflug“ von Gebäuden in der Gegend bereit, wenn diese vom Benutzer ausgewählt wird. Es stellt auch einen schnellen Mechanismus zum Ein- und Ausstieg aus der 3D-Navigation bereit. Wie weiter unten beschrieben, erlaubt die Navigationsanwendung Übergänge zwischen den 2D- und 3D-Navigationsansichten durch andere gestische Eingaben von der Mehrfachberührungsschnittstelle der Vorrichtung.
  • Die Navigationsanwendung verwendet in einigen Ausführungsformen schwebende Steuerungen, um die Steuerungen auf dem Bildschirm minimal zu halten und dabei so viel wie möglich von der interaktiven Navigation anzuzeigen. In einigen Ausführungsformen sind die schwebenden Steuerungen ein Teil einer Gruppe von Steuerungen, die sich der vorliegenden Aufgabe anpasst indem sie ihre Inhalte in einer animierten Art anpasst, wenn ein Benutzer sich zwischen unterschiedlichen Navigationsansichten bewegt oder sich zwischen unterschiedlichen Anwendungsmodalitäten für Ausführungsformen bewegt, in denen die Navigation nur eine von mehreren Modalitäten von einer anderen Anwendung ist. Diese adaptive Natur erlaubt es der Navigationsanwendung sich für unterschiedliche Aufgaben zu optimieren, während sie ein konsistentes Aussehen und ein Interaktionsmodel beibehält, während sie sich zwischen diesen Aufgaben bewegt.
  • Wenn die Navigationsanwendung in einigen Ausführungsformen eine Navigationsdarstellung startet, (1) versteckt die Anwendung automatisch die schwebenden Steuerungen und einen Balken (andere UI-Steuerungen enthaltend) oben auf einer Karte, entlang welcher die Navigation angezeigt wird, und (2) startet eine Vollbild-Punkt-zu-Punkt-Navigationsdarstellung. In diesem Modus schränkt die Anwendung Berührungsinteraktionen mit der Karte ein. In einigen Ausführungsformen ist ein Tippen erforderlich, um auf die Steuerungen, die automatisch versteckt wurden, zuzugreifen. In einigen Ausführungsformen sind diese Steuerungen zu einem Vollbild-Navigationsaussehen hin angepasst, das eine hervorstechende Anzeige der voraussichtlichen Ankunftszeit (Estimated Time of Arrival, ETA) im oberen Balken beinhaltet.
  • In einigen Ausführungsformen ist eine der Steuerungen in dem oberen Balken ein Übersichtsknopf. Durch Selektieren dieses Knopfes zu einem beliebigen Zeitpunkt während der Navigation kann ein Benutzer nahtlos zwischen dem Vollbild; Punkt-zu-Punkt-Darstellung, die eine optimierte Ansicht für Punkt-zu-Punkt-Anweisungen anzeigt; und eine Übersichtsdarstellung, die eine Ansicht der verbleibenden Route anzeigt, welche das Durchsuchen besser unterbringt, wechseln.
  • In einigen Ausführungsformen stellt die konstante Menge an Steuerungen und der vorhandene Übergang in der Karte Kontinuität zwischen dem Übersichtsmodus und dem Vollbildschirmmodus bereit. Diese Steuerungen beinhalten auch eine Steuerung, die es dem Benutzer erlaubt, die Navigation entweder im Übersichtsmodus oder im Vollbildschirmmodus zu beenden. Einige Ausführungsformen erlauben auch eine Durchführung einer Suche während der Navigation. Zum Beispiel stellen einige Ausführungsformen einen Herunterziehgriff bereit, der es erlaubt, das Suchfeld während des Navigierens im Übersichtsmodus in die Übersichtsanzeige zu ziehen. Alternativ, oder verbindend, ermöglichen einige Ausführungsformen die Durchführung von Suchen während der Navigation durch eine Spracherkennungseingabe der Vorrichtung in einigen Ausführungsformen. In einigen Ausführungsformen erlaubt die Anwendung einem Benutzer auch die Durchführung von Suchen (z.B. sprachinitiiertes und/oder textbasiertes Suchen) während der Punkt-zu-Punkt-Navigation. Die Navigationsanwendung einiger Ausführungsformen erlaubt auch eine Navigation, die durch Spracherkennungseingabe der Vorrichtung initiiert wird.
  • Während der Navigation erlaubt die Navigationsanwendung verschiedener Ausführungsformen dem Benutzer auch einige gestische Eingaben ohne Referenz zu den schwebenden Steuerungen oder den Steuerungen des oberen Balkens bereitzustellen. Zum Beispiel stellen unterschiedliche Ausführungsformen unterschiedliche gestische Eingaben für die Anpassung der 2D/3D-Ansicht während der Punkt-zu-Punkt-Navigation bereit. In einigen Ausführungsformen ist die gestische Eingabe eine Zweifinger-Kneif-/Spreiz-Operation, um die Zoomstufe einzustellen. Diese Zoomstufeneinstellung stellt grundsätzlich die Position und Rotation der Kamera hinsichtlich der Routenrichtung ein und ändert dabei die 2D/3D perspektivische Ansicht der Routenrichtung. Alternativ stellen andere Ausführungsformen andere gestische Eingaben bereit (z.B. eine Fingerzugoperation), welche die Position der Kamera anstelle von oder zusätzlich zu der Zoomoperation ändern. In wieder anderen Ausführungsformen ändert eine gestische Eingabe (z.B. eine Fingerzugoperation) vorübergehend die Betrachtungsrichtung der Kamera, um einem Benutzer einen vorübergehenden Blick auf eine Seite der Navigationsroute zu erlauben. In diesen Ausführungsformen bringt die Anwendung die Kamera nach einer kurzen Zeitspanne zu ihrer vorigen Ansicht entlang der Route zurück.
  • Ein anderes neuartiges Merkmal der Navigationsanwendung sind die realistisch aussehenden Straßenschilder, die während der Navigation genutzt werden. In einigen Ausführungsformen sind die Schilder strukturierte Bilder, die eine starke Ähnlichkeit zu tatsächlichen Highway-Schildern haben. Diese Schilder beinhalten in einigen Ausführungsformen anweisende Pfeile, Text, Schilder und Distanz. Die Navigationsanwendung einiger Ausführungsformen stellt eine breite Anzahl von Schildvarianten in einer großen Anzahl von unterschiedlichen Kontexten dar. Auch stellt die Anwendung in einigen Ausführungsformen Schilder in unterschiedlichen Farben gemäß den regionalen Normen dar.
  • Für Manöver, die nahe beieinander liegen, stellt die Anwendung in einigen Ausführungsformen ein sekundäres Schild unter dem primären Schild dar. Die Navigationsanwendung animiert auch, nachdem das Manöver absolviert ist, das Vorbeiziehen des Schildes mit einer Bewegung, die ein Schild, das auf dem Highway vorbei zieht, nachahmt. Wenn ein bevorstehendes Manöver sich nähert, macht die Navigationsanwendung mit einer subtilen Animation (z.B. einem Schimmern über das gesamte Schild) auf das Schild aufmerksam.
  • In einigen Ausführungsformen generiert die Navigationsanwendung dynamische Instruktionen für ein Straßenschild und andere Darstellungen (z.B. eine Listenansicht), die mit einem Navigationsmanöver zusammenhängen, basierend auf dem Kontext, unter welchem die Anwendung das Schild oder eine Darstellung anzeigt. Für einen gegebenen Kontext wird die Textanweisung ausgewählt durch berücksichtigen von Faktoren, wie beispielsweise der verfügbare Raum, die Verfügbarkeit von, in anderer Weise als durch Text, übertragenen Informationen (z.B. die Verfügbarkeit von Sprachführung), die lokalisierte Länge jeder Instruktionsvariante, die Größe des Anzeigebildschirms der Vorrichtung usw.. Durch lokales Aufbauen und Evaluieren mehrerer Alternativen kann die Anwendung in jedem Szenario eine optimale Instruktionszeichenkette auswählen.
  • Ebenso generiert die Navigationsanwendung einiger Ausführungsformen adaptiv grafische Richtungsindikatoren für ein Straßenschild und andere Darstellungen (z.B. eine Listenansicht), die mit einem Navigationsmanöver assoziiert ist, basierend auf einem Kontext unter welchem die Anwendung das Schild oder eine Darstellung anzeigt. Zum Beispiel wenn ausreichend Platz auf einem Schild oder einer Darstellung für die Benutzung eines größeres Schildes ist, identifiziert die Navigationsanwendung einiger Ausführungsformen ein durchzuführendes Manöver, das an einem Verbindungspunkt entlang der Route durch Nutzung eines größeren grafischen Richtungsindikatoren auszuführen ist, das (1) einen hervorstechenden stilisierten Pfeil, der grob den Pfad des Fahrzeugs repräsentiert, und (2) eine weniger betonte Menge von Linien und Kurven entsprechend zu anderen Elementen des Verbindungspunkts beinhaltet. In einigen Ausführungsformen, die diese Herangehensweise verwenden, wird ein Rechtsabbiegen an einer T-Kreuzung durch einen großen Pfeil mit einem rechten Winkel mit einem kleineren, dunkleren (dimmer) Segment verbunden, welches zu einem der Segmente des großen Pfeils parallel verläuft, dargestellt. Das kleinere Segment wird in einigen Ausführungsformen auch auf die Seite abgeschoben, so dass der Pfad, welcher von dem Fahrzeug genommen wird, dominiert.
  • So eine Darstellung eines Manövers (die einen hervorstechenden stilisierten Pfeil und eine weniger betonte Menge von Linien beinhaltet) stellt recht komplette Informationen über das Manöver dar, während es abstrakt und leicht verständlich bleibt. Allerdings kann es sein, dass kein ausreichender Raum auf dem Schild oder auf einer anderen Darstellung für eine solche Darstellung in anderem Kontext vorhanden ist. Dementsprechend verwendet die Navigationsanwendung für solche Fälle in einigen Ausführungsformen eine alternative Darstellung des Manövers, die die Anzeige des Verbindungspunktes weglässt und stattdessen nur einen Pfeil für die Richtung der Bewegung anzeigt.
  • Um entweder den hervorstechenden stilisierten Pfeil oder den vereinfachten Pfeil für ein Verbindungspunktmanöver entlang der Route zu generieren, empfängt die Navigationsanwendung in einigen Ausführungsformen eine Beschreibung des Verbindungspunkts und des Manövers von einem Server. In einigen Ausführungsformen führt der Server einen automatisierten Prozess zum Erzeugen dieser Beschreibung basierend auf den Kartendaten aus und stellt diese Informationen hinsichtlich komprimierter geometrischer Punktdaten bereit. Auch liefert der Server am Anfang einer Routennavigation in einigen Ausführungsformen der Navigationsanwendung die Beschreibung von allen Verbindungspunkten und Manövern entlang der Route und aktualisiert diese Beschreibung gelegentlich, wenn der Benutzer von der Route abweicht und der Server eine neue Route berechnet.
  • Wenn die Navigationsanwendung die Verbindungspunkte und Manöverbeschreibung empfängt, führt die Anwendung in einigen Ausführungsformen initial einen Prozess zum Vereinfachen der Charakterisierung des Verbindungspunktes und der Manöver aus und verwendet diese vereinfachte Charakterisierung dann zum Erzeugen von hervorstechenden stilisierten grafischen Richtungsindikator für den Verbindungspunkt. Zum Anzeigen eines Manövers an einem Verbindungspunkt stellen einige Navigationsanwendungen oft einen schlichten Pfeil bereit, welcher nicht auf den Verbindungspunkt bezogen ausgedrückt wird und welcher nicht viele Informationen bestimmt, während andere Navigationsanwendungen eine sehr detaillierte Darstellung des Verbindungspunktes und eine komplexe Richtungsdarstellung durch diese detaillierte Darstellung bereitstellen. Deshalb stellt eine existierende Herangehensweise sehr wenige Informationen bereit, während eine andere Herangehensweise so viele Informationen bereitstellt, dass es die Informationen praktisch unbrauchbar macht. Bei der Erzeugung von hervorstechenden stilisierten Richtungsindikatoren basierend auf der vereinfachten Beschreibung eines Verbindungspunkts, zeigt die Navigationsanwendung in einigen Ausführungsformen eine detaillierte Darstellung des Manövers an dem Verbindungspunkt an, während einige der unnötigen Komplexitäten des Verbindungspunktes eliminiert werden.
  • In einigen Ausführungsformen stellt die Navigationsanwendung Navigationsinstruktionen bereit, während die Anwendung im Hintergrund betrieben wird und sogar wenn die Vorrichtung gesperrt ist. In einigen Ausführungsformen ist die Vorrichtung gesperrt, wenn nur eine reduzierte Menge von Steuerungen verwendet werden kann, um Eingabe in die Vorrichtung bereitzustellen. Zum Beispiel beschränkt die Sperrung der Vorrichtung in einigen Ausführungsformen die Anzahl von Eingaben, welche ein Benutzer durch einen berührungsempfindlichen Bildschirm der Vorrichtung bereitstellen kann, außerordentlich.
  • In einigen Ausführungsformen sind die sprachgesteuerten Instruktionen ein Beispiel von Instruktionen, die während die Navigationsanwendung im Hintergrund betrieben wird oder während die Vorrichtung gesperrt ist, bereitgestellt werden können. Alternativ zu oder in Verbindung mit der Sprachsteuerung kann die Navigationsanwendung Text und/oder grafische Instruktionen in wenigstens zwei Modi während des Hintergrundbetriebs bereitstellen.
  • Zuerst gliedert die Anwendung in einigen Ausführungsformen eine Live-Navigationsansicht (z.B. eine Punkt-zu-Punkt-Ansicht) in den Hintergrund des Sperrbildschirms ein, die Text und grafische Navigationsbeschreibungen in der Sperrbildschirmansicht beinhaltet. Mit dieser Darstellung kann der Benutzer die Navigationsinstruktionen sehen, während die Anwendung im Hintergrund läuft, ohne die Vorrichtung zu entsperren. In einigen Ausführungsformen verfeinert die Anwendung zusätzlich die Sperrbildschirmerfahrung durch Senden von Benachrichtigungen, die normalerweise den Raum, der von der Navigationsansicht genommen ist, besetzen, an eine Schublade in der Sperrbildschirmansicht, welche in einigen Ausführungsformen sofort durchgeführt wird, während in anderen Ausführungsformen es nach einer kurzen Zeitspanne durchgeführt wird, in welcher die Benachrichtigung auf dem Sperrbildschirm gezeigt wird. Immer wenn ein Benutzer die Vorrichtung entsperrt, gehen auch einige Ausführungsformen ohne Animation zu der Navigationsansicht zurück, um eine nahtlose Erfahrung zu erzeugen.
  • In einigen Ausführungsformen schaltet die Anwendung die Sperrbildschirmnavigationsanzeige nach einer Zeitspanne aus, wenn keine Manöver bevorstehen. Allerdings erhellt die Anwendung in einigen dieser Ausführungsformen den Bildschirm, wenn es einem bevorstehenden Manöver näherkommt und/oder neue Navigationsinstruktionen bereitgestellt werden müssen. Dies ist eine kleine Menge an Zeit relativ zu der Dauer jedes Schrittes, so dass die Anzeige der Navigationsinstruktionen nicht auf Kosten von merklich verminderter Batterielebensdauer geht. Um die Erfahrung zu verbessern, aktiviert die Navigationsanwendung in einigen Ausführungsformen einen Umgebungslichtsensor lange vor der Navigationsaufforderung, so dass die Umgebungslichteinstellungen zum Erhellen des Bildschirms in der korrekten Helligkeit genutzt werden können, wenn die Zeit kommt, um die Navigationskarte zu zeigen.
  • Zweitens wird in einigen Ausführungsformen die Navigationsanwendung im Hintergrund betrieben, sogar wenn die Vorrichtung entsperrt ist. Dies ist der Fall, wenn die Navigationsanwendung auf einer Vorrichtung betrieben wird (z.B. einem Smartphone), die mehrere andere Anwendungen ausführt. In solch einer Vorrichtung würde die Navigationsanwendung im Hintergrund betrieben werden, wenn die Vorrichtung eine Ansicht (z.B. eine Seite) darstellt, die vom Betriebssystem der Vorrichtung bereitgestellt wird, oder eine Ansicht, die von einer anderen Anwendung auf der Vorrichtung bereitgestellt wird.
  • Wenn die Navigationsanwendung in einigen Ausführungsformen im Hintergrund auf einer entsperrten Vorrichtung betrieben wird, (1) verwendet die Vorrichtung einen Statusbalken doppelter Höhe, um die Hintergrundoperationen der Navigationsanwendung anzugeben, wenn weit von einem bevorstehenden Manöver entfernt, und (2) verwendet ein schildähnlichen Navigationsbanner, das eine dynamisch aktualisierte Distanz zu einem Manöver beinhaltet bei Annäherung an ein Manöver, oder wenn Führungsanweisungen hörbar sind. Zusätzlich erhält die Anwendung das schildähnliche Banner aufrecht bis das Manöver abgeschlossen ist und unterdrückt andere Benachrichtigungen in diesem Raum. Eine Auswahl von entweder dem Statusbalken doppelter Höhe oder dem Navigationsbanner leitet in einigen Ausführungsformen die Vorrichtung dazu, zu einer von der Navigationsanwendung genierten Navigationsansicht zu wechseln.
  • Die oben beschriebenen Merkmale sowie einige andere Merkmale der Navigationsanwendung einiger Ausführungsformen sind unten weiter beschrieben. In der vorangegangenen und nachfolgenden Beschreibung werden viele der Merkmale als Teil einer integrierten Kartenanwendung beschrieben, die eine neuartige Ortsdurchsuchung, Ortssuche, Routenidentifizierung und Routennavigationsoperationen bereitstellen. Allerdings wird der Fachmann erkennen, dass diese neuartigen Operationen in anderen Ausführungsformen von Anwendungen ausgeführt werden, die nicht alle diese Operationen ausführen oder andere Operationen zusätzlich zu diesen Operationen ausführen.
  • Die vorangegangene Zusammenfassung ist beabsichtigt als eine kurze Einleitung zu einigen Ausführungsformen der Erfindung zu dienen. Diese beabsichtigt keine Einleitung oder Übersicht des gesamten in diesem Dokument offenbarten erfinderischen Gegenstands zu sein. Die nachfolgende detaillierte Beschreibung und die Zeichnungen, die in der detaillierten Beschreibung referenziert werden, werden die Ausführungsformen, welche in der Zusammenfassung beschrieben wurden, sowie andere Ausführungsformen weiter beschreiben. Um dementsprechend alle Ausführungsformen, die in diesem Dokument beschrieben sind, zu verstehen, ist eine vollständige Bewertung der Zusammenfassung, der detaillierten Beschreibung und der Zeichnungen notwendig. Außerdem sind die beanspruchten Gegenstände nicht durch die erklärenden Details in der Zusammenfassung der detaillierten Beschreibung und den Zeichnungen einzuschränken, sind jedoch eher durch die angehängten Ansprüche zu definieren, weil die beanspruchten Gegenstände in anderen spezifischen Formen verkörpert werden können, ohne vom Geist der Gegenstände abzuweichen.
  • Kurze Beschreibung der Zeichnungen
  • Die neuartigen Merkmale der Erfindung sind in den angehängten Ansprüchen dargelegt. Aus Erklärungsgründen sind allerdings mehrere Ausführungsformen der Erfindung in den nachfolgenden Figuren dargelegt.
    • 1 veranschaulicht ein Beispiel einer Vorrichtung, die eine integrierte Kartenanwendung einiger Ausführungsformen der Erfindung ausführt.
    • 2 veranschaulicht ein Beispiel mittels drei Phasen einer Benutzerinteraktion mit der Kartenanwendung, um Routenanweisungen zu erhalten.
    • 3 veranschaulicht, wie die Navigationsanwendung einiger Ausführungsformen die 3D-Steuerung als schnellen Mechanismus bereitstellt, um in den 3D-Navigationsmodus hineinzukommen.
    • 4 veranschaulicht eine Vorrichtung, die eine Kartenanwendung anzeigt, während die Anwendung von einer nicht immersiven Kartenansicht für Kartendurchsuchung in eine immersive Kartenansicht für Navigation übergeht.
    • 5 stellt ein vereinfachtes Beispiel zur Veranschaulichung des Konzepts einer virtuellen Kamera dar.
    • 6 veranschaulicht, dass die Kartenanwendung einiger Ausführungsformen die Erscheinung der 3D-Steuerung ändert, um verschiedene 2D- und 3D-Zustände der Kartenansicht anzugeben.
    • 7 veranschaulicht den Wechsel zwischen einem 3D-Modus zu einem 2D-Modus in einigen Ausführungsformen.
    • 8 veranschaulicht die Anpassung der Distanz von einer virtuellen Kamera durch zusammenziehende und expandierende Gesten.
    • 9 veranschaulicht eine Ausführungsform einer Kamera, deren Winkel durch Gesten angepasst werden kann.
    • 10 veranschaulicht konzeptionell ein Merkmal, welches von der Kartenanwendung einiger Ausführungsformen bereitgestellt wird, zur Aufrechterhaltung der Position einer virtuellen Kamera innerhalb eines definierten Bereichs entlang eines Bogens.
    • 11 veranschaulicht einen Vollbildschirmmodus einiger Ausführungsformen.
    • 12 veranschaulicht die Navigationsanwendung mit den versteckten und offengelegten Steuerungen während eines Telefonanrufs auf der Vorrichtung in einigen Ausführungsformen.
    • 13 veranschaulicht das Ende einer geplanten Route in einigen Ausführungsformen.
    • 14 veranschaulicht eine Steuerung zum Beenden des Navigationsprogramms in einigen Ausführungsformen.
    • 15 veranschaulicht die Rotation einer Karte, wenn ein Benutzer diese seitwärts in einigen Ausführungsformen schiebt.
    • 16 und 17 veranschaulichen Übersicht-Steuerungen in einigen Ausführungsformen.
    • 18 veranschaulicht konzeptionell eine Verarbeitungs- oder Kartenwiedergabe-Pipeline, ausgeführt von der Kartenanwendung einiger Ausführungsformen, um eine Karte wiederzugeben für eine Anzeige auf der Clientvorrichtung.
    • 19A und 19B veranschaulichen konzeptionell ein Zustandsdiagramm, welches unterschiedliche Zustände und Übergänge zwischen diesen Zuständen der integrierten Karten-, Such- und Navigationsanwendung einiger Ausführungsformen beschreibt (z.B. die Anwendung, welche in den vorangegangen Abschnitten beschrieben wurde).
    • 20 veranschaulicht mehrere Szenarien von grafischen Benutzeroberflächen (Graphical User Interface, GUI), in welchen solche Highway-Schilder in einigen Ausführungsformen verwendet werden.
    • 21 veranschaulicht mehrere unterschiedliche Szenarien, in welchen die Kartenanwendung unterschiedliche Arten von grafischen Indikatorpfeilen zur visuellen Darstellung von Manövern für einen Benutzer in einigen Ausführungsformen anzeigt.
    • 22 veranschaulicht mehrere Szenarien für das gleiche Abbiegen und wie die unterschiedlichen Pfeile für das gleiche Abbiegen in einigen Ausführungsformen genutzt werden könnten.
    • 23 veranschaulicht ein Beispiel der Synthese von unterschiedlichen Instruktionen für ein bestimmtes Manöver an einem Verbindungspunkt entsprechend einiger Ausführungsformen.
    • 24 veranschaulicht mehrere unterschiedliche Szenarien, in welchen die Kartenanwendung unterschiedliche Beispiele von adaptiven Instruktionen für das bestimmte Manöver von dem ersten Verbindungspunkt in einer Vielzahl von unterschiedlichen Situationen anzeigt.
    • 25 veranschaulicht zusätzliche Szenarien, in welchen die Kartenanwendung die synthetisierte Instruktionsmenge in einigen Ausführungsformen verwendet.
    • 26 veranschaulicht, über vier Phasen, die Animation einiger Ausführungsformen zum Entfernen eines Navigationsschildes und die Einführung des nächsten Schildes.
    • 27 veranschaulicht solch eine Schimmeranimation über vier Phasen, welche den Hintergrund der Anzeige grau darstellt, um Kontrast zu dem Schimmer zu haben, während er sich über das Schild in einigen Ausführungsformen bewegt.
    • 28 veranschaulicht die Anzeige von zwei Schildern für Manöver in schneller Reihenfolge über vier Phasen in einigen Ausführungsformen.
    • 29 veranschaulicht eine Anzeige einer Benutzervorrichtung, wenn eine Navigation im Hintergrund ausgeführt wird in einigen Ausführungsformen der Erfindung.
    • 30 veranschaulicht konzeptionell eine Verarbeitung einiger Ausführungsformen zum Bereitstellen von Anweisungen während eine Navigationsanwendung im Hintergrund läuft.
    • 31 veranschaulicht eine Benutzerschnittstelle einiger Ausführungsformen, in welcher Navigationsinstruktionen gegeben werden, während die Anwendung im Hintergrund von anderen Anwendungen, läuft.
    • 32 veranschaulicht einen oben an der Anwendung angezeigten Navigationsbalken in einigen Ausführungsformen.
    • 33 veranschaulicht die Benutzerschnittstelle einer Vorrichtung in einigen Ausführungsformen, in der die Vorrichtung ihr Ziel erreicht, während die Navigationsanwendung im Hintergrund einer anderen Anwendung läuft.
    • 34 veranschaulicht die Interaktion zwischen einem Anrufstatusbalken und einem Navigationsinstruktionsbalken.
    • 35 veranschaulicht eine Vorrichtung einiger Ausführungsformen, die in den Sperrmodus übergeht, wobei die Navigationsanwendung weiterhin im Hintergrund läuft, und den Sperrmodus verlässt, wobei die Navigationsanwendung im Vordergrund läuft.
    • 36 veranschaulicht eine Vorrichtung einiger Ausführungsformen, die in den Sperrmodus übergeht, wobei die Navigationsanwendung im Vordergrund läuft und den Sperrmodus verlässt, wobei die Navigationsanwendung weiterhin im Vordergrund läuft.
    • 37 veranschaulicht eine Navigationsanwendung, die auf einer Sperrvorrichtung Wegbeschreibungen gemäß einigen Ausführungsformen der Erfindung gibt.
    • 38 veranschaulicht eine Sperrmodusansicht einiger Ausführungsformen, wenn die Vorrichtung ihr Ziel erreicht.
    • 39 veranschaulicht ein Sperransicht-Benachrichtigungssystem einiger Ausführungsformen.
    • 40 veranschaulicht die Ansicht von Benachrichtigungsnachrichten nach dem Entsperren einer Vorrichtung in einigen Ausführungsformen der Erfindung.
    • 41 veranschaulicht einen Prozess zum Einschalten des Vorrichtungsbildschirms beim Annähern an einen Navigationspunkt in einigen Ausführungsformen der Erfindung.
    • 42 veranschaulicht mehrere Phasen, die eine Vorrichtung durchläuft, wenn ihr keine Befehle gegeben werden, während eine Navigationsanwendung im Hintergrund in einigen Ausführungsformen der Erfindung läuft.
    • 43 veranschaulicht konzeptionell einen Prozess einiger Ausführungsformen zum Einschalten des Bildschirms, wenn eine Benachrichtigungsnachricht empfangen wird.
    • 44 ist ein Beispiel einer Architektur einer mobilen Rechenvorrichtung einiger Ausführungsformen.
    • 45 veranschaulicht konzeptionell ein Beispiel eines elektronischen Systems mit welchem einige Ausführungsformen der Erfindung implementiert sind.
    • 46 veranschaulicht eine Ausführungsumgebung eines Kartendienstes entsprechend einiger Ausführungsformen.
  • Detaillierte Beschreibung
  • In der folgenden detaillierten Beschreibung der Erfindung sind zahlreiche Details, Beispiele und Ausführungsformen der Erfindung dargelegt und beschrieben. Allerdings wird einem Fachmann klar und offensichtlich sein, dass die Erfindung nicht auf die dargelegten Ausführungsformen limitiert ist und dass die Erfindung ohne einige der spezifischen Details und diskutierten Beispiele ausgeübt werden kann.
  • 1. Navigationsbenutzerschnittstelle
  • A. Start
  • Die Navigationsanwendung einiger Ausführungsformen ist Teil einer integrierten Kartenanwendung, die mehrere nützliche Modalitäten beinhaltet, einschließlich Ortsdurchsuchungs-, Kartensuch-, Routenidentifizierungs- und Routennavigationsoperationen. Diese integrierte Anwendung (im Folgenden als Kartenanwendung, die Navigationsanwendung oder integrierte Anwendung bezeichnet) ist in einigen Ausführungsformen definiert durch eine Vorrichtung ausgeführt zu werden, die einen berührungsempfindlichen Bildschirm aufweist, welcher die Ausgabe der Anwendung anzeigt. In einigen Ausführungsformen hat diese Vorrichtung eine Mehrfachberührungsschnittstelle, um einem Benutzer zu erlauben, mit der Anwendung durch die Bereitstellung von Berührungs- und gestischen Eingaben über den Bildschirm zu interagieren. Beispiele solcher Vorrichtungen sind Smartphones (z.B. iPhone®, verkauft von Apple Inc., Telefone, die das Android®-Betriebssystem betreiben, Telefone, die das Windows 8®-Betriebssystem betreiben usw.).
  • 1 veranschaulicht ein Beispiel einer Vorrichtung 100, die eine integrierte Kartenanwendung einiger Ausführungsformen der Erfindung ausführt. Diese Figur veranschaulicht auch ein Beispiel vom Starten einer Routennavigation in dieser Anwendung. Diese Anwendung hat ein neuartiges Design einer Benutzerschnittstelle (UI), das nahtlos und zusammenhängend die Steuerungen für jede ihrer unterschiedlichen Modalitäten durch Nutzung einer minimalen Menge von sich auf dem Bildschirm befindenden Steuerungen integriert, welche über dem Inhalt schweben, um so viel wie möglich vom Inhalt anzuzeigen. Zusätzlich passt sich dieses Cluster der vorliegenden Aufgabe an, ihren Inhalt in einer animierten Weise einzustellen, wenn ein Benutzer sich zwischen den unterschiedlichen Modalitäten bewegt (z.B. zwischen Durchsuchen, Suchen, Leiten und Navigieren). Dieses gemeinsame Element mit einer adaptiven Natur ermöglicht der Kartenanwendung, sich für unterschiedliche Aufgaben zu optimieren, während ein konsistentes Aussehen und ein Interaktionsmodell während des Bewegens zwischen diesen Aufgaben, beibehalten wird.
  • 1 zeigt sechs Phasen 105, 110, 115, 117, 119, 121 von Interaktionen mit der Kartenanwendung. Die erste Phase 105 zeigt die UI 120 der Vorrichtung, welche mehrere Symbole von mehreren Anwendungen in einem Dockbereich 125 und auf einer Seite der UI beinhaltet. Eines der Symbole auf dieser Seite ist das Symbol für die Kartenanwendung 130. Die erste Phase zeigt eine Benutzerauswahl von der Kartenanwendung durch einen Berührungskontakt mit dem Vorrichtungsbildschirm an dem Ort dieser Anwendung auf dem Bildschirm.
  • Die zweite Phase 110 zeigt die Vorrichtung nachdem die Kartenanwendung geöffnet ist. Wie in dieser Phase gezeigt, hat die UI der Kartenanwendung eine Startseite, welche in einigen Ausführungsformen (1) eine Karte des aktuellen Orts der Vorrichtung und (2) mehrere, in einem oberen Balken 140 und als schwebende Steuerungen angeordnete UI-Steuerungen, zeigt. Wie 1 zeigt, beinhalten schwebende Steuerungen einen Indikator 145, eine 3D-Steuerung 150 und eine Seitenrollsteuerung .155, während der obere Balken 140 eine Anweisungssteuerung 160, ein Suchfeld 165 und eine Lesezeichensteuerung 170 beinhaltet.
  • In einigen Ausführungsformen kann ein Benutzer eine Suche durch Tippen in das Suchfeld 165 initiieren. Dies führt die Anwendung dazu, eine Animation darzustellen, die (1) eine sich auf dem Bildschirm befindende Tastatur darstellt und (2) eine Suchtabelle gefüllt mit überaus wertvollen Vervollständigungen öffnet. Diese Tabelle hat einige wichtige Feinheiten. Wenn das Suchfeld angetippt wird und bevor die Begriffe bearbeitet werden, oder wenn das Suchfeld leer ist, enthält die Tabelle eine Liste von „Letzten“, welche in einigen Ausführungsformen letzte Suchen und Routenanweisungen, die der Benutzer angefragt hat, sind. Dies macht es sehr einfach, um zuletzt zugegriffene Resultate hervorzubringen.
  • Nach einer beliebigen Eingabe auf dem Suchfeld ist die Tabelle gefüllt mit Suchvervollständigungen sowohl von lokalen Quellen (z.B. Lesezeichen, Kontakte, letzte Suchen, letzte Routenanweisungen usw.) als auch Fernservern. Die Eingliederung der Kontaktkarte des Benutzers in die Suchschnittstelle fügt dem Design zusätzliche Flexibilität hinzu. Wenn Letzte anzeigt werden, wird eine Route vom aktuellen Ort zu dem Zuhause des Benutzers immer in einigen Ausführungsformen angeboten, während sie in anderen Zusammenhängen, die für „angemessen“ gehalten werden, in anderen Ausführungsformen angeboten werden. Auch wenn der Suchbegriff wenigstens einen Teil einer Adressbezeichnung (z.B. „ork“ für „Work“) entspricht, stellt die Anwendung die bezeichnete Adresse des Benutzers als eine Vervollständigung in der Suchtabelle in einigen Ausführungsformen dar. Zusammen machen diese Verhalten die Such-UI zu einer sehr mächtigen Art, um Resultate auf einer Karte von einer Vielzahl an Quellen zu erhalten. Zusätzlich zum einem Benutzer Erlauben, eine Suche zu initiieren, erlaubt die Anwesenheit des Textfeldes in der primären Kartenansicht in einigen Ausführungsformen auch Benutzern die Anfrage entsprechend der Suchresultate auf der Karte zu sehen und diese Suchresultate durch Löschen der Anfrage zu entfernen.
  • Die Lesezeichensteuerung 170 (z.B. Knopf) erlaubt Orten und Routen, von der Anwendung markiert zu werden. Der Positionsindikator 145 erlaubt es, die aktuelle Position der Vorrichtung speziell auf der Karte zu vermerken. Sobald dieser Indikator ausgewählt ist, behält die Anwendung die aktuelle Position der Vorrichtung im Zentrum der Karte bei. In einigen Ausführungsformen kann es auch die Richtung identifizieren, in welche die Vorrichtung aktuell zeigt.
  • Die 3D-Steuerung 150 ist eine Steuerung zum Betrachten einer Karte oder zum Ansehen einer Route in drei Dimensionen (3D). Die Kartenanwendung stellt die 3D-Steuerung als einen schnellen Mechanismus zum Hinein- und Hinauskommen aus 3D bereit. Diese Steuerung dient auch als (1) ein Indikator, dass die aktuelle Ansicht eine 3D-Ansicht ist, (2) ein Indikator, dass eine 3D-Perspektive für eine gegebene Kartenansicht verfügbar ist (z.B. eine Kartenansicht, die herausgezoomt ist, hat womöglich eine 3D-Ansicht verfügbar), (3) ein Indikator, dass eine 3D-Perspektive nicht verfügbar ist (z.B. die 3D-Daten sind für die Kartenregion nicht verfügbar) und (4) ein Indikator, dass eine Überfluganimation an der gegebenen Zoomstufe verfügbar ist. Die 3D-Steuerung kann eine unterschiedliche Erscheinung entsprechend jeder Angabe bereitstellen. Zum Beispiel kann die 3D-Steuerung grau eingefärbt sein, wenn die 3D-Ansicht nicht verfügbar ist, schwarz, wenn die 3D-Ansicht verfügbar, aber die Karte in der 2D-Ansicht ist und blau, wenn die Karte in der 3D-Ansicht ist. In einigen Ausführungsformen ändert sich die 3D-Steuerung zu einem Bild von einem Gebäude, wenn die Überfluganimation für die gegebene Zoomstufe und den Ort auf der Karte des Benutzers verfügbar ist.
  • Die Seitenrollsteuerung 155 ist eine Steuerung, die es der Anwendung erlaubt, die Anzahl von sich auf dem Bildschirm befindenden Steuerungen zu minimieren, durch Platzierung von einigen weniger häufig benutzten Aktionen in einen sekundären UI-Bildschirm, der durch die Seitenrollsteuerung, die auf der Karte angezeigt ist, zugreifbar ist. In einigen Ausführungsformen wird die Seitenrolle permanent auf wenigstens einigen der Kartenansichten, die die Anwendung bereitstellt, angezeigt. Zum Beispiel zeigt in einigen Ausführungsformen die Anwendung die Seitenrolle permanent auf der Startseite an(veranschaulicht in der zweiten Phase 110), die es bereitstellt, einem Benutzer zu erlauben zu durchsuchen oder einen Ort zu suchen oder eine Route zu identifizieren.
  • Die Anweisungssteuerung 160 öffnet eine Anweisungseintragsseite 180 durch welche ein Benutzer eine Route anfragen kann, welche zwischen einem Startort und einem Endort zu identifizieren ist. Die dritte Phase 115 von 1 veranschaulicht, dass die Auswahl der Anweisungssteuerung 160 die Anweisungseintragsseite 180 öffnet, welche in der vierten Phase 117 gezeigt wird. Die Anweisungssteuerung ist einer von drei Mechanismen, durch welchen die Kartenanwendung dazu geführt werden kann, eine Route zwischen zwei Orten zu identifizieren und anzuzeigen; die zwei anderen Mechanismen sind (1) eine Steuerung in einem Informationsbanner, welcher für ein selektiertes Element in der Karte angezeigt wird, und (2) letzte, durch die Vorrichtung identifizierte Routen, die in dem Suchfeld 165 angezeigt werden. Dementsprechend sind die Informationsbannersteuerung und das Suchfeld 165 zwei UI-Werkzeuge, die die Anwendung einsetzt, um den Übergang zwischen den unterschiedlichen Modalitäten nahtlos zu machen.
  • Die vierte Phase 117 zeigt, dass die Anweisungseintragsseite 180 Start- und Endfelder beinhaltet, um Start- und Endort für eine Route bereitzustellen und eine Tabelle, welche letzte Routen, die die Anwendung dem Benutzer bereitgestellt hat, auflistet. Andere Steuerungen auf dieser Seite sind Steuerungen zum Starten einer Route, zum Umkehren der Reihenfolge von Start- und Endort, zum Abbrechen der Anweisungsanfrage, zum Auswählen von Geh-, Auto- oder öffentlichen Verkehrstransitrouten. Diese Steuerungen und andere Aspekte der Kartenanwendung sind beschrieben in der US-Patentanmeldung 13/632,102 mit dem Titel „Problem Reporting in Maps“, eingereicht am 30. September 2012. Die US-Patentanmeldung 13/632,102 ist hier durch Verweis einbezogen.
  • Die vierte Phase veranschaulicht die Benutzerauswahl einer der letzten Richtungen, die in der Tabelle 182 automatisch befüllt waren. Die fünfte Phase 119 zeigt anschließend drei Routen auf einer 2D-Kartenansicht zwischen den spezifizierten Start- und Endorten, welche durch die Seite 180 spezifiziert werden. Es zeigt auch die Auswahl der zweiten Route und einige Informationen über diese Route in einem Balken an dem oberen Ende des Aufbaus. Dieser Balken wird gezeigt, um Start- und Beenden-Knöpfe zu beinhalten. Der Start-Knopf wird selektierend in der fünften Phase gezeigt.
  • Wie in der sechsten Phase gezeigt wird, leitet die Auswahl des Start-Knopfes die Anwendung dazu, einen Punkt-zu-Punkt-Navigationsmodus zu betreten. In diesem Beispiel hat die Anwendung einen 2D-Punkt-zu-Punkt-Navigationsmodus betreten. In anderen Ausführungsformen wird die Anwendung standardmäßig einen 3D-Punkt-zu-Punkt-Navigationsmodus betreten. In diesem Modus zeigt die Anwendung ein realistisches Schild 184, das die Distanz vom aktuellen Ort der Vorrichtung zu dem nächsten Verbindungspunktmanöver in der zu navigierenden Route identifiziert, und einige andere sachdienliche Informationen. Die Anwendung zeigt auch einen oberen Balken, der einige Informationen über die Navigation sowie auch Beenden- und Übersichts-Knöpfe zum Beenden der Navigation bzw. Erhalten einer Übersicht von dem verbleibenden Anteil der zu navigierenden Route oder den ganzen Anteil von der zu navigierenden Route in anderen Ausführungsformen, beinhaltet.
  • Die Kartenanwendung identifiziert in einigen Ausführungsformen den Ort der Vorrichtung, indem sie die Koordinaten (z.B. Längs-, Höhen- und Breitenkoordinaten) in dem GPS-Signal verwendet, welches die Vorrichtung an dem Ort der Vorrichtung empfängt. Alternativ oder verbindend verwendet die Kartenanwendung andere Methoden (z.B. Mobilfunkmast-Triangulation), um den aktuellen Ort zu berechnen. Wenn der Benutzer, der die Vorrichtung trägt, von der Route abweicht, verfolgt die Kartenanwendung in einigen Ausführungsformen den Ort der Vorrichtung und berechnet eine neue Route von dem abgewichenen Ort neu, um den Benutzer zu dem Zielort vom abgewichenen Ort zurückzuführen. Mit anderen Worten benötigt die Kartenanwendung einiger Ausführungsformen, betrieben im Navigationsmodus, dass die Vorrichtung zu jeder Zeit auf der Route ist.
  • Die Anwendung zeigt weiterhin die schwebende 3D-Steuerung und die schwebende Listensteuerung an, welche oben beschrieben wurden. Es sollte angemerkt werden, dass die Listensteuerung anpassungsfähig zu dem schwebenden Steuerungscluster hinzugefügt wurde beim Hineinkommen in die Routenbesichtigungs- und Routennavigationsmodalitäten, während der Positionsindikator von der schwebenden Steuerung bei Eintritt in die Routennavigationsmodalität entfernt wurde. Auch beim Übergang vom Routenbesichtigungsmodus zu dem Routennavigationsmodus führt die Anwendung in einigen Ausführungsformen eine Animation durch, die ein komplettes Ausrollen der Seitenrolle involviert, bevor die Anwendung in die Navigationsdarstellung übergeht.
  • In einigen Ausführungsformen beinhaltet der Animationsübergang das Entfernen des oberen Balkens, seinen zugehörigen Steuerungen und den schwebenden Steuerungen von der Navigationsdarstellung und das Bewegen des Schildes 184 zu der oberen Kante der Darstellung eine kurze Zeitspanne nach dem Starten der Navigationsdarstellung. Wie weiter unten beschrieben benötigt die Anwendung das Benutzertippen auf die Navigationskarte, um den oberen Balken, seine Steuerungen und die schwebenden Steuerungen zurückzubringen und benötigt ein weiteres Tippen, um diese Steuerungen wieder von der Karte zu entfernen, in einigen Ausführungsformen. Andere Ausführungsformen stellen andere Mechanismen zum Betrachten und Entfernen dieser Steuerungen bereit.
  • Als anderer Weg, um dem Benutzer zu erlauben, Navigationserfahrung zu erhalten, stellt die Kartenanwendung in einigen Ausführungsformen ein UI-Element in einen Informationsbanner bereit, der durch einen Pin erscheint, welcher einen Punkt von Interesse (Point of Interest, POI) darstellt. 2 veranschaulicht ein Beispiel mittels drei Phasen 205-215 einer Benutzerinteraktion mit der Kartenanwendung, um Richtungsanweisungen zu erhalten. Dieses Beispiel ist bereitgestellt im Kontext des Verwendens eines Auto-Symbols 230
  • Die erste Phase 205 veranschaulicht eine Karte in einer 3D-Kartenansicht. Wie gezeigt, erscheint eine 3D-Stuerung 250 hervorgehoben, um darauf hinzuweisen, dass die Karte in einer 3D-Kartenansicht ist. Die erste Phase 205 veranschaulicht auch zwei Informationsbanner für die zwei Pins der Suche, resultierend von einer Durchführung einer Suche mit einer Suchanfrage „Pizza“, wie gezeigt. Der Benutzer selektiert das Auto-Symbol 230. Wie oben erwähnt, dient das Auto-Symbol 230 dem Zeigen einer oder mehrerer Routen zu dem Ort, der durch einen Pin, mit welchem der Banner, der das Auto-Symbol 230 beinhaltet, verbunden ist, dargestellt wird. Das Banner 240, welches das Auto-Symbol 230 beinhaltet, zeigt auch eine kurze Beschreibung des Ortes, eine Sternenbewertung und einen Pfeil zum Starten einer „Phase“ für den POI.
  • Die zweite Phase 210 veranschaulicht die zwei Routen, Route 1 und Route 2, die die Kartenanwendung in einigen Ausführungsformen als Antwort auf die Auswahl des Auto-Symbols 230 in der vorigen Phase 205 zeigt. Der Benutzer hat die Route 1 ausgewählt, wie durch die Hervorhebung der Route 1 angezeigt. Der Benutzer wählt auch den Start-Knopf. Wie oben erwähnt dient der Start-Knopf in einigen Ausführungsformen dem Starten der Navigation gemäß der ausgewählten Route.
  • Die dritte Phase 215 veranschaulicht, dass die Kartenanwendung ein Instruktionsschild 260 anzeigt, welches das Schild für die erste Instruktion ist. Die Kartenanwendung hat die Löschen-Steuerung 255 und den Start-Knopf durch einen Beenden-Knopf 270 und eine Übersichtssteuerung 275 in dem oberen Balken 140 ersetzt. Der Beenden-Knopf dient dem Beenden der Navigation der Route und die Übersichtssteuerung 275 dient dem Zeigen der gesamten Route in der Kartenansicht durch Anpassen der Zoomstufe von der angezeigten Karte, wenn ein Anpassen der Zoomstufe erforderlich ist, um die gesamte Route anzuzeigen. In einigen Ausführungsformen zeigt die Kartenanwendung in dem oberen Balken 140 die voraussichtliche Ankunftszeit (ETA), die Menge an Zeit, um zum Ziel zu gelangen und die verbleibende Distanz zum Ziel wie dargestellt an.
  • Wenn die Kartenanwendung eine Auswahl des Beenden-Knopfes erhält, während die Kartenanwendung im Routenbesichtigungsmodus betrieben wird, stoppt die Kartenanwendung in einigen Ausführungsformen die Besichtigung der ausgewählten Route durch Zurückgehen zu dem Kartendurchsuchungsmodus. In einigen Ausführungsformen geht die Kartenanwendung zurück zum Kartendurchsuchungsmodus durch Entfernen der ausgewählten Route aus der Karte, Zurücksetzen der Seitenrolle und Ersetzen der Informationen und Steuerung in dem oberen Balken mit einer Menge von anderen Steuerungen, einschließlich einer Anweisungssteuerung, einem Suchfeld und einer Lesezeichensteuerung. Das heißt, die Kartenanwendung nimmt die Erscheinung von der UI-Seite zurück zu einer UI-Seite ähnlich zu der in der ersten Phase 205 gezeigten UI-Seite. In einigen Ausführungsformen verschiebt die Kartenanwendung die Karte nicht in eine andere Region beim Wechseln zu dem Kartendurchsuchungsmodus vom Besichtigungsmodus.
  • B. 2D- und 3D-Navigation
  • In einigen Ausführungsformen kann die Navigationsanwendung eine Navigation entweder in einem 2D-Modus oder in einem 3D-Modus anzeigen. Wie oben erwähnt, ist eine der schwebenden Steuerungen die 3D-Steuerung 250, die es einem Benutzer erlaubt, eine Navigationsdarstellung in drei Dimensionen (3D) zu sehen. 3 veranschaulicht, wie die Navigationsanwendung in einigen Ausführungsformen die 3D-Steuerung 250 als einen schnellen Mechanismus zum Hineingehen in einen 3D-Navigationsmodus bereitstellt. Diese Figur veranschaulicht diese Operation in drei Phasen 305-315. Die erste Phase 305 veranschaulicht den Benutzer beim Auswählen der 3D-Steuerung 150 während eines Anschauens einer zweidimensionalen Navigationsdarstellung.
  • Die zweite Phase 310 veranschaulicht die Navigationsdarstellung inmitten ihres Übergangs in eine 3D-Darstellung. Wie in dieser Figur gezeigt, erscheint die 3D-Steuerung hervorgehoben in dieser Phase, um anzugeben, dass die Navigationsdarstellung einen 3D-Modus betreten hat. Wie oben erwähnt, generiert die Navigationsanwendung die 3D-Ansicht der navigierten Karte in einigen Ausführungsformen durch Wiedergabe der Kartenansicht aus einer bestimmten Position in der dreidimensionalen Szene, die konzeptionell als die Position einer virtuellen Kamera, die die Kartenansicht aufnimmt, gedacht werden kann. Diese Wiedergabe ist weiter unten beschrieben mit Bezug zu 5.
  • Die dritte Phase 315 veranschaulicht dann die Navigationsdarstellung am Ende ihres Übergangs in ihre 3D-Erscheinung. Wie durch die Differenz zwischen den Höhen der Gebäude in der zweiten und dritten Phase gezeigt, schließt der Übergang von 2D- nach 3D-Navigation in einigen Ausführungsformen eine Animation, die dreidimensionale Objekte in der navigierten Karte größer werdend zeigt, ein. Eine Generierung solcher Animationen, welche Objekte steigend/fallend und größer/kleiner werdend zeigt, ist weiter in der US-Patentanmeldung 13/632,027 mit dem Titel „Displaying 3D Objects in a 3D Map Presentation“, eingereicht am 30. September 2012, beschrieben. Die US-Patentanmeldung 13/632,027 ist hier durch Verweis einbezogen.
  • Einige Ausführungsformen verwenden einen filmischen Übergang von der 2D-Kartenansicht zu der 3D-Kartenansicht oder umgekehrt. Zum Beispiel, wenn die Kartenanwendung eine Auswahl der 3D-Steuerung 250 erhält, während ein Startort von einer Route gezeigt wird, beginnt die Kartenanwendung von der 2D-Kartenansicht und geht sanft von einer ersten virtuellen Kameraansicht für die 2D zu einer neuen virtuellen Kamera-3D-Ansicht über, die mehr hineingezoomt ist und in die Richtung vom Start der Route zeigt. Dabei führt die virtuelle Kamera eine Kombination von Verschiebungs-, Zoom- und Rotationsoperationen, um den Start der Navigationsroute zu erreichen, durch. Das heißt, die virtuelle Kamera bewegt sich in einem Bogen und rotiert aufwärts, während die Kamera sich entlang des Bogens abwärts bewegt. Auch kann die Kartenanwendung den Bogen selbst rotieren, um den Standpunkt der virtuellen Kamera zum initialen Straßensegment der Route auszurichten. In anderen Worten, rotiert die Kartenanwendung die Karte während des filmischen Übergangs.
  • 4 veranschaulicht eine Vorrichtung 400, die eine Kartenanwendung anzeigt während die Anwendung von einer nicht immersiven Kartenansicht zur Kartendurchsuchung in eine immersive Kartenansicht für Navigation über sechs Phasen 405-430, übergeht.
  • Die erste Phase 405 veranschaulicht eine Benutzerauswahl eines Schnelle-Route-Knopfes für einen Ort „Pizza Place“, um eine Route von der aktuellen Position des Benutzers (nahe dem Zentrum des Bildschirms der Vorrichtung 400) zu dem ausgewählten Ort zu generieren. Die zweite Phase 410 veranschaulicht die Kartenanwendung, die eine Route 435 anzeigt, um den Ort „Pizza Place“ zu erreichen. In der zweiten Phase 410 wählt der Benutzer die „Start“-UI-Steuerung 440. Dementsprechend beginnt die Anwendung das Betreten der Navigation.
  • Wie in der dritten bis sechsten Phase 415-430 gezeigt, verwenden einige Ausführungsformen einen filmischen Übergang von der 2D-(oder 3D)nicht-immersiven Kartenansicht in die 3D-immersive Kartenansicht. Die Anwendungsanzeige startet von ihrem aktuellen Zustand (der in 410 gezeigte) und geht weich von der ersten virtuellen Kameraansicht zu der neuen virtuellen Kameraansicht, welche mehr hineingezoomt und in die Richtung vom Start der Route zeigt, über. Dabei kann die virtuelle Kamera eine Kombination von Verschiebungs-, Zoom- und Rotationsoperationen durchführen, um den Start der Route für die Navigation zu erreichen. Wie in diesen Phasen gezeigt, bewegt und rotiert die virtuelle Kamera sich an ihren schlussendlichen Ort hinter den Navigationsortsindikator (d.h. der Puck), wie in der sechsten Phase 430 gezeigt.
  • In einigen Ausführungsformen stellt die Kartenanwendung auch zwei unterschiedliche Arten von 3D-Darstellungen - eine immersive 3D-Darstellung und eine nicht immersive 3D-Darstellung - bereit. Die immersive Darstellung zeigt in einigen Ausführungsformen nicht nur mehr Geometrien, sondern auch mehr Details für die Geometrien, welche in der nicht immersiven Darstellung angezeigt werden. Die Kartenanwendung stellt auch weiche Übergänge zwischen der nicht immersiven und der immersiven Darstellung bereit.
  • Um solche weiche Übergänge zu erreichen und andere neuartige Effekte zu generieren, verwendet die Kartenanwendung in einigen Ausführungsformen eine neuartige Bildverarbeitungs-Pipeline. Diese Pipeline führt eine Vielzahl von Vorlade-Operationen zum Herunterladen, Abrufen und/oder das Komprimieren von Kartenkacheln, die für die Navigationsdarstellung benötigt werden könnten, durch, um ihre Wiedergabe-Pipeline für ihre Wiedergabeoperationen vorzubereiten und um eine doppelte Pipeline (duplicate pipeline) vorzubereiten, um weich zwischen der immersiven und der nicht immersiven 3D-Darstellung überzugehen. Um immersive und nicht immersive 3D-Kartendarstellungen anzuzeigen, müssen einige Ausführungsformen eine Vielzahl von Kacheln für Clientvorrichtungen zur Wiedergabe generieren, um Straßen, Gebäude und Umgebungsszenen zu erzeugen. In einigen Ausführungsformen beinhalten Beispiele von solchen Kacheln Straßen- und Gebäudekacheln, die für nicht immersive 3D-Darstellungen verwendet werden und Navigation- und Gebäudekacheln, die für immersive 3D-Darstellungen verwendet werden. Diese Pipeline ist in der oben einbezogenen US-Patentanmeldung 13/632,102 mit dem Titel „Problem Reporting in Maps“, eingereicht am 30. September 2012, beschrieben. Diese Pipeline ist auch detailliert in der US-Patentanmeldung 13/632,040 mit dem Titel „Virtual Camera for 3D Maps“, eingereicht am 30. September 2012, beschrieben. Die US-Patentanmeldung 13/632,040 ist hierin durch Verweis eingeschlossen.
  • In einigen Ausführungsformen sind die nicht immersiven und immersiven Ansichtsmodi Ansichtsmodi zum Ansehen von unterschiedlichen 3D-Karten, die unterschiedliche Konstrukte und/oder Geometrien haben. Zum Beispiel dient der nicht immersive Ansichtsmodus einiger Ausführungsformen dem Ansehen einer 3D-Karte, die Straßen, Gebäuden, Landbedeckung usw. beinhaltet. Der immersive Ansichtsmodus dient dem Ansehen einer detaillierteren 3D-Karte, die die gleichen oder ähnliche Elemente (z.B. Straßen, Gebäude, Landbedeckung usw.) wie die 3D-Karte für den nicht immersiven Ansichtsmodus beinhaltet. Allerdings beinhaltet diese detailliertere 3D-Karte auch detailliertere Konstrukte (z.B. Bäume, Laub, Bürgersteige, Mittelstreifen, Straßenspuren, Straßenasphalt, Mittelstreifen, Fußgängerübergänge usw.), die eine realistischere und reiche 3D-Karte bereitstellen.
  • Außerdem können die nicht immersiven und immersiven Ansichtsmodi definiert werden für das Ansehen von 3D-Karten in unterschiedlichen Bereichen von Zoomstufen. Zum Beispiel ist der nicht immersive Ansichtsmodus einiger Ausführungsformen definiert für das Ansehen einer 3D-Karte in niedrigen Zoomstufen (z.B. Zoomstufen 0-14), während der immersive Ansichtsmodus einiger Ausführungsformen definiert ist für das Ansehen der 3D-Karte in hohen Zoomstufen (z.B. Zoomstufen 16-21). Die Ansichtsmodi können definiert werden, um eine beliebige Anzahl von unterschiedlichen Zoomstufen in unterschiedlichen Ausführungsformen zu betrachten. In einigen Fällen ist der Bereich der Zoomstufen des immersiven Ansichtsmodus definiert als höhere Zoomstufen als, niedrigere Zoomstufen als, die gleichen Zoomstufen wie, oder Zoomstufen, die die Zoomstufen überlappen, die für den nicht immersiven Ansichtsmodus definiert sind. Diese Ansichtsmodi und andere Aspekte der Kartenanwendung sind in der oben eingebundenen US-Patentanmeldung 13/632,040 mit dem Titel „Virtual Camera for 3D Maps“, eingereicht am 30. September 2012, beschrieben.
  • 1. Virtuelle Kamera
  • Die Navigationsanwendung in einigen Ausführungsformen ist fähig, Navigationskarten aus mehreren Perspektiven anzuzeigen. Die Anwendung kann Karten in drei Dimensionen (3D) oder in zwei Dimensionen (2D) zeigen. Die 3D-Karten sind generierte Simulationen von einer virtuellen Szene wie sie von einer virtuellen Kamera gesehen wird. 5 stellt ein vereinfachtes Beispiel dar, um das Konzept einer virtuellen Kamera 512 zu veranschaulichten. Wenn eine 3D-Navigationskarte wiedergegeben wird, ist eine virtuelle Kamera eine Konzeptionalisierung der Position in der 3D-Kartenszene, von welcher die Vorrichtung eine 3D-Ansicht der Szene wiedergibt. 5 veranschaulicht einen Ort in einer 3D-Navigationskartenszene 510, die vier Objekte beinhaltet, welche zwei Gebäude und zwei kreuzende Straßen sind. Um das Konzept der virtuellen Kamera zu veranschaulichen, veranschaulicht diese Figur drei Szenarien, wovon jedes einem unterschiedlichen virtuellen Kameraort (d.h. einer unterschiedlichen Wiedergabeposition) und einer unterschiedlichen resultierenden Ansicht, die auf der Vorrichtung angezeigt wird, entspricht.
  • Die erste Phase 501 zeigt die virtuelle Kamera 512 bei einer ersten Position, die abwärts bei einem Winkel (z.B. ein 30 Grad Winkel), z.B. in Richtung der 3D-Szene 510 zeigt. Mit einer Wiedergabe der 3D-Szene von der Position und dem Winkel, die in Phase 501 gezeigt sind, generiert die Anwendung die 3D-Kartenansicht 518. Von dieser Position zeigt die Kamera zu einem Ort, der eine bewegende Position vor der Vorrichtung ist. Die virtuelle Kamera 512 wird hinter dem aktuellen Ort der Vorrichtung gehalten. In diesem Fall bedeutet „hinter dem aktuellen Ort“ rückwärts entlang des definierten Pfades der Navigationsanwendung in der entgegengesetzten Richtung von der aktuellen Richtung, in der sich die Vorrichtung bewegt.
  • Die Navigationskartenansicht 518 sieht aus als ob sie von einer Kamera von oben und hinter dem Ortsindikator 516 der Vorrichtung gefilmt wird. Der Ort und Winkel der virtuellen Kamera platziert den Ortsindikator 516 nahe dem unteren Ende der Navigationskartenansicht 518. Dies führt auch zu einer Befüllung der Mehrheit des Bildschirms mit den Straßen und den Gebäuden, die vor dem aktuellen Ort von der Vorrichtung sind. Im Gegensatz dazu ist in einigen Ausführungsformen der Ortsindikator 516 im Zentrum des Bildschirms mit einer Hälfte des Bildschirms Gegenstände vor der Vorrichtung darstellend, und mit der anderen Hälfte Gegenstände hinter der Vorrichtung darstellend. Um diese Figur zu vereinfachen, sind keine Straßenschilder für die Ansichten 518, 528 und 538 abgebildet.
  • Die zweite Phase 502 zeigt die virtuelle Kamera 512 an einer unterschiedlichen Position abwärts in Richtung der Szene 510 mit einem größeren zweiten Winkel (z.B. -45°) zeigend. Die Anwendung gibt die Szene 510 aus diesem Winkel, in der 3D-Navigationskartenansicht 528 resultierend, wieder. Die Gebäude und die Straßen sind kleiner als ihre Veranschaulichung in der ersten Navigationskartenansicht 518. Wieder ist die virtuelle Kamera 512 über und hinter dem Ortsindikator 516 in der Szene 510. Dies führt wieder zu einem Erscheinen des Ortsindikators in dem unteren Teil der 3D-Kartenansicht 528. Der Ort und die Ausrichtung der Kamera führen auch wieder zu einer Anzeige von Gegenständen vor dem Ortsindikator 516 (d.h. dem Ort des Autos, das die Vorrichtung trägt) in der Majorität des Bildschirms, dies ist was man zum Navigieren wissen muss.
  • Die dritte Phase 503 zeigt die virtuelle Kamera 512 in Ansicht von oben nach unten, die abwärts auf einen Ort in der 3D-Kartenszene 510 sieht, die verwendet wurde, um die 3D-Ansichten 518 und 528 wiederzugeben. Die Szene, die aus dieser Perspektive wiedergegeben wird, ist die 2D-Kartenansicht 538. Anders als die 3D-Wiedergabeoperationen der ersten und zweiten Phase, welche in einigen Ausführungsformen perspektivische 3D-Wiedergabeoperationen sind, ist die Wiedergabeoperation in der dritten Phase relativ einfach, da es nur einen Teil aus der 2D-Karte ausschneiden muss, die durch eine von der Anwendung oder dem Benutzer spezifizierten Zoomstufe identifiziert wird. Dementsprechend verkompliziert die Charakterisierung der virtuellen Kamera in dieser Situation etwas unnötigerweise die Beschreibung der Operation der Anwendung, da das Abschneiden eines Teils einer 2D-Karte keine perspektivische Wiedergabeoperation ist.
  • In der dritten Phase 503 wechselt die Kartenanwendung in einigen Ausführungsformen von einer Wiedergabe einer 3D-Szene aus einer bestimmten perspektivischen Richtung zu einem Abschneiden einer 2D-Szene, wenn die Kamera von der 3D-perspektivischen Ansicht zu einer 2D-Ansicht von oben nach unten wechselt. Dies ist weil in diesen Ausführungsformen die Anwendung dazu bestimmt ist, eine vereinfachte Wiedergabeoperation, welche einfacher ist und keine unnötigen perspektivischen Artefakte generiert, zu nutzen. In anderen Ausführungsformen hingegen verwendet die Kartenanwendung eine perspektivische Wiedergabeoperation, um eine 3D-Szene von einer virtuellen Kameraposition von oben nach unten wiederzugeben. In diesen Ausführungsformen ist die generierte 2D-Kartenansicht etwas unterschiedlich zu der in der dritten Phase 503 veranschaulichten Kartenansicht 538, weil jedes Objekt, das vom Zentrum der Ansicht entfernt ist, verzerrt ist, mit einer größer werdenden Verzerrung je weiter die Objektdistanz vom Zentrum der Ansicht entfernt ist.
  • Die virtuelle Kamera 512 bewegt sich entlang unterschiedlichen Trajektorien in unterschiedlichen Ausführungsformen. Zwei solcher Trajektorien 550 und 555 sind in 5 veranschaulicht. In beiden dieser Trajektorien bewegt sich die Kamera in einem Bogen und rotiert abwärts während die Kamera sich aufwärts entlang des Bogens bewegt. Die Trajektorie 555 unterscheidet sich von der Trajektorie 550, indem sich in der Trajektorie 555 die Kamera rückwärts von dem aktuellen Ort bewegt, während sie sich den Bogen hinauf bewegt.
  • Während der Bewegung entlang eines der Bögen rotiert die Kamera, um einen Punkt vor dem Ortsindikator am Brennpunkt der Kamera zu behalten. In einigen Ausführungsformen kann der Benutzer die dreidimensionale Ansicht ausschalten und mit einer reinen zweidimensionalen Ansicht weiter zu machen. Zum Beispiel erlaubt die Anwendung in einigen Ausführungsformen einen durch Verwenden eines 3D-Knopfes 560 einschaltbaren und ausschaltbaren dreidimensionalen Modus. Der 3D-Knopf 560 ist wesentlich für das Punkt-zu-Punkt-Navigationsmerkmal, in welchem es eine Rolle als ein Indikator und eines Umschalters hat. Wenn 3D ausgeschaltet ist, wird die Kamera eine 2D-Navigationserfahrung beibehalten, aber wenn 3D einschaltet ist, könnte es weiterhin einige Perspektiven von oben nach unten geben, wenn 3D-Ansichtswinkel nicht angemessen sind (z.B. wenn man um eine Ecke geht, welche im 3D-Modus versperrt wäre).
  • 2. 3D-Steuerung
  • 6 veranschaulicht in sechs unterschiedlichen Phasen 605-630, dass die Kartenanwendung in einigen Ausführungsformen die Erscheinung der 3D-Steuerung ändert, um unterschiedliche 2D- und 3D-Zustände von der Kartenansicht anzugeben. Die erste Phase 605 veranschaulicht, dass die Kartenanwendung eine Karte und die schwebenden Steuerungen einschließlich der 3D-Steuerung 150 anzeigt. Die Kartenanwendung zeigt die Karte in 2D in einer bestimmten niedrigen Zoomstufe (Karte ist nicht weit hineingezoomt) wie gezeigt an. Die 3D-Steuerung 150 wird unter Verwendung einer ersten Erscheinung (z.B. graue Buchstaben „3D“) angezeigt, um anzugeben, dass die 3D-Kartendaten nicht in dieser bestimmten Zoomstufe verfügbar sind. Die erste Phase 605 zeigt auch, dass die Kartenanwendung die Gesten-Eingaben des Benutzers, um in die Karte hinein zu zoomen (z.B. um die Zoomstufe zu erhöhen) empfängt.
  • Die zweite Phase 610 zeigt, dass die Kartenanwendung die Karte in einer höheren Zoomstufe anzeigt als sie es in der vorherigen Phase 605 getan hat. Allerdings behält die 3D-Steuerung 150 die erste Erscheinung, weil die 3D-Kartendaten sogar in dieser bestimmten höheren Zoomstufe weiterhin nicht verfügbar sind. Die zweite Phase 610 zeigt auch, dass die Kartenanwendung eine andere Gesten-Eingabe empfängt, um weiter in die Karte hinein zu zoomen.
  • Die dritte Phase 615 zeigt, dass die Kartenanwendung die Karte in einer höheren Zoomstufe anzeigt als sie es in der vorherigen Phase 610 getan hat. Die Kartenanwendung hat die Erscheinung der 3D-Steuerung 150 in eine zweite Erscheinung (z.B. „3D“ in schwarzen Buchstaben) geändert, um anzugeben, dass die 3D-Kartendaten in dieser Zoomstufe verfügbar sind. Wenn die Kartenanwendung eine Selektion von der 3D-Steuerung 150 empfängt, würde die Kartenanwendung in einigen Ausführungsformen die Erscheinung der 3D-Steuerung 150 zu einer dritten Erscheinung (z.B. „3D“ in blauen Buchstaben) ändern und die Karte in 3D anzeigen (z.B. durch Ändern in eine perspektivische Ansicht einer graden Abwärtsansicht für 2D). Die dritte Erscheinung würde daher angeben, dass die Karte in 3D angezeigt wird. Die dritte Phase 615 zeigt, dass die Kartenanwendung noch eine weitere gestische Eingabe empfängt, um sogar weiter zu einer höheren Zoomstufe in die Karte hinein zu zoomen. Die dritte Phase 615 zeigt, dass die Kartenanwendung Gebäude als graue Kästen in dieser Zoomstufe in der Karte anzeigt.
  • Die vierte Phase 620 zeigt, dass die Kartenanwendung die Karte in einer höheren Zoomstufe anzeigt als sie es in der vorherigen Phase 615 getan hat. Die Kartenanwendung hat die Erscheinung der 3D-Steuerung 150 in eine vierte Erscheinung (z.B. ein Gebäude-Symbol in einer ersten Farbe wie gezeigt) geändert, um anzugeben, dass 3D-immersive Kartendaten zur Wiedergabe einer immersiven 3D-Kartenansicht in dieser Zoomstufe verfügbar sind. Die vierte Phase 620 zeigt auch, dass die Kartenanwendung in einigen Ausführungsformen eine Selektion von der 3D-Steuerung 150 empfängt.
  • Die fünfte und sechste Phase 625 und 630 zeigen nachfolgende Ansichten (jedoch nicht notwendigerweise aufeinanderfolgende Ansichten), die die Kartenanwendung, nachdem sie anfängt, eine 3D-immersive Kartenansicht bereitzustellen, bereitstellt. In einigen Ausführungsformen ändert sich die Zoomstufe nicht zwischen der fünften und sechsten Phase, doch die Höhe der Gebäude in den Kartenansichten nimmt zu, um eine Animation, die bestimmt, dass die Ansicht sich in die 3D-immersive Kartenansicht von der 2D-Ansicht bewegt, bereitzustellen. Auch von der vierten Phase 620 zu der fünften Phase 625 hat die Kartenanwendung die Erscheinung der 3D-Steuerung in die fünfte Erscheinung (z.B. ein Gebäude-Symbol in einer zweiten Farbe wie gezeigt) geändert, um anzugeben, dass die Karte in der 3D-immersiven Ansicht angezeigt wird.
  • 3. Automatisches Ändern von Ansichten
  • Die Anwendung einiger Ausführungsformen erlaubt, jeden bestimmten virtuellen Kamerawinkel zu verwenden, nicht nur die hier spezifizierten 30 Grad und 60 Grad Winkel. Die Anwendung einiger Ausführungsformen erlaubt es dem Benutzer, den Abwärtswinkel für die Kamera zu setzen. Die Anwendung einiger Ausführungsformen passt den Winkel der Kamera aus mehreren Gründen automatisch an (z.B. um einen bestimmten Punkt, der im Fokus ist, nahe des oberen Endes des Bildschirms zu halten). In noch anderen Ausführungsformen stellt die Navigationsanwendung den Winkel der Kamera automatisch ein, aber erlaubt es dem Benutzer, den automatisch eingestellten Winkel zu überschreiben.
  • In einigen Ausführungsformen, wenn eine Vorrichtung, in der die Navigationsanwendung in einem 3D-Modus läuft, dabei ist, einen Verbindungspunkt mit einer Abbiegung zu erreichen, wechselt die Navigationsanwendung in einen 2D-Modus, um dem Benutzer zu ermöglichen, die Abbiegung klarer zu identifizieren. 7 veranschaulicht den Wechsel vom 3D-Modus zum 2D-Modus in einigen Ausführungsformen. Die Figur wird in fünf Phasen 701-705 gezeigt. In Phase 701 zeigt die Anwendung eine Navigationskarte in einer 3D-Ansicht. Der Navigationskasten 710 zeigt eine Rechtsabbiegung in 50 Fuß. Die Karte 712 ist in 3D sowie auch die Ortskennung 714.
  • Während die Vorrichtung sich der Kreuzung in Phase 702 (wie durch den Navigationskasten 720 angegeben) annähert, wechselt die 3D-Karte 712 zu einer 2D-Karte 722 ebenso wie der Ortsindikator 724 in 2D. Die Kartenanwendung ändert auch die Erscheinung der 3D-Steuerung 150, um anzugeben, dass die Karte jetzt in 2D ist. Die Karte 722 verbleibt in 2D, während die Vorrichtung in Phase 703 die Ecke umrundet. Während die Vorrichtung die Ecke umrundet, wird der Navigationskasten 730 mit den Instruktionen „rechts abbiegen in die A St.“ in Phase 703 ersetzt durch den Navigationskasten 740 mit den Instruktionen „0,5 Meilen weiter geradeaus auf der A Street“ in Phase 704. Die Karte verbleibt in 2D in Phase 704, bis die Ecke vollständig gefahren wurde, woraufhin, in Phase 705, die Karte zu einer 3D-Ansicht mit neuen Instruktionen „0,3 Meilen, Ziel befindet sich auf Ihrer linken Seite" in dem Navigationskasten 750 zurückkehrt. Die Kartenanwendung hat auch die Erscheinung der 3D-Steuerung 150 geändert, um anzugeben, dass die Karte jetzt wieder in 3D ist.
  • In einigen Ausführungsformen bestimmt die Navigationsanwendung einige oder alle der folgenden fünf Informationsteile für jede Ortsaktualisierung (z.B. 1 Mal pro Sekunde). Zuerst bestimmt die Navigationsanwendung den Ort des Referenzpunktes (z.B. den Ort des Benutzers).
  • Zweitens bestimmt die Navigationsanwendung den Ort des Fokuspunktes der virtuellen Kamera, welcher verwendet wird, um zu bestimmen, in welche Richtung die virtuelle Kamera zugewendet sein soll. Wenn der Benutzer von der Route abweicht, wird der Fokuspunkt auf eine fixe Distanz vor dem Benutzer entlang der Reiserichtung des Benutzers (wenn diese bestimmt werden kann) oder eine fixe Distanz nördlich des Benutzers (wenn die Reiserichtung des Benutzers nicht bestimmt werden kann) sein. Wenn der Benutzer auf der Route ist, wird der Fokuspunkt eine fixe Distanz vor dem Benutzer entlang der Route sein, mit dem Winkel zwischen dem Vektor des Benutzers und diesem Fokuspunkt und die Reiserichtung des Benutzers bei einem maximalen Wert gedeckelt. Dies erlaubt der virtuellen Kamera, subtil um die Abbiegungen zu spähen, bevor der Benutzer tatsächlich abbiegt. Zum Beispiel, wenn die Route kurz voraus um eine Ecke abbiegt, wird der Fokuspunkt ein Punkt um die Ecke von dem aktuellen Ort der Vorrichtung sein. Während des Drehens der virtuellen Kamera, um diesem aktuellen Punkt zugewandt zu sein, könnte dies verursachen, dass die virtuelle Kamera direkt zu einem Gebäude gewandt ist, wird die virtuelle Kamera in dem Sinne gedeckelt wie weit sie von der derzeitigen Richtung weg sehen kann. Drittens bestimmt die Navigationsanwendung den Ort des Punktes von Interesse (z.B. den Ort einer bevorstehenden Kreuzung).
  • Viertens bestimmt die Navigationsanwendung die Art der virtuellen Kameraansicht (von oben nach unten zentriert, von oben nach unten voraus oder Dach). „Von oben nach unten zentriert“ bedeutet, dass die virtuelle Kamera gerade nach unten auf den Ort des Benutzers sehen soll, so dass der Ort des Benutzers im Zentrum des Bildschirms ist. „Von oben nach unten voraus“ bedeutet, dass die virtuelle Kamera gerade nach unten auf den Ort des Benutzers sehen soll, so dass der Ort des Benutzers hin zum unteren Ende des Bildschirms ist. „Dach“ bedeutet, dass die virtuelle Kamera hinter dem Ort des Benutzers sein soll und so geneigt sein soll, dass sie nach vorn entlang des Vektors von dem Ort des Benutzers zum Fokuspunkt sieht. Wenn der Benutzer von der Route abweicht oder die Reiserichtung des Benutzers nicht bestimmt werden kann (z.B. wenn der Benutzer parkt), wird die virtuelle Kamera in der von oben nach unten zentrierten Ansichtsart sein. Ansonsten wird die Ansichtsart dadurch bestimmt, ob der Benutzer „2D“-Navigation angefragt hat oder nicht. Wenn der Benutzer 2D-Navigation angefragt hat, wird die Ansichtsart von oben nach unten voraus sein. Ansonsten wird die Ansichtsart Dach sein.
  • Fünftens bestimmt die Navigationsanwendung die Fokusart der virtuellen Kamera (z.B. Herumfahr- oder harter Fokus). „Herumfahr-Fokusart“ bedeutet, dass die virtuelle Kamera eine vordefinierte Höhe und einen vordefinierten Neigungswinkel basierend auf der Ansichtsart annehmen soll. „Harter Fokus“ bedeutet, dass die virtuelle Kamera ihre Höhe (im Fall von oben nach unten zentriert oder von oben nach unten voraus Ansichtsarten) oder ihre Neigung (im Fall von einer Dach-Ansichtsart) anpassen sollte, so dass der gegebene Punkt von Interesse gerade im Bildschirm ist (z.B. die virtuelle Kamera soll den Punkt von Interesse fokussieren, während der Benutzer sich ihm annähert). Wenn weit von einer Kreuzung entfernt, setzt die Navigationsanwendung die virtuelle Kamera in den Herumfahr-Fokusmodus. Beim Annähern an eine „interessante“ Kreuzung, setzt die Navigationsanwendung die virtuelle Kamera in den harten Fokusmodus, wie oben beschrieben, und der Ort der Kreuzung (Punkt von Interesse) wird an die virtuelle Kamera übergeben. Im harten Fokusmodus stellt die Anwendung die Höhe der virtuellen Kamera (im Fall von oben nach unten zentriert oder oben nach unten voraus Ansichtsarten) oder die Neigung der virtuellen Kamera (im Fall von Dach-Ansichtsart) ein, so dass die Kreuzung an einer angemessenen Bildschirmposition ist. Eine gegebene Kreuzung wird als „interessant“ genug zum Fokussieren bestimmt, indem der Winkel, in dem der Benutzer die Kreuzung verlassen wird, verwendet wird. Wenn der Winkel groß genug ist (z.B. eine 90 Grad Rechtsabbiegung), wird die Kreuzung als „interessant“ betrachtet und die virtuelle Kamera wird auf sie fokussieren. Wenn der Winkel zu klein ist (z.B. auf ein Freeway einfädeln), wird die virtuelle Kamera in der Herumfahr-Fokusart bleiben.
  • Aus diesen fünf Informationsteilen berechnet die Navigationsanwendung die gewünschte Position und Ausrichtung der virtuellen Kamera. Aus der gewünschten Position und Ausrichtung können die folgenden drei Kernpunkte entnommen werden: (1) die Position der virtuellen Kamera, (2) die Kreuzung zwischen dem Vorwärtsvektor der virtuellen Kamera und dem Boden und (3) einen Punkt entlang des geraden Vektors der virtuellen Kamera. Die drei Punkte werden unabhängig voneinander folgendermaßen animiert: (1) wenn ein neuer Punkt verfügbar ist, passt die Anwendung ein kubisches Polynom zwischen der letzten ausgewählten Position/Tangente für diesen Punkt und dem neuen Punkt an, und (2) bei jedem Schritt der Animation wertet die Navigationsanwendung die kubischen Polynome für jede Kurve aus und entnimmt die Position und Ausrichtung der virtuellen Kamera aus ihnen.
  • 4. Benutzereinstellung der Kamerahöhe
  • Zusätzlich zu (oder anstelle von) der Steuerung der Kamera durch die Navigationsanwendung (z.B. Umschalten von 3D zu 2D beim Gehen um Ecken) erlauben einige Ausführungsformen dem Benutzer auch, die Stufe (level) der Kamera einzustellen. Einige Ausführungsformen erlauben dem Benutzer, eine Befehlsgeste mit zwei Fingern zu machen, um die Distanz (Höhe) und den Winkel der Kamera einzustellen. Einige Ausführungsformen erlauben sogar mehrere Arten von Gesten, um die Kamera zu steuern. 8 veranschaulicht die Einstellung der Distanz einer virtuellen Kamera durch zusammenziehende und expandierende Gesten. Die Figur wird in drei Phasen gezeigt 801-803. In der Phase 801 zeigt die Anwendung eine Grundszene 810 mit einer virtuellen Kamera 812 in einer Standardstufe für eine 3D-Ansicht und die aus der Szene 810 wiedergegebene Bildschirmansicht 814. Die Grundszene enthält zwei Gebäude und eine T-Kreuzung. In Phase 801 werden die Gebäude aus einem 45 Grad Winkel herab und einer bestimmten Höhe, welche sie in einer bestimmten Größe erscheinen lässt, betrachtet. Der Ortsindikator 816 wird auch in einer bestimmten Größe gezeigt.
  • In Phase 802 macht der Benutzer eine Geste, indem er zwei Fingerspitzen nahe zueinander auf dem Bildschirm der Vorrichtung platziert, in der Bildschirmansicht 824 und indem er die Fingerspitzen auseinander bewegt, während sie auf dem Bildschirm sind. Das Auseinanderbewegen der Fingerspitzen hat den Effekt, die Karte (sowohl den Teil zwischen den Fingern als auch den Rest der Karte) größer zu machen. Um die Gegenstände in der Karte größer erscheinen zu lassen, veranlasst die Anwendung die virtuelle Kamera 812 dazu hineinzuzoomen. In einigen Ausführungsformen ist die Linie 850, die die Kartenanwendung verwendet, um die virtuelle Kamera 812 entlang derer zu bewegen, eine Linie gebildet aus der virtuellen Kamerafront 812 und dem Fokuspunkt der virtuellen Kamera 812. Die Kartenanwendung bewegt in einigen Ausführungsformen die virtuelle Kamera 812 entlang einer Linie gebildet durch die Front der virtuellen Kamera 812 und einem Ort in der 3D-Karte 810 basierend auf der Eingabe des Benutzers, um in die Ansicht der 3D-Karte 810 hineinzuzoomen.
  • Nach dem Hineinzoomen für die Phase 802 entscheidet sich der Benutzer für die Phase 803 hinauszuzoomen. In dieser Phase platzierte der Benutzer zwei Finger auf dem Bildschirm und brachte sie näher zusammen. Die Finger näher zusammenzubringen hat den Effekt, die Karte zu verkleinern (sowohl den Teil zwischen den Fingern als auch den Rest der Karte). Die Hinauszoomeinstellung wird durch Bewegung der virtuellen Kamera 812 weiter entfernt von der 3D-Karte 810 entlang der Linie 855 erreicht. In einigen Ausführungsformen ist die Linie 855, die die Kartenanwendung zum Bewegen der virtuellen Kamera 812 entlang derer verwendet, eine Linie gebildet aus der Front der virtuellen Kamera 812 und dem Fokuspunkt der virtuellen Kamera 812. Die Kartenanwendung von einigen Ausführungsformen bewegt die virtuelle Kamera 812 entlang einer Linie gebildet von der Front der virtuellen Kamera 812 und einem Ort in der 3D-Karte 810 basierend auf der Eingabe des Benutzers, um in die Ansicht der 3D-Karte 810 zu zoomen.
  • Die Wiedergabe einer 3D-Kartenansicht, unter Verwendung der virtuellen Kamera 812, resultiert in dieser Position in einer 3D-Kartenansicht 834, in welcher die Gebäude und die Straßen weiter entfernt als die Position veranschaulicht in der 3D-Kartenansicht 824 erscheinen. Wie durch die gestrichelte Linienversion der virtuellen Kamera 812 gezeigt, bewegt sich die virtuelle Kamera 812 weiter von der 3D-Karte 810 entlang der Linie 855 weg.
  • Zusätzlich zu der Steuerbarkeit durch Hinein- und Hinauszoomen erlauben einige Anwendungen einem Benutzer, den Winkel der virtuellen Kamera zu ändern. 9 veranschaulicht eine Ausführungsform von einer Kamera, deren Winkel durch Gesten eingestellt werden kann. Die Figur wird in drei Phasen 901-903 gezeigt. In Phase 901 zeigt die Kamera mit 45 Grad hinunter auf Szene 910. Die Szene 910 enthält zwei Gebäude und eine T-Kreuzung, welche in der Bildschirmansicht 914 gezeigt sind. Die Gebäude sind aus einem bestimmten Winkel in einer bestimmten Größe gezeigt. Der Ortsindikator 916 ist auch in einer bestimmten Größe gezeigt.
  • In Phase 902 hat der Benutzer zwei Finger 920 auf dem Bildschirm ungefähr horizontal zueinander platziert und hinaufgezogen. Dies hat den offensichtlichen Effekt, die Szene mit den Fingern heraufzuziehen. Das Aufsteigen der Szene erfolgt durch Absenken der virtuellen Kamera 912 und Ändern ihres Betrachtungswinkels von 45 Grad zu 30 Grad. In der Bildschirmansicht 924 sehen die Gebäude und der Ortsindikator größer aus als in der Phase 901.
  • Nach dem der Benutzer die Szene in der Phase 902 heraufzieht, zieht der Benutzer dann die Szene in Phase 903 hinunter. Um dies zu tun, platziert der Benutzer wieder zwei Finger 930 auf dem Bildschirm und zieht sie hinunter. Dies zieht die Szene zusammen mit den Fingern 930 hinunter. Das Fallen der Szene wird durch Aufsteigen der virtuellen Kamera 912 und Ändern ihres Winkels mit der Szene 910 auf 60 Grad abwärts, erreicht. In der Phase 903 hat sich die Kamera 912 weiter hinauf bewegt und ist weiter nach unten gewinkelt als in der Phase 901. Dementsprechend sehen in der Phase 903 die Gebäude und die Ortskennungen 916 wieder kürzer und kleiner aus als in der Phase 901.
  • In einigen Ausführungsformen stellt die Kartenanwendung einen Trägheitseffekt für unterschiedliche Operationen bereit (z.B. Verschieben, Rotieren, von 2D nach 3D hineinkommen). Wenn ein Benutzer eine bestimmte Eingabeart bereitstellt (z.B. eine Eingabe, die mit einer höheren Geschwindigkeit als einer Schwellengeschwindigkeit abschließt), um eine 3D-Karte zu verschieben, generiert die Kartenanwendung einen Trägheitseffekt, der die 3D-Karte dazu veranlasst, weiter zu verschieben und bis zu einem Stopp zu verlangsamen. Der Trägheitseffekt stellt in einigen Ausführungsformen dem Benutzer eine realistischere Interaktion mit der 3D-Karte bereit, die das Verhalten der realen Welt nachahmt. Die Details von Trägheitseffekten und Implementierungen von Trägheitseffekten sind in der oben eingebundenen US-Patentanmeldung 13/632,040 mit dem Titel „Virtual Camera for 3D Maps“ beschrieben.
  • Die Anwendung einiger Ausführungsformen erlaubt eine unabhängige Steuerung der Distanz und des Winkels der Kamera. Zum Beispiel erlaubt sie, die Distanz durch zusammenziehende und expandierende Fingergesten und den Winkel durch Ziehen von horizontal platzierten Fingern, zu steuern. Andere Ausführungsformen benutzten die Geste, welche auch immer durchgeführt wird, um entweder eine Distanz oder einen Winkel von der Kamera zu setzen bei automatischem Setzen der anderen Variable. Während in 8 und 9 Gesten gezeigt werden, welche in einer bestimmten Richtung durchgeführt werden, um ein bestimmtes Resultat zu erreichen, können in einigen Ausführungsformen eine oder beide dieser Gesten umgekehrt sein. Zum Beispiel könnte in einigen Ausführungsformen das Hinunterziehen von horizontal platzierten Fingern die Kamera anstelle der Szene hinunterbringen. Das würde den Effekt haben, die Szene hinunterzubewegen, wenn die Finger hinaufbewegt werden und die Szene hinaufzubewegen, wenn die Finger hinunterbewegt werden.
  • 10 veranschaulicht konzeptionell ein Merkmal, das von der Kartenanwendung einiger Ausführungsformen bereitgestellt ist, um die Position einer virtuellen Kamera in einem definierten Bereich entlang eines Bogens beizubehalten. Insbesondere veranschaulicht 10 die virtuelle Kamera 1000 in drei unterschiedlichen Phasen 1005-1015, welche die Position der virtuellen Kamera 1000 zeigt, welche in einem definierten Bereich des Bogens 1050 beibehalten wird. Wie in 10 gezeigt, enthält ein Ort in einer 3D-Karte 1035 zwei Gebäude und zwei Straßen, die eine T-Kreuzung bilden.
  • Die erste Phase 1005 zeigt die virtuelle Kamera 1000 an einer bestimmten Position entlang des Bogens 1050. Wie gezeigt, repräsentiert der Bogen 1050 einen definierten Bereich (z.B. einen Winkelbereich), in dem die virtuelle Kamera 1000 bewegbar ist. Die erste Phase 1005 zeigt auch drei Positionen 1055-1065 entlang des Bogens 1050 (z.B. perspektivische Ansichtswinkel). In diesem Beispiel bewegt die Kartenanwendung die virtuelle Kamera 1000 entlang des Bogens 1050 zwischen dem hohen perspektivischen Ende des Bogens 1050 (z.B. die Position entlang des Bogens 1050,wenn die virtuelle Kamera 1000 am weitesten abwärts geneigt ist) und die Position 1055 auf eine ähnliche Weise wie die oben anhand der 9 beschrieben. Eine Wiedergabe einer 3D-Kartenansicht basierend auf der Position der virtuellen Kamera 1000 in der ersten Phase 1005, führt zu der 3D-Kartenansicht 1025.
  • Wenn die virtuelle Kamera 1000 die Position 1055 passiert während sie sich zu dem unteren perspektivischen Ende des Bogens 1050 bewegt, verringert die Kartenanwendung die Geschwindigkeit (z.B. verlangsamen), so dass die virtuelle Kamera 1000 sich zu dem niedrigen perspektivischen Ende des Bogens 1050 ungeachtet der durch den Benutzer bereitgestellten Eingabe, bewegt. In einigen Ausführungsformen reduziert die Kartenanwendung die Geschwindigkeit der virtuellen Kamera 1000 in einer konstanten Rate, während in anderen Ausführungsformen die Kartenanwendung die Geschwindigkeit der virtuellen Kamera 1000 in einer exponentiellen Rate reduziert. Zusätzliche und/oder unterschiedliche Verfahren zum Verringern der Geschwindigkeit der virtuellen Kamera 1000 werden in einigen Ausführungsformen verwendet.
  • Die zweite Phase 1010 zeigt, dass sich die virtuelle Kamera 1000 zu einer Position entlang des Bogens 1050 zu oder nahe des niedrigen perspektivischen Endes des Bogens 1050 bewegt hat. Wie gezeigt stellt ein Benutzer eine Eingabe bereit, um die Perspektive der Ansicht der 3D-Karte 1035 einzustellen durch Berührung des Bildschirms mit zwei Fingern und Ziehen der zwei Finger in eine Aufwärtsrichtung (z.B. eine Wischgeste). Als Antwort auf die Eingabe bewegt die Kartenanwendung die virtuelle Kamera 1000 zu dem niedrigen perspektivischen Ende des Bogens 1050, während die virtuelle Kamera 1050 aufwärts geneigt wird. Wenn die virtuelle Kamera die Position 1065 entlang des Bogens 1050 erreicht, hindert die Kartenanwendung die virtuelle Kamera 1000 daran, sich niedriger und jenseits der Position 1065 zu bewegen, sogar wenn der Benutzer weiterhin die Eingabe zur Verringerung der Perspektive der Ansicht der 3D-Karte 1035 bereitstellt (z.B. zieht der Benutzer weiterhin mit zwei Fingern aufwärts auf dem Berührungsbildschirm).
  • In einigen Ausführungsformen, wenn der Benutzer aufhört, Eingaben zum Verringern der Perspektive der Ansicht der 3D-Karte 1035 bereitzustellen (z.B. der Benutzer hebt die beiden Finger von dem Berührungsbildschirm), „federt“ oder „schnappen“ (snap) die Kartenanwendung die Position der virtuellen Kamera 1000 von der Position 1065 auf zu der Position 1060 entlang des Bogens 1050. Da die Kartenanwendung 3D-Kartenansichten der 3D-Karte 1035 basierend auf der Ansicht der virtuellen Kamera 1000 während der Feder- oder Schnappbewegung generiert oder wiedergibt, stellt die generierte 3D-Kartenansicht eine Federanimation bereit, die die 3D-Kartenansicht kurz hinunterfedernd oder -schnappend anzeigt, um dem Benutzer anzugeben, dass die Perspektive der Kartenansicht nicht weiter verringert werden kann. Eine 3D-Kartenansicht unter Verwendung der in diesem Winkel positionierten virtuellen Kamera 1000 wiederzugeben resultiert in einer 3D-Kartenansicht 1030, in welcher die Gebäude und die Straßen verglichen mit der Kartenansicht 1025 größer sind.
  • Die dritte Phase 1015 zeigt die virtuelle Kamera 1000 nachdem die Kartenanwendung die Position der virtuellen Kamera 1000 zu der Position 1060 in Antwort auf das Beenden der Bereitstellung von Eingaben durch den Benutzer, federte oder schnappte. Unterschiedliche Ausführungsformen verwenden unterschiedliche Techniken zur Implementierung des Federns oder Schnappens der virtuellen Kamera 1000. Zum Beispiel startet die Kartenanwendung einiger Ausführungsformen schnell die virtuelle Kamera 1000 entlang des Bogens 1050 für eine definierte Distanz oder bis die virtuelle Kamera 1000 eine definierte Geschwindigkeit erreicht hat, zu beschleunigen. Dann verlangsamt die Kartenanwendung die virtuelle Kamera 1000 für die verbleibende Distanz zu der Position 1060 entlang des Bogens 1050. Andere Möglichkeiten, um den Feder- oder Schnappeffekt zu implementieren, werden in einigen Ausführungsformen verwendet. Eine 3D-Kartenansicht unter Benutzung der virtuellen Kamera 1000, welche an der Position 1060 entlang des Bogens 1050 in der dritten Phase 1015 positioniert ist, wiederzugeben, resultiert in einer 3D-Kartenansicht 1040, in welcher die Gebäude etwas kleiner und flacher und die Straßen etwas kleiner verglichen mit der Kartenansicht 1030 erscheinen.
  • Wie oben beschrieben veranschaulicht 10 eine Technik zum Verhindern, dass sich eine virtuelle Kamera jenseits des niedrigen perspektivischen Endes eines Bogens bewegt. Alternativ oder in Verbindung mit der Verhinderung, dass sich die virtuelle Kamera jenseits des niedrigen perspektivischen Endes des Bogens bewegt, verwendet die Kartenanwendung einiger Ausführungsformen eine ähnliche Technik zum Verhindern, dass sich die virtuelle Kamera jenseits des hohen perspektivischen Endes des Bogens bewegt. Zusätzlich zeigt 10 ein Beispiel einer Position entlang eines Bogens, an welcher eine virtuelle Kamera abzubremsen ist, eine Position entlang des Bogens, um eine virtuelle Kamera am Vorbeigehen zu hindern und eine Position entlang des Bogens, zu welcher die virtuelle Kamera zurückschnappt oder -federt. Unterschiedliche Ausführungsformen definieren die Positionen in beliebig vielen unterschiedlichen Arten. Zum Beispiel ist in einigen Ausführungsformen die Position entlang des Bogens, an welcher die virtuelle Kamera abgebremst wird, die gleiche oder nahe der Position entlang des Bogens, an welcher die virtuelle Kamera zurückschnappt oder -federt.
  • C. Andere Benutzerinteraktionen
  • 1. Erscheinen und Verschwinden von Steuerungen
  • Die Anwendungen einiger Ausführungsformen haben, während einer Navigation, einen Vollbildschirmmodus. Das heißt, während des eigentlichen Bereitstellens von Anweisungen sind die Steuerungen, die normalerweise Einiges der Bildschirmoberfläche einnehmen, versteckt. 11 veranschaulicht einen Vollbildschirmmodus einiger Ausführungsformen. Die Figur wird in sechs Phasen 1101-1106 gezeigt. In Phase 1101 wird eine Menge von Navigationsinstruktionen durch die Selektion eines Startknopfes 1110 aktiviert. Durch Selektieren des Startknopfes selektiert der Benutzer die hervorgehobene Route aus zwei möglichen Routen. Die nicht hervorgehobene Route verschwindet und ein kleinerer Maßstab der Navigationskarte 1121 erscheint in der Phase 1102. Die erste Phase 1101 zeigt, dass die Straßennamen auf den Straßen sind, weil die Kartenanwendung eine Kartenansicht anzeigt. Die erste Phase 1101 zeigt auch, dass die Positionssteuerung 1130 für die eine Kartenansicht anzeigende Kartenanwendung angezeigt wird. Die Auswahl der Listensteuerung 1132 wird die Kartenanwendung dazu veranlassen, die verfügbaren Routen in einem Listenformat anzuzeigen.
  • Auch in der Phase 1102 wird die erste Instruktion 1120 zusammen mit einer Beenden-Steuerung 1122, dem Reisestatusbereich 1124 (eine voraussichtliche ETA, eine Reisedauerschätzung und einen Indikator der Distanz der geplanten Route) beinhaltend, einen Übersichtsknopf 1126, einen Statusbalken 1127 und eine 3D-Steuerung 1128 gezeigt. Der Beenden-Knopf 1122 beendet das Laufen der Navigationsinstruktionen. Der Statusbereich 1124 zeigt Informationen über die geplante Route an. Der Übersichtsknopf 1126 zeigt eine Übersicht der Route an. Die 3D-Steuerung ist ein Indikator, ob die Navigationsanwendung eine Szene in 3D oder 2D zeigt und ein Umschalter zum Betreten oder Verlassen des 3D-Modus. Die Auswahl der Listensteuerung 1132 in dieser Phase wird die Kartenanwendung dazu veranlassen, die Menge von Navigationsinstruktionen in einem Listenformat anzuzeigen. Diese Phase zeigt auch, dass die Straßennamen in Bannern anstatt auf den Straßen angezeigt werden, weil die Kartenanwendung in dem Navigationsmodus arbeitet.
  • Nach einer kurzen Zeitdauer verschwinden die Beenden-Steuerung 1122, die Listensteuerung 1132, der Statusbereich 1124, der Übersichtsknopf 1126 und die 3D-Steuerung 1128. In einigen Ausführungsformen verschwinden die Steuerungen abrupt, während in anderen Ausführungsformen die Steuerungen dahinschwinden. In einigen Ausführungsformen verschwindet auch der Statusbalken 1127 am oberen Ende des Bildschirms und der Navigationskasten 1120 bewegt sich zum oberen Ende des Bildschirms.
  • Die Abwesenheit der Steuerungen und die Bewegung des Navigationskastens 1120 werden in Phase 1103 gezeigt, in welcher die Navigationskarte 1121 ohne die Steuerungen abgesehen von dem angehobenen Navigationskasten 1120 gesehen wird. Der Benutzer kann die versteckten Steuerungen durch Tippen des Bildschirms in einigen Ausführungsformen wiederherstellen. Dies wird in den Phasen 1104 und 1105 demonstriert. In Phase 1104 tippt der Benutzer den Bildschirm mit dem Finger 1140 an. In Phase 1105 sind die Steuerungen zurück, als Resultat des Tippens der vorigen Phase, und der Navigationskasten 1120 ist zurück an seine originale Position heruntergefallen. Die wiederhergestellten Steuerungen beinhalten die Beenden-Steuerung 1122, den Statusbereich 1124, den Übersichtsknopf 1126, den Statusbalken 1127 und die 3D-Steuerung 1128. Sobald die Steuerungen wieder da sind, kann der Benutzer die Steuerungen durch antippen, wie in Phase 1105 gezeigt, wo der Benutzer den Bildschirm mit dem Finger 1150 antippt, wieder verschwinden lassen, um die Navigationsanwendung in den Vollbildschirmmodus in Phase 1106 zurückzuführen. Zusätzlich zu den versteckten Steuerungen sind im Vollbildschirm in einigen Ausführungsformen die Berührungsinteraktionen mit der Karte sehr eingeschränkt. In einigen Ausführungsformen existieren mehrere Steuerungen, welche in einigen Modi gezeigt sind, aber im Vollbildschirmmodus versteckt sind (z.B. eine Listensteuerung).
  • In einigen Ausführungsformen, wenn die Steuerungen gezeigt werden und es einen Zusatz zu dem Statusbalken gibt (z.B. ein Telefonanruf-Statusbalken, der die Länge eines andauernden Anrufs zeigt), ist der Navigationskasten gekürzt, um mehr Raum für den expandierten Statusbalken zu machen. Dies wird in 12 gezeigt, welche die Navigationsanwendung mit versteckten und während eines Telefonanrufs auf der Vorrichtung offenbarten Steuerungen veranschaulicht. 12 beinhaltet die Phasen 1201 und 1202. In der Phase 1201 sind die Steuerungen der Navigationsanwendung versteckt und der Navigationskasten 1210 und die Karte 1215 sind sichtbar. Der Benutzer tippt auf den Berührungsbildschirm mit dem Finger 1217, um der Navigationsanwendung zu befehlen, ihre Steuerungen zu zeigen. In Phase 1202 zeigt die Navigationsanwendung ihre Steuerungen 1220 und auch einen Telefonanruf-Statusbalken 1222 unter dem Statusbalken 1224. Die Navigationsanwendung hat wegen des Telefonanruf-Statusbalkens 1222 weniger Raum. Um den für die Navigationsanwendung einiger Ausführungsformen verfügbaren kleineren Bildschirmbereich auszugleichen, verkleinert den Navigationskasten 1210, wenn der Telefonanruf-Statusbalken 1222 auf dem Bildschirm ist. In einigen Ausführungsformen, wenn sich der Navigationskasten verkleinert, werden der Text und/oder der Richtungspfeil in dem Kasten verändert, um in den verkleinerten verfügbaren Bereich für den Text und Pfeil zu passen.
  • 2. Beenden der Navigation
  • In dem normalen Verlauf des Durchlaufens einer Menge an Navigationsinstruktionen durch eine Navigationsanwendung, während die Vorrichtung jede neue Kreuzung erreicht, die Navigationsinstruktionen benötigt, erscheinen Instruktionen für den nächsten solche Kreuzung. Dies geht weiter bis die Vorrichtung ihr Ziel erreicht. Wenn das Ziel erreicht ist, hört die Navigationsanwendung auf, Instruktionen bereitzustellen und das Laufen der programmierten Route endet. 13 veranschaulicht in vier Phasen 1301-1304 das Ende einer programmierten Route. In Phase 1301 läuft die Anwendung mit versteckten Steuerungen und der Navigationskasten 1310 zeigt, dass das Ziel nur noch 1000 Fuß entfernt ist. Das Ziel wird auf der Karte als ein Pin 1312 mit einem runden Kopf gezeigt. Allerdings wird der Fachmann verstehen, dass andere Symbole in Anwendungen von anderen Ausführungsformen verwendet werden könnten und dass in einigen Ausführungsformen kein Symbol verwendet wird und die Linie einfach nur endet. Während die Vorrichtung sich näher zu ihrem Ziel bewegt, zählt die Navigationsanwendung die Distanz herunter. In Phase 1302 zeigt der Navigationskasten 1320, dass es nur noch 100 Fuß zum Ziel zu gehen sind. In Phase 1303 hat die Vorrichtung ihr Ziel gerade erreicht. Der Navigationskasten 1330 gibt an, dass das Ziel auf der linken Seite ist und beinhaltet ein Symbol mit einem auf das Zentrum einer Zielscheibe zeigenden Pfeil. Später, in Phase 1304, wenn die Vorrichtung an ihrem Ziel angekommen ist, hat die Navigationsanwendung den Navigationskasten 1320 geschlossen, wobei der Benutzer mit einer Karte 1340, aber ohne weitere Anweisungen belassen wird.
  • In einigen Ausführungsformen können Ziele an Plätzen sein, welche mit dem Auto nicht erreichbar sind, z.B. könnte der Endpin in der Mitte eines Parks sein. In einigen solchen Ausführungsformen werden die Fahranweisungen enden, aber es wird weiterhin Anweisungen für die Reise zu Fuß geben. In anderen solchen Ausführungsformen wird die Anwendung keine Text-Anweisungen für die Reise zu Fuß geben, aber wird einen Pin an dem Ort beibehalten (z.B. die Mitte eines Parks), wenn Karten im Kartenmodus oder im Sperrmodus angezeigt werden. In einigen solchen Ausführungsformen wird die letzte Instruktion, die nach dem Automobilanteil der Reise endet, eine Anweisung „Bitte zu Fuß erreichen“ sein.
  • 13 veranschaulicht was passiert, wenn eine Navigationsanwendung den Benutzer den ganzen Weg zu seinem finalen Ziel führt. In einigen Ausführungsformen könnte der Benutzer allerdings die Meinung des Benutzers über das Erhalten von Anweisungen ändern. Der Benutzer könnte entlang des Weges anhalten, Ziele ändern oder aus einigen anderen Gründen das Durchlaufen der Menge an Navigationsinstruktionen beenden wollen. Dementsprechend beinhaltet die Anwendung in einigen Ausführungsformen einen „Beenden“-Knopf. Der Beenden-Knopf stoppt das Laufen einer Menge von Navigationsinstruktionen und belässt in einigen Ausführungsformen den Benutzer in dem gleichen Zustand als ob sie das Ziel erreicht hätten (z.B. ohne Instruktionen, aber mit einer Karte). 14 veranschaulicht eine Beenden-Steuerung eines Navigationsprogramms. Die Figur wird in zwei Phasen 1401 und 1402 gezeigt. Phase 1401 zeigt eine Navigationsanwendung mit ihren sichtbaren Steuerungen. Die Steuerungen beinhalten einen „Beenden“-Knopf 1410. Der Benutzer tippt mit dem Finger 1412 auf einen Knopf. Die Navigationsanwendung ist weit von ihrem Ziel entfernt, wie durch den Navigationskasten 1414, welcher darlegt, dass der nächste Verbindungspunkt 20 Meilen entfernt ist, und durch die Route 1416, welche sich in die Ferne vor dem Positionsindikator 1418 ausdehnt, angegeben. In Phase 1402 verschwinden der Navigationskasten 1414 sowie die Route 1416, weil der Benutzer den Beenden-Knopf 1410 angetippt hat. Der Positionsindikator 1418 ist auch in dieser Phase verschwunden, ersetzt durch einen kugelförmigen Positionsindikator 1428.
  • 3. Gesten, um während der Navigation auf die Seite der Route zu schauen
  • Wie oben beschrieben ist das Standardverhalten der virtuellen Kamera dem Ort der Vorrichtung durch eine virtuelle Welt zu folgen und hinunter und in die Richtung, in die die Vorrichtung sich bewegt, oder wenigstens auf einen Teil seiner Route, ein Stück vor der aktuellen Position der Vorrichtung zu zeigen. Allerdings ist es nicht immer erwünscht, dass die Kamera geradeaus zeigt. Manchmal will der Benutzer, dass die Kamera stattdessen in einem Winkel zeigt. Dementsprechend rotiert die Navigationsanwendung in einigen Ausführungsformen die virtuelle Kamera herum, wenn der Benutzer die Karte seitwärts zieht. 15 veranschaulicht die Rotation einer Karte, wenn ein Benutzer diese seitwärts drückt. Die Figur beinhaltet vier Phasen 1501-1504. In Phase 1501 wird die Anwendung in ihrem Standardmodus gezeigt, mit der Straße 1510 (Main St.) und der aktuellen Route 1512 parallel zu den Seiten des Bildschirms auf der 3D-Karte 1514 verlaufend. In dieser Phase 1501 beginnt der Benutzer, die Karte nach links zu drücken. In der nächsten Phase 1502 wurde die virtuelle Kamera nach links bewegt und nach rechts rotiert. Das heißt, die 3D-Karte 1514 wurde so geändert als ob die virtuelle Kamera nach links bewegt und nach rechts rotiert wurde. Die Karte 1514, welche gedreht wurde, zeigt nun die Vorderseiten der Gebäude auf der rechten Seite der Straße. In einigen Ausführungsformen gibt es eine maximale Schwelle, wie weit die Karte rotiert werden wird. In einigen Ausführungsformen kann der Benutzer, genauso wie er befähigt ist, die Karte von einer Seite zur anderen Seite zu bewegen, sich zu einer Ansicht leicht vor oder leicht hinter dem Ortsindikator (z.B. durch Hinunter- oder Hinaufziehen mit einem Finger) bewegen. In einigen solchen Ausführungsformen ist der Umfang, in welchem die Karte vor oder hinter durch Ziehen bewegt werden kann, auch gedeckelt.
  • In der veranschaulichten Ausführungsform rotiert die Anwendung nur die Gebäude, während der Benutzer die Karte nach links (oder rechts) zieht oder für eine kurze Zeit danach (z.B. mit simulierter Trägheit). Sobald der Benutzer aufhört, die Karte 1514 zu ziehen oder seinen Finger an der Stelle zu halten, um die Karte 1514 an der Stelle zu halten, fällt die Karte 1514 zu ihrer Standardansicht in der Richtung der Route, die die Kamera nimmt, zurück. Dies wird in Phase 1503 gezeigt, in welcher der Benutzer aufgehört hat, die Karte 1514 zu ziehen und die virtuelle Kamera zurück zu ihrer ursprünglichen Position direkt hinter der Vorrichtung rotiert und/oder bewegt, während sie sich auf ihrer Route bewegt. Mit der Phase 1504 hat die Karte 1514 ihre vorherige Ausrichtung wieder eingenommen. In einigen Ausführungsformen rotiert die virtuelle Kamera nur, wenn die Karte seitwärts gezogen wird anstatt sich zu bewegen sowie zu rotieren. Während in anderen Ausführungsformen die Kamera um die Ortskennung herumdreht, so dass der Ortskennung als fixer Punkt erscheint, während die Karte um ihn herum dreht.
  • 4. Routen-Übersichtsmodus
  • In einigen Fällen können einige Benutzer, statt nur eine Karte mit kleinem Maßstab, die den nächsten Kreuzung zeigt, anzusehen, manchmal einen Blick auf das große Ganze haben wollen. Das heißt, die Benutzer können sich die Gesamtheit der geplanten Route ihrer Navigationsanwendung ansehen wollen, während der Benutzer auf der Route reist. Daher stellen einige Ausführungsformen eine Übersichtsoption bereit, die dem Benutzer die gesamte Route zeigt. 16 und 17 veranschaulichen Übersichtssteuerungen. 16 beinhaltet zwei Phasen 1601 und 1602. In Phase 1601 werden eine Navigationskarte 1610, ein Übersichtsknopf 1612, ein Finger 1614 und eine Listensteuerung 1617 gezeigt. In der Navigationskarte 1610 zeigt der Ortsindikator 1616, dass die Vorrichtung auf der Main St. nahe der 1st St. ist. Die Phase 1601 zeigt auch, dass die Kartenanwendung die Straßennamen in Bannern 1618 anzeigt, weil die Kartenanwendung im Navigationsmodus arbeitet. In dieser Phase drückt der Finger 1614 den Übersichtsknopf 1612, was zur Anzeige der Übersicht in Phase 1602 führt.
  • In Phase 1602 hat die Navigationsanwendung eine Übersichtskarte 1620, einen Fortsetzen-Knopf 1622, ein Ortsindikatorpin 1626, ein Endpin 1628 und eine Positionsindikatorsteuerung 1630 angezeigt. Die Übersichtskarte 1620 zeigt dem Benutzer seine gesamte geplante Route von der aktuellen Position startend an. In der veranschaulichten Ausführungsform fokussiert die Übersichtskarte auf die verbleibende Route, nicht die gesamte Route von Anfang an, da sie keine leicht gefärbte Linie, die die davor gereiste Route angibt, zeigt. Allerdings zeigt die Übersichtskarte in einigen Ausführungsformen die gesamte Route anstatt nur die Route von dem aktuellen Ort der Vorrichtung an. In einigen Ausführungsformen ist die Listensteuerung 1617 auch in der Übersichtskarte enthalten, um dem Benutzer zu erlauben, direkt von der Übersichtskarte zu einer Liste von Manövern (z.B. bevorstehende Abbiegungen) zu gehen. Die zweite Phase 1602 zeigt auch, dass die Straßennamen auf der Straße angezeigt werden, weil die Kartenanwendung die Übersichtskarte anzeigt (d.h. nicht im Navigationsmodus). Es wird angemerkt, dass die Kartenanwendung einiger Ausführungsformen alternativ oder verbindend Banner zum Anzeigen von Straßennamen unabhängig von dem Modus, in welchem die Kartenanwendung arbeitet, verwendet.
  • Der Fortsetzen-Knopf 1622 wechselt die Navigationsanwendung zurück in die Navigationsansicht der Phase 1601. Der Ortsindikatorpin 1626 und er Endpin 1628 zeigen den aktuellen Ort der Vorrichtung und das finale Ziel der Navigationsroute entsprechend. In einigen Ausführungsformen erlaubt die Anwendung einem Benutzer die Karte herumzubewegen, hinein- und hinaus zu zoomen und anderweitig auf unterschiedliche Teile der Übersichtskarte 1620 zu fokussieren. Die Positionsindikatorsteuerung 1630 zentriert in einigen Ausführungsformen die Karte auf den Ortsindikatorpin 1626.
  • In einigen Ausführungsformen hat der Übersichtsmodus einen Suchkasten, der einem Benutzer erlaubt, Suchanfragen für Gegenstände, die in der Übersichtskarte gefunden werden können, einzugeben. Zum Beispiel könnte der Benutzer nach Tankstellen in der Karte suchen, so dass der Benutzer ermitteln kann, wo er sein Auto auftanken kann. Ein anderes Beispiel wäre die Suche nach Cafes, so dass der Benutzer für einen Kaffee anhalten könnte. Einige Ausführungsformen erlauben einem Benutzer von einem ursprünglichen Endziel zu einem in einer Suche gefundenen Ziel zu wechseln, bevor die Navigation fortgesetzt wird.
  • In einigen Ausführungsformen sind alle Übersichtskarten in 2D. In anderen Ausführungsformen sind einige oder alle Übersichtskarten in 3D. Zum Beispiel verwenden einige Ausführungsformen 2D-Übersichtskarten für Routen, die große Distanzen umfassen, aber verwenden 3D-Übersichtskarten für die Navigationsrouten, die kurze Distanzen umfassen. 17 veranschaulicht eine Ausführungsform, die 3D-Übersichtskarten verwendet. 17 beinhaltet zwei Phasen 1701 und 1702. In Phase 1701 werden eine Navigationskarte 1710, ein Übersichtsknopf 1712, ein Finger 1714 und ein Listenknopf 1617 gezeigt. In der Navigationskarte 1710 zeigt der Ortsindikator 1716, dass die Vorrichtung auf der Main St. nahe der 1st St. ist. In dieser Phase drückt der Finger 1714 den Übersichtsknopf 1712, welches die Anzeige der Übersicht in Phase 1702 veranlasst.
  • In Phase 1702 zeigt die Navigationsanwendung eine Übersichtskarte 1720, einen Fortsetzen-Knopf 1722, einen Ortsindikatorpin 1726, einen Endpin 1728 und eine Positionsindikatorsteuerung 1730 an. Die Übersichtskarte 1720 zeigt dem Benutzer seine gesamte geplante Route. Der Fortsetzen-Knopf 1722 schaltet die Navigationsanwendung zurück in die Navigationsansicht der Phase 1701. Der Ortsindikatorpin 1726 und der Endpin 1728 zeigen entsprechend den aktuellen Ort der Vorrichtung und das finale Ziel der Navigationsroute. Die Positionsindikatorsteuerung 1730 zentriert die Karte auf den Ortsindikatorpin 1726.
  • In einigen Ausführungsformen beinhalten die 3D-Übersichtskarten eine Suchfunktion wie anhand der 16 beschrieben. Auch beinhaltet der Übersichtsmodus in einigen Ausführungsformen eine Steuerung, um die Karte auf den Endpin zu zentrieren. In einigen Ausführungsformen erlaubt die Positionsindikatorsteuerung einem Benutzer zwischen Zentrierung auf dem aktuellen Ort der Vorrichtung und dem Ziel der Vorrichtung umzuschalten. In einigen Ausführungsformen kann der Übersichtsmodus zu jedem Zeitpunkt während der Navigation aktiviert werden.
  • D. Mehrfachmodus-Anwendung
  • 1. Wiedergabemodul
  • 18 veranschaulicht konzeptionell eine Verarbeitungs- oder Kartenwiedergabe-Pipeline 1800, die von der Kartenanwendung von einigen Ausführungsformen durchgeführt wird, um eine Karte zum Anzeigen auf der Clientvorrichtung wiederzugeben (z.B. auf der Anzeige der Clientvorrichtung). In einigen Ausführungsformen kann die Datenwiedergabe-Pipeline 1800 insgesamt als ein Kartenwiedergabemodul bezeichnet werden. Eine detailliertere Version dieser Verarbeitungs-Pipeline ist in der oben eingebundenen US-Patentanmeldung 13/632,040 mit dem Titel „Virtual Camera for 3D Maps“ beschrieben. Wie veranschaulicht beinhaltet die Verarbeitungs-Pipeline 1800 Kachelabrufer 1805, eine Menge von Netzerzeugern 1815, eine Menge von Netzerstellungsprozessoren 1810, einen Kachelanbieter 1820, eine virtuelle Kamera 1830 und eine Kartenwiedergabe-Engine 1825.
  • Die Kachelabrufer (retriever) 1805 führen verschiedene Prozesse aus, um die Kartenkacheln abzurufen in einigen Ausführungsformen entsprechend den Anfragen der Netzerzeuger 1815 für Kartenkacheln. Die Netzerzeuger 1815, wie sie unten beschrieben werden, identifizieren existierende Kartenkacheln (die auf einem Kartendienstserver oder in einem Zwischenspeicher auf der Vorrichtung gespeichert sind, die die Verarbeitungs-Pipeline 1800 durchführt), die für das Erzeugen ihrer entsprechenden Netze benötigt werden. Die Kachelabrufer 1805 empfangen die Anfragen nach den Kartenkacheln, ermitteln den besten Ort, von welchem die Kartenkacheln abzurufen sind (z.B. von dem Kartendienst, von einem Zwischenspeicher auf der Vorrichtung) und dekomprimieren die Kartenkacheln falls erforderlich.
  • Die Netzerzeuger 1815 (auch als Kachelquellen bezeichnet) von einigen Ausführungsformen sind durch den Kachelanbieter 1820 instanziiert, um unterschiedliche Schichten der Ansichtskacheln zu erzeugen. Abhängig von der durch die Kartenanwendung dargestellten Art der Karte kann der Kachelanbieter 1820 unterschiedliche Anzahlen und Typen von Netzerzeugern 1815 instanziieren. Zum Beispiel für eine Überflug- (oder Satelliten)-Ansichtskarte könnte der Kachelanbieter 1820 nur einen Netzerzeuger 1815 instanziieren, da die Überflug-Kartenkacheln einiger Ausführungsformen keine mehrfache Datenschichten enthalten. Genau genommen enthalten in einigen Ausführungsformen die Überflug-Kartenkacheln ein bereits erstelltes Netz, generiert in dem Kartendienst, für welchen die Überflugbilder (aufgenommen durch einen Satelliten, ein Flugzeug, einen Helikopter usw.) als Texturen verwendet werden. Allerdings können in einigen Ausführungsformen zusätzliche Netzerzeuger instanziiert werden, um die Bezeichnungen zu erzeugen, die über die Überflugbilder zu legen sind, wenn die Anwendung in einem Hybridmodus ist. Für eine 2D- oder 3D-wiedergegebene Vektorkarte (z.B. eine Nicht-Satelliten-Bildkarte) instanziieren einige Ausführungsformen separate Netzerzeuger 1815, um die Netze für die Polygondaten der Landbedeckung (z.B. Parks, Gewässer, usw.), Straßen, Markierungen von Plätzen von Interesse, Punktbezeichnungen (z.B. Bezeichnungen für Parks, usw.), Straßenbezeichnungen, Verkehr (wenn Verkehr angezeigt wird), Gebäude, Rasterdaten (für bestimmte Objekte bei bestimmten Zoomstufen) sowie andere Datenschichten, die in die Karte einzugliedern sind, zu erzeugen.
  • Die Netzerzeuger 1815 empfangen in einigen Ausführungsformen „leere“ Ansichtskacheln von dem Kachelanbieter 1820 und geben „erzeugte“ Ansichtskacheln zu dem Kachelanbieter 1820 zurück. Das heißt, der Kachelanbieter 1820 sendet zu jedem Netzerzeuger 1815 eine oder mehrere Ansichtskacheln (nicht gezeigt). Jede der Ansichtskacheln gibt einen Bereich der Welt an, für welchen ein Netz gezeichnet werden soll. Beim Empfangen solch einer Ansichtskachel, identifiziert ein Netzerzeuger 1815 die vom Kartendienst benötigten Kartenkacheln und sendet seine Liste zum Kachelabrufer 1805.
  • Beim Zurückempfangen der Kacheln von den Kachelabrufern 1805 verwendet der Netzerzeuger in den Kacheln gespeicherte Vektordaten, um ein Polygonnetz für den von der Ansichtskachel beschriebenen Bereich zu erzeugen. In einigen Ausführungsformen verwendet der Netzerzeuger 1815 mehrere unterschiedliche Netzerzeugungsprozessoren 1810, um das Netz zu erzeugen. Diese Funktionen können einen Netzgenerator, einen Triangulator, einen Schattengenerator und/oder einen Texturdecodierer beinhalten. In einigen Ausführungsformen sind diese Funktionen (und zusätzliche Netzerzeugungsfunktionen) jedem Netzerzeuger verfügbar, wobei unterschiedliche Netzerzeuger 1815 unterschiedliche Funktionen verwenden. Nach dem Erzeugen seines Netzes gibt jeder Netzerzeuger 1815 seine Ansichtskacheln dem Kachelanbieter 1820 mit seiner Schicht des Netzes gefüllt zurück.
  • Der Kachelanbieter 1820 empfängt vom Steuergerät 1875 eine bestimmte Ansicht (d.h. einen Raum oder eine Pyramidenstumpfansicht (Frustrum) (viewing frustrum), die die anzuzeigende Kartenansicht darstellt (d.h. der von der virtuellen Kamera 1830 aus sichtbare Raum). Der Kachelanbieter führt jegliches Auswählen durch (z.B. den in einer Ansichtskachel anzuzeigenden Oberflächenbereich zu identifizieren), und sendet dann diese Ansichtskacheln zu den Netzerzeugern 1815.
  • Der Kachelanbieter 1820 empfängt anschließend die erstellten Ansichtskacheln der Netzerzeuger und führt in einigen Ausführungsformen das Auswählen auf dem erstellten Netz unter Verwendung einer bestimmten Ansicht von der virtuellen Kamera 1830 durch (z.B. Entfernen eines zu weit entfernten Oberflächenbereichs, Entfernen von Objekten, die komplett hinter anderen Objekten sein werden usw.). In einigen Ausführungsformen empfängt der Kachelanbieter 1820 die erstellten Ansichtskacheln von unterschiedlichen Netzerzeugern zu unterschiedlichen Zeiten (z.B. aufgrund von unterschiedlichen Verarbeitungszeiten, um die mehr oder weniger komplizierten Netze zu vervollständigen, aufgrund von unterschiedlich verstrichener Zeit bevor die notwendigen Kartenkacheln von den Kachelabrufern 1805 empfangen wurden usw.). Sobald alle der Schichten der Ansichtskacheln zurückgekommen sind, setzt der Kachelanbieter 1820 einiger Ausführungsformen die Schichten zusammen und gibt die Daten dem Steuergerät 1875 zur Wiedergabe frei.
  • Die virtuelle Kamera 1830 generiert einen Raum oder eine Oberfläche, zur Wiedergabe für die Pipeline 1800 und sendet diese Informationen zu dem Steuergerät 1875. Basierend auf einem/einer bestimmten Ort und Ausrichtung, von welcher die Karte wiedergegeben werden wird (d.h. der Punkt im 3D-Raum, von welchem der Benutzer die Karte „sieht“), identifiziert die virtuelle Kamera ein Sichtfeld zum tatsächlichen Senden zum Kachelanbieter 1820. In einigen Ausführungsformen, wenn die Kartenanwendung die 3D-perspektivische Ansicht für die Navigation wiedergibt, wird das Sichtfeld der virtuellen Kamera entsprechend eines Algorithmus, der einen neuen Ort und eine neue Ausrichtung der virtuellen Kamera in regelmäßigen Intervallen basierend auf der Bewegung der Benutzervorrichtung generiert, bestimmt.
  • Das Steuergerät 1875 ist in einigen Ausführungsformen verantwortlich für das Verwalten des Kachelabrufers 1820, der virtuellen Kamera 1830 und der Kartenwiedergabe-Engine 1825. In einigen Ausführungsformen können in der Tat mehrere Kachelanbieter initiiert werden und das Steuergerät mehrere Ansichtskacheln zusammensetzen (z.B. Kartenkacheln und Gebäudekacheln), um eine Szene zu erschaffen, die der Kartenwiedergabe-Engine 1825 übergeben wird.
  • Die Kartenwiedergabe-Engine 1825 ist verantwortlich für die Erzeugung einer Zeichnung, um diese auf einer Bildschirmvorrichtung auszugeben, basierend auf den Netzkacheln (nicht gezeigt), die von der virtuellen Kamera gesendet werden. Die Kartenwiedergabe-Engine 1825 hat in einigen Ausführungsformen mehrere Unterprozesse. In einigen Ausführungsformen wird jede unterschiedliche Art von Kartenelement von einem unterschiedlichen Unterprozess wiedergegeben mit der Wiedergabe-Engine 1825, die die Okklusion von unterschiedlichen Schichten von Objekten abwickelt (z.B. Platzieren von Bezeichnungen über oder hinter unterschiedlichen Gebäuden, Erzeugen von Straßen auf Landbedeckungen usw.). Beispiele von solchen Wiedergabeprozessen beinhalten einen Straßenwiedergabeprozess, einen Gebäudewiedergabeprozess, einen Bezeichnungswiedergabeprozess, einen Vegetationswiedergabeprozess, einen Verkehrsrasterwiedergabeprozess, einen Straßenrasterwiedergabeprozess, einen Satellitenwiedergabeprozess, einen Polygonwiedergabeprozess, einen Hintergrundrasterwiedergabeprozess usw.
  • Die Funktionsweise der Wiedergabe-Pipeline 1800 in einigen Ausführungsformen wird nun beschrieben werden. Basierend auf Benutzereingaben, um eine bestimmte Kartenregion in einer bestimmten Zoomstufe anzusehen, spezifiziert die virtuelle Kamera 1830 einen Ort und eine Ausrichtung, von welcher aus die Kartenregion anzusehen ist, und sendet diese Pyramidenstumpfansicht oder diesen Raum zum Steuergerät 1875. Das Steuergerät 1875 instanziiert einen oder mehrere Kachelanbieter. Während ein Kachelanbieter 1820 in dieser Figur gezeigt wird, erlauben andere Ausführungsformen die Instanziierung von mehreren Kachelanbietern auf einmal. Zum Beispiel instanziieren einige Ausführungsformen separate Kachelanbieter für Gebäudekacheln und für Kartenkacheln.
  • Der Kachelanbieter 1820 führt jegliche notwendige Auswahl durch, um eine leere Ansichtskachel zu erzeugen, die die Regionen der Karte, für welche ein Netz erstellt werden muss, identifiziert, und sendet die leere Ansichtskachel zu den Netzerzeugern 1815, welche für die unterschiedlichen Schichten der gezeichneten Karte instanziiert werden (z.B. Straßen, Landbedeckung, Punkt-von-Interesse-Bezeichnungen, usw.). Die Netzerzeuger 1815 verwenden ein vom Kartendienst empfangenes Manifest, das die unterschiedlichen verfügbaren Kacheln auf dem Kartendienstserver identifiziert (d.h. als Knoten eines „Quadtrees“). Die Netzerzeuger 1815 fragen spezifische Kartenkacheln von den Kachelabrufern 1805 an, welche die angefragten Kartenkacheln zu den Netzerzeugern 1815 zurückgeben.
  • Sobald ein bestimmter Kartenerzeuger 1815 seine Kartenkacheln empfangen hat, beginnt er unter Verwendung der Vektordaten, die in den Kartenkacheln gespeichert sind, das Netz für die von dem Kachelanbieter 1820 gesendeten Ansichtskacheln zu erzeugen. Nach dem Erzeugen des Netzes seiner Kartenschicht sendet der Netzerzeuger 1815 die erstellte Ansichtskachel zurück zu dem Kachelanbieter 1820. Der Kachelanbieter 1820 wartet bis er alle Ansichtskacheln der verschiedenen Netzerzeuger 1815 empfangen hat, dann schichtet er diese zusammen und sendet die vollständige Ansichtskachel zu dem Steuergerät 1875. Das Steuergerät fügt die zurückgegebenen Kacheln von allen Kachelanbietern zusammen (z.B. eine Kartenansichtskachel und eine Gebäudeansichtskachel) und sendet diese Szene zu der Wiedergabe-Engine 1825. Die Kartenwiedergabe-Engine 1825 verwendet die Information in den Kartenkacheln, um die Szene zum Anzeigen zu zeichnen.
  • 2. Zustandsdiagramm für unterschiedliche Modi
  • 19 veranschaulicht konzeptionell ein Zustandsdiagramm 1900, das unterschiedliche Zustände und Übergänge zwischen diesen Zuständen der integrierten Karten-, Such- und Navigationsanwendung einiger Ausführungsformen beschreibt (z.B. die in den obigen Abschnitten beschriebene Anwendung). Der Fachmann wird erkennen, dass die Anwendung einiger Ausführungsformen viele unterschiedliche Zustände in Bezug auf alle unterschiedlichen Arten von Eingabeereignissen haben wird und dass das Zustandsdiagramm 1900 speziell auf eine Untermenge dieser Ereignisse fokussiert ist. Das Zustandsdiagramm 1900 beschreibt und bezieht sich auf verschiedene gestische Interaktionen (z.B. Mehrfachberührungsgesten) zum Ändern von Zuständen der Anwendung. Der Fachmann wird erkennen, dass verschiedene andere Interaktionen, so wie Gesten eines Zeigersteuergeräts und Knopfklicks, Tastatureingaben, Touchpad/Trackpad-Eingaben usw. auch für ähnliche Selektionsoperationen verwendet werden können.
  • Wenn ein Benutzer anfänglich die Kartenanwendung öffnet, ist die Anwendung in einem Zustand 1905, dem Kartendurchsuchungszustand. In diesem Zustand 1905 wird die Anwendung eine Kartenansicht generiert und angezeigt haben. Um diese Kartenansicht zu generieren und anzuzeigen, identifiziert die Anwendung in einigen Ausführungsformen eine notwendige Menge von Kartenkacheln für eine Region, fragt die Kartenkacheln an (z.B. von einem Kartendienstserver), generiert eine Ansicht der Kartenkacheln von einem bestimmten Ort, einer bestimmten Ausrichtung und einer bestimmten Perspektive der virtuellen Kamera und gibt die Kartenansicht auf einer Vorrichtungsanzeige wieder. Im Zustand 1905 ist die Kartenansicht statisch. Befindet sich die Anwendung im Zustand 1905, kann der Benutzer eine Vielzahl an Operationen zur Modifizierung der Kartenansicht, zum Suchen nach Einheiten (z.B. Plätze von Interesse, Adressen usw.), zum Abrufen einer Route für die Navigation, usw. durchführen.
  • In einigen Ausführungsformen wird die integrierte Anwendung auf einer Vorrichtung mit einer integrierten berührungsempfindlichen Anzeige angezeigt. Eine Vielzahl von gestischen Interaktionen über der Karte kann die Anwendung veranlassen, unterschiedliche Modifikationen der Kartenansicht durchzuführen (z.B. Verschieben, Rotieren, Zoomen, Ändern der Kartenperspektive usw.). Wenn die integrierte Anwendung gestische Interaktionen auf der Kartenanzeige empfängt (im Gegensatz zu Berührungseingaben auf den verschiedenen schwebenden oder nicht-schwebenden Steuerungen, die über der Kartenanzeige liegen), geht die Anwendung in den Zustand 1910 über, um eine Erkennung gestischer Eingaben durchzuführen.
  • Der Zustand der Erkennung gestischer Eingaben 1910 unterscheidet zwischen unterschiedlichen Arten von gestischen Eingaben und übersetzt diese Arten von Eingaben in unterschiedliche Änderungsoperationen der Kartenansicht. In einigen Ausführungsformen empfängt die Kartenanwendung die gestischen Eingaben als durch das Betriebssystem der Vorrichtung mit integrierter berührungsempfindlicher Anzeige übersetzte Eingabe. Das Betriebssystem übersetzt die Berührungseingaben in gestische Arten und Orte (z.B. ein „Tippen“ an den Koordinaten (x, y), eine „Kneifen“-Operation mit unterschiedlichen Berührungseingaben an zwei unterschiedlichen Orten, usw.). In Zustand 1910 übersetzt die integrierte Kartenanwendung einiger Ausführungsformen diese in unterschiedliche Änderungsoperationen der Kartenansicht.
  • Wenn die Anwendung eine erste Art gestischer Eingaben empfängt (z.B. zwei separate Berührungseingaben, die sich zusammen in einer rotierenden Bewegung auf der Kartenansicht bewegen), geht die Anwendung in den Zustand 1915 über, um die Karte zu rotieren. Um die Kartenansicht zu rotieren, ändern einige Ausführungsformen den Ort und/oder die Ausrichtung der virtuellen Kamera, die bestimmt, welcher Anteil der Karte wiedergegeben wird, um die Kartenansicht zu erzeugen. Zum Beispiel rotiert in einem 3D-Modus die Kartenanwendung die virtuelle Kamera um eine bestimmte Position (z.B. dem Zentrum der Berührungseingaben, dem Zentrum des Bildschirms, einem Ortsindikator, der den Ort des Benutzers identifiziert, usw.). Solange die erste Art der gestischen Eingabe weitergeht, verbleibt die Kartenanwendung im Zustand 1915, um die Karte weiter zu rotieren.
  • Wenn der Benutzer die erste gestische Eingabeart loslässt, geht die Anwendung von einigen Ausführungsformen in einen Zustand 1930, um eine Trägheitsberechnung durchzuführen. In einigen Ausführungsformen führt die Anwendung, nachdem der Benutzer bestimmte Arten von Berührungseingaben loslässt, weiterhin die verbundene Änderung der Kartenansicht für eine bestimmte Zeitdauer und/oder Distanz durch. In diesem Fall geht die Anwendung, nachdem der Benutzer die Rotationseingabe losgelassen hat, in den Zustand der Trägheitsberechnung 1930 über, um den zusätzlichen Rotationsanteil und die Zeit, in welcher die Rotation durchgeführt werden soll, zu berechnen. In einigen Ausführungsformen verlangsamt die Anwendung die Rotation der (Winkel)-Geschwindigkeit, in welcher die Karte rotiert wurde, als ob eine „Reibungs“-Kraft auf die Karte angewendet wurde. Als solches basiert die Trägheitsberechnung einiger Ausführungsformen auf der Geschwindigkeit der ersten gestischen Eingabeart. Aus dem Zustand 1930 geht die Anwendung zurück zum Zustand der Kartenänderungen, in dem die Anwendung vorher war. Das heißt, wenn die Anwendung vom Zustand 1915 (dem Rotationszustand) zum Trägheitsberechnungszustand 1930 übergeht, geht sie zurück zum Zustand 1915, nachdem die Trägheitsberechnung durchgeführt wurde. Nachdem die Rotation der Karte abgeschlossen ist, geht die Anwendung zurück in den Zustand 1905.
  • Wenn die Anwendung eine zweite gestische Eingabeart empfängt (z.B. eine einzelne Berührungseingabe, die sich über die Karte bewegt), geht die Anwendung in einen Zustand 1920 über, um die Karte zu verschieben. Um die Kartenansicht zu verschieben, ändern einige Ausführungsformen den Ort der virtuellen Kamera, die bestimmt, welcher Anteil der Karte wiedergegeben wird, um die Kartenansicht zu erzeugen. Dies veranlasst die Karte in eine Richtung, abgeleitet von der Richtung der zweiten gestischen Eingabeart, gleitend zu erscheinen. In einigen Ausführungsformen, wenn die Kartenansicht in einem 3D-Perspektivenmodus ist, involviert der Verschiebungsprozess die Durchführung einer Korrelation des Ortes der Berührungseingabe zu einem Ort auf der flachen Karte, um plötzliche ungewollte Sprünge in der Kartenansicht zu vermeiden. Solange die zweite gestische Eingabeart weiter anhält, verbleibt die Kartenanwendung in dem Zustand 1920, um die Karte weiter zu verschieben.
  • Wenn der Benutzer die zweite gestische Eingabeart loslässt, geht die Anwendung einiger Ausführungsformen in den Zustand 1930 über, um eine Trägheitsberechnung durchzuführen. In einigen Ausführungsformen führt die Anwendung, nachdem der Benutzer bestimmte Arten der Berührungseingaben losgelassen hat, weiterhin die Änderung der Kartenansicht für eine bestimmte Zeitdauer und/oder Distanz durch. In diesem Fall geht die Anwendung, nachdem der Benutzer die Verschiebungseingabe losgelassen hat, in den Trägheitsberechnungszustand 1930 über, um die zusätzliche Bewegungsmenge der Kartenansicht (d.h. Bewegung der virtuellen Kamera) und die Zeit, in welcher die Bewegung ausgeführt werden soll, zu berechnen. In einigen Ausführungsformen verlangsamt die Anwendung die Verschiebungsbewegung von der Geschwindigkeit, in welcher die Karte verschoben wurde, als ob eine „Reibungs“-Kraft auf die Karte angewendet wurde. Als solches basiert die Trägheitsberechnung von einigen Ausführungsformen auf der Geschwindigkeit der zweiten gestischen Eingabeart. Aus dem Zustand 1930 geht die Anwendung zurück zum Kartenänderungszustand, in welchem die Anwendung vorher war. Das heißt, wenn die Anwendung vom Zustand 1920 (dem Verschiebungszustand) zu dem Trägheitsberechnungszustand 1930 übergeht, geht sie dann zurück zum Zustand 1920, nachdem die Trägheitsberechnung durchgeführt wurde. Nachdem die Verschiebung auf der Karte abgeschlossen ist, geht die Anwendung zurück in den Zustand 1905.
  • Wenn die Anwendung eine dritte gestische Eingabeart empfängt (z.B. zwei separate Berührungseingaben, die sich näher zusammen oder weiter auseinander bewegen), geht die Anwendung in einen Zustand 1925 über, um in die Karte hinein oder aus der Karte hinaus zu zoomen. Um die Zoomstufe der Kartenansicht zu ändern, ändern einige Ausführungsformen den Ort (d.h. Höhe) der virtuellen Kamera, die bestimmt, welcher Anteil der Karte wiedergegeben wird, um die Kartenansicht zu erzeugen. Dies veranlasst die Kartenansicht mehr (beim Hinauszoomen) oder weniger (beim Hineinzoomen) der Karte zu beinhalten. In einigen Ausführungsformen ruft die Anwendung, indem der Benutzer hinein- oder hinauszoomt, unterschiedliche Kartenkacheln ab (für unterschiedliche Zoomstufen), um die neue Kartenansicht zu erzeugen und wiederzugeben. Während die gestische Eingabeart andauert, verbleibt die Kartenanwendung im Zustand 1925, um weiterhin auf der Karte hinein oder hinaus zu zoomen.
  • Wenn der Benutzer die zweite gestische Eingabeart loslässt, geht die Anwendung einiger Ausführungsformen in den Zustand 1930 über, um eine Trägheitsberechnung durchzuführen. In einigen Ausführungsformen führt die Anwendung, nachdem der Benutzer bestimmte Arten von Berührungseingaben losgelassen hat, weiter die verbundene Kartenansichtsänderung für eine bestimmte Zeitdauer und/oder Distanz durch (d.h. die virtuelle Kamera höher oder niedriger bewegen). In diesem Fall geht die Anwendung, nachdem der Benutzer die Zoomeingabe losgelassen hat, in den Trägheitsberechnungszustand 1930 über, um die zusätzliche Zoommenge der Kartenansicht (d.h. Bewegen der virtuellen Kamera) und die Zeit, in welcher die Bewegung durchgeführt werden soll, zu berechnen. In einigen Ausführungsformen verlangsamt die Anwendung die Zoombewegung von der Geschwindigkeit, in welcher die Karte hinein- oder hinausgezoomt wurde (d.h. die Geschwindigkeit, in welcher die virtuelle Kamera die Höhe ändert), als ob eine „Reibungs“-Kraft auf die Kamera angewendet wurde. Als solches basiert die Trägheitsberechnung einiger Ausführungsformen auf der Geschwindigkeit der dritten gestischen Eingabeart. Aus dem Zustand 1930 geht die Anwendung zurück zum Kartenänderungszustand, in welchem die Anwendung vorher war. Das heißt, wenn die Anwendung vom Zustand 1925 (dem Zoomzustand) zu dem Trägheitsberechnungszustand 1930 übergeht, geht sie dann zurück zum Zustand 1925, nachdem die Trägheitsberechnung durchgeführt wurde. Nachdem das Zoomen der Karte abgeschlossen ist, geht die Anwendung zurück in den Zustand 1905.
  • Der Einfachheit halber veranschaulicht das Zustandsdiagramm 1900 die Verschiebungs-, Zoom- und Rotationsprozesse der Karte, die den gleichen Trägheitsberechnungsprozess verwenden (Zustand 1930). Allerdings verwendet in einigen Ausführungsformen jeder dieser unterschiedlichen Kartenänderungsprozesse tatsächlich eine unterschiedliche Trägheitsberechnung, um die Verlangsamung und das Anhalten für die bestimmte Art der Bewegung zu identifizieren. Zusätzlich berechnen und ändern einige Ausführungsformen die Trägheitsvariablen bei Empfangen der Eingaben statt zu dem Zeitpunkt, an dem der Benutzer die gestische Eingabe loslässt.
  • Wenn die Anwendung eine vierte gestische Eingabeart empfängt (z.B. zwei separate Berührungseingaben, die sich auf der berührungsempfindlichen Anzeige gemeinsam hinauf und hinab bewegen), geht die Anwendung in einen Zustand 1935 über, um die perspektivische Ansicht der Karte zu ändern. Um die perspektivische Ansicht der Karte zu ändern, wird in einigen Ausführungsformen die virtuelle Kamera entlang eines Bogens über die Karte bewegt, wodurch sich sowohl der Ort als auch die Ausrichtung der virtuellen Kamera ändert (während die Kamera das Zentrum ihres Sichtfeldes an einem bestimmten Ort der Karte beibehält). In einigen Ausführungsformen verwenden unterschiedliche Zoomstufen unterschiedliche Bögen entlang welcher sich die virtuelle Kamera bewegt. Jeder dieser Bögen hat einen obersten Punkt, an welchem die virtuelle Kamera gerade hinunterzeigt, der eine 2D-Perspektivenansicht der Karte gibt. Zusätzlich hat jeder Bogen einen untersten Punkt, welcher der niedrigste Punkt des Bogens ist, zu welchem die virtuelle Kamera bewegt werden kann. Folglich kann die vierte gestische Eingabeart die Anwendung dazu veranlassen in einigen Ausführungsformen zwischen einer 2D-Kartenansicht und einer 3D-perspektivischen Kartenansicht zu wechseln. Während die vierte gestische Eingabeart weitergeht, verbleibt die Kartenanwendung in dem Zustand 1935, um die Änderung der perspektivischen Ansicht der Karte weiterzuführen.
  • Wenn der Benutzer die vierte gestische Eingabeart loslässt, geht die Anwendung einiger Ausführungsformen in einen Zustand 1940 über, um eine Trägheitsberechnung durchzuführen. In einigen Ausführungsformen führt die Anwendung, nachdem der Benutzer bestimmte Arten von Berührungseingaben losgelassen hat, weiter die verbundene Kartenansichtsänderung für eine bestimmte Zeitdauer und/oder Distanz durch (d.h. Bewegen der virtuellen Kamera höher oder niedriger). In diesem Fall geht die Anwendung, nachdem der Benutzer die Eingabe des perspektivischen Ansichtswechsels losgelassen hat, in den Trägheitsberechnungszustand 1940 über, um den zusätzlichen Anteil der perspektivischen Änderung der Kartenansicht (d.h. Bewegen der virtuellen Kamera entlang ihres Bogens) und die Zeit, in welcher die Bewegung durchgeführt werden soll, zu berechnen. In einigen Ausführungsformen verlangsamt die Anwendung die Bewegung der Geschwindigkeit, in welcher die Karte die Perspektive geändert hat (d.h. die Geschwindigkeit, in welcher die virtuelle Kamera sich entlang ihres Bogens bewegt), als ob eine „Reibungs“-Kraft auf die Kamera angewendet wurde. Als solches basiert die Trägheitsberechnung einiger Ausführungsformen auf der Geschwindigkeit, mit welcher die vierte gestische Eingabeart durchgeführt wurde.
  • Zusätzlich gehen einige Ausführungsformen bei der perspektivischen Änderungsoperation zu einem Rückfederungsberechnungszustand 1945 über. Wie angegeben hat die perspektivische Änderungsoperation in einigen Ausführungsformen eine maximale und minimale erlaubte perspektivische Verschiebung, welche von der Zoomstufe der aktuellen Kartenansicht abhängen kann. Daher führt die Anwendung zusätzlich zu der Trägheitsberechnung eine Rückfederungsberechnung im Zustand 1945 durch. Die Rückfederungsberechnung verwendet die Trägheitsberechnung, um zu ermitteln, ob der maximale Punkt entlang des virtuellen Kamerabogens erreicht werden wird und wenn dem so ist, die Geschwindigkeit der virtuellen Kamera an diesem Punkt. Einige Ausführungsformen erlauben der virtuellen Kamera, sich leicht an dem maximalen Punkt vorbei zu bewegen, um einen „Rückfederungs“-Punkt zu erreichen, an welchem Punkt die Anwendung die virtuelle Kamera auf ihrem Bogen wendet, wodurch sie zurück zum maximalen Punkt bewegt wird. Einige Ausführungsformen beinhalten solch eine Rückfederfunktionalität nur an einem Ende des virtuellen Kamerabogens (z.B. dem Unteren Ende des Bogens), während andere Ausführungsformen die Funktionalität an beiden Enden des Bogens beinhalten. Aus dem Rückfederungsberechnungszustand 1945 geht die Anwendung zurück in den Trägheitsberechnungszustand 1940, dann zurück zum perspektivischen Änderungszustand 1935, um die Kartenansichtsbewegung anzuzeigen. Außerdem, wenn der Benutzer die vierte Berührungseingabeart lange genug durchführt und die Perspektive ihren maximalen Punkt erreicht, geht die Anwendung direkt vom Zustand 1935 zum Zustand 1945 über, um die Rückfederungsinformation zu berechnen und dann zurück in den Zustand 1935 überzugehen. Nachdem die Änderung der perspektivischen Ansicht der Karte abgeschlossen ist, geht die Anwendung zurück in den Zustand 1905.
  • Die obigen Zustände betreffen eine Vielzahl von Mehrfachberührungsgesten über der Kartendarstellung, welche die integrierte Karten-, Such- und Navigationsanwendung in unterschiedliche Änderungen der Kartendarstellung übersetzt. Verschiedene andere Berührungseingaben können auch die Anwendung dazu veranlassen, Zustände zu ändern und verschiedene Funktion durchzuführen. Zum Beispiel legen einige Ausführungsformen einen 3D-selektierbaren Element über die Kartenansicht (z.B. als eine schwebende Steuerung), und selektieren (z.B. durch eine Tippeingabe) des 3D-Elements veranlasst die Anwendung in 1935 überzugehen, um die Perspektive der Kartenansicht zu ändern. Wenn die Kartenansicht in einer 3D-perspektivischen Ansicht startet, ändert die Anwendung die Perspektive in eine 2D-Ansicht; wenn die Kartenansicht in einer 2D-Ansicht startet, ändert die Anwendung die Perspektive in eine 3D-Ansicht. Nach der Änderung geht die Anwendung in den Zustand 1905 zurück.
  • Wenn ein Benutzer sich eine Karte im Zustand 1905 ansieht, stellt die Anwendung verschiedene Bezeichnungen als einen Teil der Kartenansicht dar. Einige dieser Bezeichnungen geben Plätze von Interesse oder andere Orte an. Wenn ein Benutzer bestimmte Bezeichnungen selektiert (z.B. für bestimmte Geschäfte, Parks usw.), geht die Anwendung in einen Zustand 1950 über, um einen Banner für den selektierten Ort anzuzeigen (z.B. ein Informationsanzeigebanner) und geht anschließend zurück zum Kartendurchsuchungszustand (mit dem Banner über der Karte angezeigt). In einigen Ausführungsformen beinhaltet dieser Banner (1) eine Benutzerschnittstellensteuerung einer schnellen Routennavigation (z.B. einen Knopf), welcher die Anwendung veranlasst, eine Route (z.B. eine Fahrroute) von der aktuellen Position der Vorrichtung zum selektierten Ort abzurufen, ohne die Kartenansicht zu verlassen und (2) eine Informationsbenutzerschnittstellensteuerung (z.B. Knopf), welcher die Anwendung dazu veranlasst, zusätzliche Informationen über den Ort bereitzustellen.
  • Wenn ein Benutzer den Knopf der Benutzerschnittstellensteuerung selektiert, geht die Anwendung vom Zustand 1905 in einen Zustand 1955 über, um einen Bereitstellungsbereich (staging area) für den selektierten Ort anzuzeigen. In einigen Ausführungsformen zeigt dieser Bereitstellungsbereich eine Mediendarstellung des selektierten Ortes (z.B. eine 3D-Videodarstellung, eine Überflugansicht des selektierten Ortes, eine Serie aufgenommener Bilder für den Ort, usw.), sowie verschiedene Informationen für den selektierten Ort (Kontaktinformation, Bewertungen, usw.). Die Anwendung bleibt im Zustand 1955 während der Benutzer verschiedene Operationen durchführt, um in dem Bereitstellungsbereich zu navigieren und Informationen in dem Bereitstellungsbereich anzusehen. Wenn ein Benutzer eine Benutzerschnittstellensteuerung selektiert, um zurück zu der Kartenansicht überzugehen, geht die Anwendung in den Zustand 1905 über.
  • Aus der Kartendurchsuchungsansicht kann der Benutzer auch leicht auf die Suchfunktion der Anwendung zugreifen. Wenn eine bestimmte Benutzerschnittstellensteuerung (z.B. ein Suchbalken) selektiert wird, geht die Anwendung in einen Sucheintragsvorschlagzustand 1960 über. In dem Sucheintragszustand zeigen einige Ausführungsformen eine Berührungsbildschirmtastatur an, mit welcher der Benutzer seinen Suchbegriff eingeben kann. Der Suchbegriff kann ein Geschäftsname, eine Adresse, eine Art von Ort (z.B. Cafes), usw. sein.
  • Während der Benutzer Zeichen eingibt, verbleibt die Anwendung im Zustand 1960 und stellt Vorschläge basierend auf dem letzten Suchen, den bereits eingegebenen Zeichen usw. bereit. Einige Ausführungsformen können präfixbasierte Vorschläge (z.B. Vorschläge, die mit den bereits eingegebenen Zeichen beginnen) sowie andere Vorschläge (z.B. Rechtschreibverbesserungen zu machen, indem Zeichen vor die bereits eingegebene Zeichenkette hinzugefügt werden, Zeichen ausgetauscht werden, usw.). In einigen Ausführungsformen können die Selektionen auch kürzlich eingegebene Routen zusätzlich zu den Orten beinhalten. Wenn der Benutzer eine Benutzerschnittstellensteuerung zum Abbrechen in dieser Phase selektiert, geht die Anwendung zurück über zum Zustand 1905 ohne eine Suche durchzuführen.
  • Wenn der Benutzer einen Suchbegriff selektiert (entweder einen vorgeschlagenen Begriff oder einen vollständig durch den Benutzer eingegeben Begriff), geht die Anwendung in einen Zustand 1965 über, um die Suchresultate über der Kartenansicht anzuzeigen und geht dann in den Zustand 1905 mit den angezeigten Suchresultaten über. Einige Ausführungsformen zeigen die Suchresultate als selektierbare Elemente (z.B. Pins) auf der Karte an; eine Selektion eines der Elemente veranlasst einen Übergang zu dem Zustand 1950, um den Banner für das selektierte Element anzuzeigen. Außerdem selektiert die Anwendung einiger Ausführungsformen eines der Suchresultate (z.B. ein „bestes“ Resultat) und zeigt diesen Banner als einen Teil des Zustands 1965 an.
  • Da die Anwendung eine eng integrierte Karten-, Such-, Routen- und Navigationsanwendung ist, kann der Benutzer leicht auf die Routenfunktion aus dem Kartendurchsuchungszustand zugreifen. Wenn eine bestimmte Benutzerschnittstellensteuerung (z.B. ein Routeneintragsknopf) selektiert wird, geht die Anwendung zu dem Routeneintragszustand 1970 über. In dem Routeneintragszustand zeigen einige Ausführungsformen eine Berührungsbildschirmtastatur an, mit welcher der Benutzer Orte (z.B. Adressen, Plätzenamen, Plätzearten, usw.) sowohl in ein „Zu“- als auch in ein „Von“-Feld eingeben kann, um eine Route anzufragen. Während der Benutzer Zeichen eingibt, verbleibt die Anwendung im Zustand 1970 und stellt Vorschläge basierend auf letzten Routen, letzten Suchen, einer Auto-Vervollständigung, die ähnlich zu der für den Sucheintrag beschriebenen ist, usw., bereit. Wenn der Benutzer die Benutzerschnittstellensteuerung zum Abbrechen in dieser Phase selektiert, geht die Anwendung zurück über zum Zustand 1905 ohne eine Route abzurufen.
  • Wenn der Benutzer eine Route selektiert (z.B. durch Eingeben eines „Zu“-Ortes und eines „Von“-Ortes), geht die Anwendung in den Routenanzeigezustand 1975 über. In diesem Zustand zeigt die Anwendung eine oder mehrere Routen von einem ersten selektierten Ort zu einem zweiten selektierten Ort über die Kartenansicht an (z.B. durch Einblenden von Routenlinien auf der Kartenansicht). Einige Ausführungsformen selektieren automatisch eine erste Route aus den Routen. Der Benutzer kann jede der anderen Routen selektieren (z.B. durch Tippen auf eine nicht selektierte Route), mit der Anwendung im Zustand 1975 verbleibend (jedoch durch Ändern der Anzeige der Routenlinien, um die Selektion einer anderen Route anzugeben). Außerdem zeigt die Anwendung im Zustand 1975 einiger Ausführungsformen unterschiedliche Benutzerschnittstellensteuerungen im Zusammenhang mit Routenplanung und Navigation an, einschließlich einer Steuerung für eine Anweisungsliste, eine Steuerung zum Starten der Navigation und andere.
  • Auch können verschiedene gestische Interaktionen über der Karte, in welcher die Routen dargestellt werden, die Anwendung veranlassen, unterschiedliche Änderungen der Kartenansicht durchzuführen (z.B. Verschieben, Rotieren, Zoomen, Ändern der Kartenperspektive usw.). Wenn die integrierte Anwendung gestische Interaktionen über der Kartenanzeige empfängt während sie im Routenanzeigezustand 1975 ist, geht die Anwendung zum Zustand 1910 über, um eine Erkennung gestischer Eingaben durchzuführen, mit allen verfügbaren gestischen Kartenänderungsoperationen (z.B. Zustandsfolgen 1915-1945). Das heißt, die Anwendung übersetzt die gestische Eingabe in Verschiebe-, Rotier-, Zoom- und/oder perspektivische Änderungsoperationen ähnlich zu diesen für die Zustände 1915-1945 oben beschriebenen, mit ähnlichen Trägheits- und Rückfederungsmerkmalen für die Bewegung der virtuellen Kamera. Während die Operationen 1915-1945 zum Kartendurchsuchungszustand 1905 zurückkehren, kehren die Folgeoperationen, auf welche von dem Routenanzeigezustand 1975 zugegriffen werden, zu dem Routenanzeigezustand 1975 zurück.
  • In einigen Ausführungsformen ist der Routenanzeigezustand 1975 auch von anderen Zuständen aus zugreifbar. Zum Beispiel, wenn ein Benutzer die Benutzerschnittstellensteuerung einer schnellen Route in einem Banner während des Zustands 1905 selektiert, ruft die Anwendung eine oder mehrere Routen von dem aktuellen Ort der Vorrichtung zu dem Ort, der mit dem Banner verbunden ist, ab. Außerdem zeigen einige Ausführungsformen zuvor angefragte Routen unter den Suchvorschlägen im Zustand 1960 an. Wenn der Benutzer eine dieser vorgeschlagenen Routen selektiert, geht die Anwendung direkt vom Zustand 1960 in den Zustand 1975 über, um eine oder mehrere Routen über der Karte anzuzeigen.
  • Aus dem Routenanzeigezustand 1975 kann die Anwendung in verschiedene unterschiedliche Modi übergehen, abhängig von unterschiedlichen Steuerungen, die durch den Benutzer selektiert werden. Wenn der Benutzer eine Benutzerschnittstellensteuerung selektiert, um die Routen zu löschen, geht die Anwendung zurück in den Zustand 1905, um die Karte ohne Routen anzuzeigen. Außerdem kann die integrierte Anwendung eine oder mehrere Navigationsmodalitäten aus dem Routenanzeigezustand 1975 heraus betreten.
  • Wenn die im Zustand 1975 angezeigte selektierte Route an dem aktuellen Ort der Vorrichtung startet und der Benutzer eine Steuerung zum Starten der Navigation selektiert, geht die Anwendung in den Navigationszustand 1980 über. In einigen Ausführungsformen zeigt die Anwendung einen filmischen Übergang von der Kartenansicht in eine immersivere 3D-Ansicht für die Navigation an. Im Navigationszustand 1980 einiger Ausführungsformen folgt eine virtuelle Kamera dem Ort des Benutzers entlang der selektierten Route, um die bevorstehenden Teile der Route darzustellen. Wenn entweder die Route vollständig ist (die Vorrichtung hat ihren Zielort erreicht) oder der Benutzer selektiert eine Steuerung zum Beenden der Navigation, geht die Anwendung in den Zustand 1905 über, um die Kartendurchsuchungsansicht 1905 darzustellen.
  • In einigen Ausführungsformen können verschiedene gestische Interaktionen über der Karte, auf welcher die Routen angezeigt werden, die Anwendung dazu veranlassen, unterschiedliche Änderungen der Kartenansicht durchzuführen (z.B. Verschieben, Rotieren, Zoomen, Ändern der Kartenperspektive usw.) während sie im Navigationsmodus 1980 ist. In einigen Ausführungsformen sind nur einige der beschriebenen Kartenänderungsoperationen in dem Navigationsmodus verfügbar. Zum Beispiel erlauben einige Ausführungsformen dem Benutzer hinein oder hinaus zu zoomen, aber erlauben keine anderen Änderungen der Karte. Folglich, wenn der Benutzer gestische Eingaben bereitstellt, filtert der Zustand der Erkennung der gestischen Eingabe 1910 Arten der gestischen Eingabe heraus, die nicht mit der Zoomoperation verbunden sind (und die Anwendung geht danach zurück in den Zustand 1980). Wenn die gestische Eingabe, die mit der Zoomoperation verbunden ist, empfangen wird, erkennt der Zustand der Erkennung der gestischen Eingabe diese Eingabe und die Anwendung geht in einen Zustand ähnlich dem Zustand 1925 über, um die Zoomstufe der Karte zu ändern (mit der Trägheitsberechnung in einigen Ausführungsformen).
  • Andere Ausführungsformen können unterschiedliche Kartenänderungsoperationen ermöglichen. In einigen Ausführungsformen sind z.B. alle gestischen Kartenänderungsoperationen (z.B. Zustandsfolgen 1915-1945) während des Navigationsmodus verfügbar. Einige Ausführungsformen erlauben eine Untermenge der gestischen Kartenänderungsoperationen sowie Zoomen und eine limitierte Verschiebungsoperation. Die Verschiebungsoperation einiger Ausführungsformen bewegen, beim Empfangen der gestischen Eingabeart, die mit Verschiebung verbunden ist, die virtuelle Kamera (während im Navigationsmodus) auf die Seite und bringt anschließend die virtuelle Kamera zurück zum Zeigen entlang der Route. Während die Operationen 1915-1945 zum Kartendurchsuchungszustand 1905 zurückkehren, kehren die Folgeoperationen, auf die vom Navigationszustand 1980 zugegriffen wird, zum Navigationszustand 1980 zurück.
  • Wenn die im Zustand 1975 angezeigte selektierte Route an einem anderen Ort als dem aktuellen Ort der Vorrichtung startet (oder die Route ist eine Gehroute) und der Benutzer selektiert eine Steuerung zum Starten der Navigation, geht die Anwendung in den Schrittmodus oder in den Routenbesichtigungsmodus im Zustand 1985 über. In einigen Ausführungsformen zeigt die Anwendung die Manöver, die entlang der Route eines nach dem anderen durchgeführt werden (z.B. Navigationsschilder) an. Durch Bereitstellen von gestischen Eingaben (z.B. Wischgesten) auf den Manövern kann der Benutzer die unterschiedlichen Manöver ansehen während er im Routenbesichtigungsmodus ist. Die Manöver werden über die Karte gelegt und zumindest wird ein Teil der Route in der Karte angezeigt.
  • Wie im Routenanzeigemodus können verschiedene gestische Interaktionen über der Karte die Anwendung veranlassen, unterschiedliche Änderungen der Kartenansicht durchzuführen (z.B. Verschieben, Rotieren, Zoomen, Modifizieren der Kartenperspektive, usw.). Wenn die integrierte Anwendung gestische Interaktion über der Kartenanzeige empfängt während sie im Schrittmodus 1985 ist, geht die Anwendung in den Zustand 1910 über, um die Erkennung gestischer Eingaben durchzuführen, mit allen verfügbaren gestischen Kartenänderungsoperationen (z.B. Zustandsfolgen 1915-1945). Das heißt die Anwendung übersetzt die gestischen Eingaben in Verschiebe-, Rotier-, Zoom- und/oder perspektivische Änderungsoperationen ähnlich zu den in den Zuständen 1915-1945 oben beschriebenen, mit ähnlichen Trägheits- und Rückfederungsmerkmalen für die Bewegung der virtuellen Kamera. Während die Operationen 1915-1945 zum Kartendurchsuchungszustand 1905 zurückgehen, gehen die Operationsfolgen, auf die vom Schrittmodus 1985 zugegriffen wird, in den Schrittmodus 1985 zurück.
  • Weiterhin erkennt die Erkennung der gestischen Eingabe in einigen Ausführungsformen wenigstens eine Art gestischer Eingabe über den angezeigten Manövern, um zwischen den Manövern zu wechseln. Wenn eine bestimmte Art gestischer Eingabe (z.B. eine Wischgeste) über dem angezeigten Manöver empfangen wird (im Gegensatz zu über der Kartenansicht), geht die Anwendung in einen Zustand (nicht gezeigt) über, um das angezeigte Manöver zu wechseln, und geht dann in den Zustand 1985 zurück.
  • Wenn die integrierte Anwendung eine gestische Interaktion über der angezeigten Karte empfängt während sie im Schrittzustand 1985 ist, geht die Anwendung in den Zustand 1910 über, um eine Erkennung der gestischen Eingabe durchzuführen, mit allen verfügbaren gestischen Kartenänderungsoperationen (z.B. Zustandsfolgen 1915-1945). Wenn die Änderungsoperationen abgeschlossen sind, geht die Anwendung in den Zustand 1985 zurück. Wenn der Benutzer eine Steuerung zum Beenden des Durchschreitens der Manöver auswählt, geht die Anwendung in den Zustand 1905 über, um die Kartendurchsuchungsansicht darzustellen.
  • Zusätzlich kann in einigen Ausführungsformen die Anwendung vom Schrittmodus 1985 in einen automatischen Schrittzustand 1990 übergehen. Wenn der Benutzer eine Ortsverfolgungssteuerung selektiert während die Anwendung im Zustand 1985 ist, geht die Anwendung in den automatischen Schrittmodus 1990 über, welches eine unterschiedliche Navigationsmodalität ist. Im automatischen Schrittmodus einiger Ausführungsformen zeigt die integrierte Karten-, Such- und Navigationsanwendung das Manöver, zu welchem der Ort der Vorrichtung am nächsten ist, an (z.B. wie gemessen an einer Kreuzung, an welcher das Manöver durchgeführt wird). Wenn sich die Vorrichtung (z.B. entlang der Route) näher zu einem Ort eines unterschiedlichen Manövers bewegt, zeigt der automatische Schrittmodus automatisch das unterschiedliche Manöver an. Wenn der Benutzer die Ortsverfolgungssteuerung abwählt, geht die Anwendung zurück in den Schrittmodus 1985. Wenn der Benutzer eine Steuerung zum Beenden der Navigation während des automatischen Schrittzustands 1990 selektiert, geht die Anwendung in den Zustand 1905 über, um die Kartendurchsuchungsansicht darzustellen.
  • Wie im Schrittmodus 1985 können verschiedene gestische Interaktionen über der Karte veranlassen, dass die Anwendung unterschiedliche Änderungen der Kartenansicht durchführt (z.B. Verschieben, Rotieren, Zoomen, Ändern der Kartenperspektive usw.). Wenn die integrierte Anwendung eine gestische Interaktion über der Kartenanzeige empfängt während sie im automatischen Schrittmodus 1990 ist, geht die Anwendung in den Zustand 1910 über, um eine Erkennung der gestischen Eingabe durchzuführen, mit allen verfügbaren Kartenänderungsoperationen (z.B. Zustandsfolgen 1915-1945). Das heißt, die Anwendung übersetzt die gestischen Eingaben in Verschiebe-, Rotier-, Zoom- und/oder perspektivische Änderungsoperationen ähnlich zu den oben für die Zustände 1915-1945 beschriebenen, mit ähnlichen Trägheits- und Rückfederungsmerkmalen für die Bewegung der virtuellen Kamera.
  • Während die Operationen 1915-1945 zu dem Kartendurchsuchungszustand 1905 zurückkehren, gehen die Operationsfolgen, auf die von dem automatischen Schrittmodus 1990 zugegriffen werden, zum automatischen Schrittmodus 1990 zurück. Zusätzlich schalten einige Ausführungsformen automatisch die Ortsverfolgungssteuerung aus, wenn der Benutzer die Karte eine bestimmte Distanz verschiebt, in diesem Fall geht die Anwendung zum Schrittmoduszustand 1985 statt zum automatischen Schrittzustand 1990 zurück.
  • II. Anzeige von Navigationsschildern
  • Die obigen Abschnitte führen die Punkt-zu-Punkt-Navigationsmerkmale einiger Ausführungsformen ein. Ein solches Merkmal sind die Navigationsschilder, die durch die Kartenanwendung bereitgestellt werden, die die vom Benutzer durchzuführenden unterschiedlichen Manöver beschreiben. Diese Schilder können auf Abbiegungen, eine Distanz mit der geradeaus zu reisen ist, eine Ausfahrt vom Freeway zu nehmen ist, oder andere, vom Benutzer durchzuführende Manöver hinweisen. Einige Ausführungsformen stellen verschiedene Animationen für die Schilder bereit, darin inbegriffen ist das Zeigen von Schildern, die über den Ortsindikator des Benutzers im 3D-Modus passieren, die Änderungen der Erscheinung von Schildern, um ein vorstehendes Manöver anzugeben und die Benutzung von sekundären Schildern, wenn zwei Manöver in schneller Folge durchgeführt werden.
  • A. Realistisches Aussehen und unterschiedliche Formate in unterschiedlichen Kontexten
  • Die Navigationsschilder können in einigen Ausführungsformen unterschiedliche Erscheinungen in unterschiedlichen Kontexten haben. Einige dieser Unterschiede werden nachfolgend detaillierter beschrieben. Speziell grafische Indikatoren von durchzuführenden Manövern (z.B. Richtungsindikatoren, die weiter unten beschrieben werden) und Textanweisung, die diese Manöver beschreiben, können angepasst werden, um zu dem Kontext der angezeigten Navigationsschilder zu passen. Zum Beispiel Schilder unterschiedlicher Größe können entweder einfache oder komplexe Manöverbeschreibungen haben und der Anweisungstext kann an die Größe des Schildes angepasst sein und kann auf andere im Schild angezeigte Informationen basieren.
  • Einige Ausführungsformen zeigen die Navigationsschilder, so dass die Schilder die Erscheinung von realistischen Straßenschildern geben, an. Einige Ausführungsformen zeigen die Navigationsschilder als reichhaltige texturierte Bilder (z.B. Schatten, Tönungen, usw. benutzend) an, im Gegensatz zum einfachen Anzeigen eines flachen Bildes auf der Kartenanzeige. Zusätzlich verwenden einige Ausführungsformen Tönungen für das Navigationsschild, welche der/den Farbe(n) der Straßenschilder in der Gegend, durch welche die Anwendung navigiert, entsprechen. Die Anwendung verwendet auch realistische Highway-Schilder, um Straßen in einigen Ausführungsformen zu markieren. Zum Beispiel für nummerierte Staats- und föderale Highways wird die Anwendung entweder das Highway-Schild zusammen mit der Straße in dem Navigationsschild verwenden (z.B. neben der Seite des Schildes), den Namen der Straße in den Navigationsinstruktionen mit dem Highway-Schild ersetzen oder andererseits das Highway-Schild in die grafische Anzeige einbinden. Die Generierung und Benutzung dieser Straßenschilder sind näher in der US-Patentanmeldung 13/632,121 , mit dem Titel „Context Aware Voice Guidance“, eingereicht am 30. September 2012, beschrieben. Die US-Patentanmeldung 13/632,121 ist hiermit durch Verweisung einbezogen.
  • 20 veranschaulicht verschiedene grafische Benutzerschnittstellen(GUI)-Szenarien, in welchen solche Highway-Schilder verwendet werden. Das erste solche Szenario 2005 veranschaulicht die Kartenanwendung im Punkt-zu-Punkt Navigationsmodus, eine Anweisung, um auf der US-101 North für 20 Meilen fortzufahren, zeigend. In diesem Beispiel wird das Straßenschild für die US-101 eingebettet mit der Textanweisung „Gehen Sie geradeaus auf der US-101 North“ angezeigt als Ersatz für den eigentlichen Text „US-101“. Einige Ausführungsformen tauschen Textnamen von Straßen durch Straßenschilder aus, wenn die Straßen ein Schild haben und dieses Schild der Kartenanwendung als Bild verfügbar ist.
  • Das zweite Beispiel 2010 veranschaulicht das Highway-Schild auf der rechten Seite des Navigationsschildes anstatt eingebettet in der Textanweisung angezeigt. Dieses Szenario veranschaulicht eine alternative Anzeige für die gleiche Anweisung wie in Beispiel 2005, die von einigen Ausführungsformen verwendet wird. Das Highway-Schild wird in diesem Fall in der gleichen Größe wie der grafische Pfeilindikator auf der linken Seite des Navigationsschildes angezeigt. Außerdem, da die Information im Straßenschild dargestellt wird, entfernt die Anwendung den „auf 101 North“-Teil des Textes, welcher andererseits vorhanden wäre.
  • Das dritte Beispiel 2015 veranschaulicht den Fall, in welchem das Navigationsschild getönt ist, um der Art der Straße, die im Highway-Schild gezeigt wird, zu entsprechen. In diesem Szenario sagt die Anweisung dem Benutzer geradeaus auf der CA-1 North zu gehen. Die „CA-1“ wird durch das Highway-Schild für CA-1 ersetzt. Während einige Ausführungsformen dieses Schildes unter Verwendung von grün tönen (die Farbe der Schilder, die für die kalifornischen Staats-Highways verwendet werden), tönen andere Ausführungsformen das Navigationsschild, indem sie die Farben der Straßenschilder, die entlang des tatsächlichen Highways gefunden werden, verwenden. Andere Ausführungsformen verwenden grün, um die Farbe der Straßenschilder zu entsprechen, welche über die Freeways der Region, in welcher sich die Vorrichtung befindet, zu finden sind (z.B. grün für Kalifornien).
  • Das vierte Szenario 2020 veranschaulicht ein Einfädelmanöver auf die Interstate 5 im Navigationsscchild. Ähnlich wie das erste Beispiel 2005 veranschaulicht dieses die Straßenschilder als eingebetteten Text. Zudem wird eine Tönung in dem Straßenschild verwendet, um dem Aussehen des tatsächlichen Interstate-Schildes zu entsprechen, mit dem oberen Bereich rot und dem unteren Bereich blau getönt. Wie erwähnt können einige Ausführungsformen stattdessen das gesamte Navigationsschild unter Verwendung einer Kombination aus diesen Farben tönen.
  • Obwohl 20 keine unterschiedlichen Erscheinungen der Richtungsindikatoren 2090 veranschaulicht, verwendet die Kartenanwendung einiger Ausführungsformen unterschiedliche Erscheinungen, um die Richtungsindikatoren dem Kontext der angezeigten Navigationsschilder anzupassen.
  • 1. Unterschiedliche Richtungsindikatoren in unterschiedlichen Kontexten
  • Über ein aktuell angezeigtes Navigationsinstruktionsschild im Kontext einer Vollbild-Punkt-zu-Punkt-Navigation, abstrahiert die Kartenanwendung einiger Ausführungsformen ein Manöver in zwei Elemente: ein hervorstechend stilisierter Pfeil, der grob den Weg des Fahrzeugs durch den Verbindungspunkt darstellt, und eine weniger betonte Menge von Linien und Kurven, die mit anderen Elementen des Verbindungspunktes korrespondieren. Zum Beispiel wird eine Rechtsabbiegung an einer T-Kreuzung durch einen großen Pfeil mit einem rechten Winkel verbunden mit einem kleineren dunkleren Segment, das parallel zu einem der Segmente des großen Pfeils verläuft, dargestellt. Das kleinere Segment wird auch auf die Seite geschoben, so dass der Weg, der von dem Fahrzeug durch den Verbindungspunkt genommen wird, in der Anzeige dominiert. Solch eine Darstellung eines Manövers, welches einen Pfeil mit dem Kontext der Kreuzung beinhaltet, stellt recht vollständige Informationen über das Manöver bereit, während es abstrakt und leicht verständlich bleibt.
  • Eine alternative Darstellung eines Manövers könnte den Verbindungspunktkontext vollständig weglassen und den primären Pfeil, der das Manöver angibt, vereinfachen. Wenn ein Benutzer sich Manöver nach dem aktuellen Manöver ansieht (das nächste durchzuführende Manöver), könnte die detailliertere grafische Darstellung mehr Informationen als benötigt bereitstellen und schwieriger mit einem kurzen Blick zu lesen sein. Zum Beispiel, sogar wenn genug Platz da ist, um den Kreuzungskontext über eine sekundäre Anweisung, die dem aktuellen Manöver folgt, anzuzeigen, zeigen einige Ausführungsformen zur Klarheit nur einen vereinfachten Pfeil an. Von dieser adaptiven Herangehensweise profitieren auch platzbeschränkte Benutzerschnittstellenelemente. Während eines Mehraufgabenbetriebs oder beim Ansehen von Anweisungslisten, zeichnet die Kartenanwendung einiger Ausführungsformen z.B. einfache Manöverabstraktionen, um etwas leichter Erkennbares in einem kleinen Bereich zu erzeugen.
  • 21 veranschaulicht verschiedene unterschiedliche Szenarien, in welchen die Kartenanwendung unterschiedliche Arten von grafischen Indikatorpfeilen anzeigt, um einen Benutzer Manöver visuell darzustellen. Das erste Szenario 2105 veranschaulicht in einer Listenansicht gezeigte Routenanweisungen. Die Listenansicht zeigt eine Serie von Punkt-zu-Punkt-Instruktionen an, um von einem Startort zu einem Endort zu gelangen. In einigen Ausführungsformen kann der Benutzer die Punkt-zu-Punkt- Instruktionen ansehen, ohne tatsächlich den Navigationsmodus zu betreten oder sogar der Route folgen. In dieser Situation zeigen einige Ausführungsformen eine einfache Version der grafischen Indikatoren für jede Abbiegung an. Dies wird aus platzsparenden Gründen sowie aus der Tatsache, dass, wenn der Benutzer sich nicht tatsächlich einem Manöver nähert, der Kontext der Kreuzung nicht sonderlich hilfreich ist, getan.
  • Das zweite Szenario 2110 veranschaulicht eine Punkt-zu-Punkt-Navigation, bei der die Benutzervorrichtung, auf welcher die Kartenanwendung arbeitet, gesperrt ist. Wie nachfolgend im Detail beschrieben, ist die Anwendung in der Lage, Punkt-zu-Punkt-Navigationsinstruktionen anzuzeigen, sogar wenn die Vorrichtung gesperrt ist, um dem Benutzer weiterhin Instruktionen bereitzustellen. In diesem Szenario wird, wie gezeigt, auch ein vereinfachter Pfeil in einigen Ausführungsformen angezeigt. Dieses stellt eine einfache grafische Angabe einer Abbiegung im Sperrbildschirm (in diesem Fall eine Rechtsabbiegung) dar, ohne die Kontextdaten bereitzustellen, die möglicherweise schwer für den Benutzer im Sperrbildschirm auszumachen sind.
  • Das dritte Szenario 2115 veranschaulicht auch eine Punkt-zu-Punkt-Navigation, wenn die Kartenanwendung nicht auf der Vorrichtung, auf welcher die Anwendung arbeitet, geöffnet ist (oder nicht aktuell angezeigt wird). Wie oben im Detail beschrieben, zeigt die Anwendung Punkt-zu-Punkt-Navigationsinstruktionen in dem Raum des Benachrichtigungsbanners, wenn die Kartenanwendung nicht angezeigt wird. Ähnlich wie im Sperrbildschirmmodus verwendet die Kartenanwendung einen einfachen grafischen Indikator für das angegebene Manöver (in diesem Fall eine Linksabbiegung). Aufgrund von Platzbeschränkungen und den oben beschriebenen Gründen für den Sperrbildschirmmodus wird der einfache grafische Indikator verwendet.
  • Die vorangegangenen drei Szenarien veranschaulichen Situationen, in welchen die einfachen grafischen Indikatoren verwendet werden. Der Fachmann wird erkennen, dass in einigen Ausführungsformen der komplexere stilisierte Verbindungspunkt zusätzlich zu den grafischen Manöverindikatoren in den obigen Situationen verwendet werden könnten. Die folgenden drei Szenarien veranschaulichen Angaben, in welchen diese komplexeren Indikatoren verwendet werden.
  • Das vierte Szenario 2120 veranschaulicht Routenübersichtsanweisungen, in welchen der Benutzer eine gesamte Route von einem Startort zu einem Endort sehen kann. Der Benutzer kann durch die unterschiedlichen Instruktionen wischen (z.B. Wischgesten benutzend), um die Routensegmente zwischen den Manövern zu sehen. Hier wird die komplexe Verbindungspunktangabe verwendet, welche den Kreuzungskontext (eine T-Kreuzung) und das in dieser Kreuzung durchgeführte Manöver, mit dem über dem Kreuzungskontext hervorgehobenen Manöverpfeil, zeigt.
  • Das fünfte Szenario 2125 veranschaulicht Navigationsinstruktionen im Kontext einer Standard-Punkt-zu-Punkt-Navigation (z.B. nicht im Sperrbildschirmmodus oder mit einer unterschiedlichen geöffneten Anwendung, usw.). In diesem Fall wird der komplexere grafische Pfeilindikator verwendet. In dem veranschaulichten Beispiel ist der Straßenverbindungspunkt etwas komplizierter als im vorigen Beispiel, mit einem vierten Zweig hinaufgewinkelt und auf der rechten Seite von der Annäherungsrichtung aus gesehen. Das sechste Szenario 2130 veranschaulicht auch Navigationsinstruktionen während einer Punkt-zu-Punkt-Navigation. In diesem Fall ist das durchzuführende Manöver eine Kehrtwende. Eine Darstellung einer Kehrtwende mit den Verbindungspunktzweigen wie in Szenario 2125 würde in einem auf dem gleichen Zweig hinaufzeigenden und hinunterzeigenden Pfeil enden (im unteren Zweig). Als Resultat zeigt die Anwendung stattdessen einen gespeicherten Kehrtwenden-Indikatorpfeil an.
  • 22 veranschaulicht verschiedene Szenarien in der gleichen Abbiegung und wie die unterschiedlichen Pfeile für die gleiche Abbiegung verwendet werden können. Das erste Szenario 2205 zeigt eine Rechtsabbiegung auf die First Street in den Punkt-zu-Punkt-Navigationsinstruktionen. Wie in 21 wird der komplexe grafische Indikator verwendet. Das zweite Szenario 2210 veranschaulicht die Situation während einer Punkt-zu-Punkt-Navigation, in welcher die Rechtsabbiegung auf die First Street das zweite von zwei Manövern in schneller Folge ist. In diesem Fall kommt die zweite Instruktion kurz nach der ersten, also stellt die Anwendung eine Angabe der beiden bevorstehenden Manöver bereit. Im zweiten Manöver ist weniger Raum auf dem Bildschirm zugewiesen und daher wird der vereinfachte Pfeil verwendet. Das dritte Szenario 2215 veranschaulicht die Benutzung des vereinfachten Pfeilindikators in der Routenanweisungsliste. Außerdem ersetzen einige Ausführungsformen, wie für das zweite Manöver in der Routenanweisungsliste gezeigt, den vereinfachten Richtungsindikator mit einem Highway-Schild (Schild), wenn das Manöver auf einer Straße endet, für welche ein solches Schild/Schild verfügbar ist. Das vierte und fünfte Szenario 2220 und 2225 veranschaulichen die vereinfachten Pfeilindikatoren für die Rechtsabbiegung in dem Sperrbildschirmmodus und wenn die Kartenanwendung nicht auf der Vorrichtung angezeigt wird.
  • 2. Unterschiedliche Navigationsinstruktionen in unterschiedlichen Kontexten
  • Die Kartenanwendung einiger Ausführungsformen zeigt textuale Routeninstruktionen in einer großen Vielzahl von Fällen an, von denen einige mehr Raumeinschränkungen als andere haben und einige, in welchen andere Führungselemente Informationen über ein Manöver bereitstellen, die den Raum der Textanweisungen einnehmen können. Anstatt eine einzelne Instruktionszeichenkette zu selektieren und dann die Schrift zu verkleinern oder, wie von den Beschränkungen vorgeschrieben abzuschneiden, verwendet die Anwendung ein ausgeklügeltes Verfahren, um Zeichenketten, welche am besten für jeden Kontext aus einer Vielzahl von Details über das Manöver selbst, angepasst sind, aufzubauen.
  • Für einen gegebenen Kontext wählt die Anwendung Instruktionstext, indem sie Faktoren, wie den verfügbaren Raum, die Anzahl an Informationen, die durch andere Mittel als Text bestimmt werden (z.B. die grafischen Indikatoren, Straßenschilder usw.), die lokalisierte Länge jeder der Instruktionsvarianten, unter anderen Faktoren beachtet. Durch einen Aufbau und eine Bewertung von verschiedenen Alternativen lokal auf der Clientvorrichtung (im Gegensatz zum einfachen Empfangen von Instruktionstext von dem Kartendienst), kann die Kartenanwendung eine optimale Instruktionszeichenkette in jedem Szenario auswählen. Außerdem erlaubt diese Herangehensweise der Anwendung, einen unterschiedlichen Instruktionstext auf Vorrichtungen unterschiedlicher Größe zu verwenden (z.B. mehr Text auf einem Tablet Computer im Vergleich zu einem kleineren Smartphone zu verwenden). Eine ähnliche Herangehensweise kann auch für gesprochene Instruktionen verwendet werden, die in eine bestimmte Zeitdauer hineinpassen müssen, und wenn Sprachinstruktionen verwendet werden, wird die Anwendung in einigen Ausführungsformen die Länge der angezeigten Instruktionen reduzieren.
  • 23 veranschaulicht ein Beispiel des Aufbaus von unterschiedlichen Instruktionen für ein bestimmtes Manöver an einem Verbindungspunkt gemäß einigen Ausführungsformen. 24 und 25 veranschaulichen dann unterschiedliche Szenarien, in welchen diese unterschiedlichen Instruktionen für das Manöver verwendet werden. Wie gezeigt verwendet die Kartenanwendung erhaltene Routeninstruktionen und Verbindungspunktdaten, um spezifische Aspekte der Manöverinstruktionen zu identifizieren. Die Tabelle 2305 veranschaulicht konzeptionell, wie verschiedene Zeichenketten für einen Verbindungspunkt generiert werden könnten. Insbesondere beinhalten die Manöverinstruktionen ein „An“-Feld, ein „Abbiegen“-Feld, ein „Auf‟-Feld, ein „in Richtung“-Feld und ein „Für“-Feld. Für jeden Verbindungspunkt befüllt die Anwendung initial diese Zeichenkettenfelder, um die Instruktionen aus diesen Feldern aufzubauen.
  • In einigen Ausführungsformen basiert das „An“-Feld auf Karteninformationen, die Verkehrsampeln und Stoppzeicheninformationen usw. beinhalten. In den in 23 gezeigten Beispielen findet der erste Verbindungspunkt „am Ende der Straße“ statt, während der zweite Verbindungspunkt „an der nächsten Ampel“ stattfindet. Das „Abbiegen“-Feld beschreibt das durchzuführende Manöver; Beispiele dieses Feldes beinhalten „rechts abbiegen“ (das Manöver, das in diesem Verbindungspunkt durchgeführt wird), „Freeway verlassen“, „links halten“, „leicht links abbiegen“, „Kehrtwende“ oder andere Manöver. Die Routenanweisungen, die eine Manöverbeschreibung beinhalten, können auf unterschiedliche mögliche Zeichenketten für das „Abbiegen“-Feld abgebildet werden.
  • Das „Auf‟-Feld gibt den Weg (z.B. Straße, Freeway usw.) an, auf dem das Manöver den Verbindungspunkt verlässt. Im Falle des ersten Verbindungspunkts in 23 verlässt das Manöver den Verbindungspunkt „auf die First Street“. Das „in Richtung“-Feld gibt eine Markierung (von den Kartendaten oder Verbindungsdaten entnommen) an, in Richtung welcher der Ausfahrtszweig zeigt. In einigen Ausführungsformen analysiert die Kartenanwendung den Ausfahrtszweig von dem nachfolgenden Verbindungspunkt und verwendet den Namen dieser Straße als das „in Richtung“-Feld. In dem Beispiel ist der zweite Verbindungspunkt eine Linksabbiegung auf die B Street, also gibt das „in Richtung“-Feld für den ersten Verbindungspunkt an, dass das Manöver „in Richtung B Street“ verlassen wird. Andere Ausführungsformen verwenden entweder die nächste Straße, welche sich mit der Ausfahrtstraße von dem aktuellen Verbindungspunkt kreuzt, eine Hauptstraße (z.B. ein Freeway) oder einen anderen, leicht wiedererkennbaren Deskriptor (z.B. eine Stadt usw.). Das „Für“-Feld gibt die Distanz, entlang welcher die Route der Straße in dem „Auf‟-Feld folgen wird (d.h. die Route, auf welcher der Verbindungspunkt verlassen wird). Somit wird in den Beispielinstruktionen der nächste Verbindungspunkt in 0,1 Meilen sein, also ist das „Für“-Feld „für 0,1 Meilen“.
  • Als nächstes generiert die Kartenanwendung in einigen Ausführungsformen, nach der Generierung jeder Komponentenzeichenkette für eine Menge von Instruktionen, unterschiedliche Stufen von Instruktionen. Die Tabelle 2300 veranschaulicht eine Menge aufgebauter Instruktionen für den ersten Verbindungspunkt. Speziell veranschaulicht die Tabelle 2300 fünf Mengen von Instruktionen von verschiedenen Längen für einen bestimmten Verbindungspunkt. Allerdings erkennt der Fachmann, dass unterschiedliche Ausführungsformen weniger, zusätzliche oder unterschiedliche Zeichenketten, basierend auf der Menge von Zeichenkettenfeldern, beinhalten könnten.
  • Die erste Instruktionsmenge verwendet alle fünf Felder. Dies ist die längste Instruktionsmenge, die lautet „Am Ende der Straße rechts abbiegen auf die First Street in Richtung B Street für 0,1 Meilen“. Da es die längste Instruktionsmenge ist, ordnet die Anwendung der Instruktionsmenge einen Rang von 1 zu. Die zweite Instruktionsmenge entfernt das „Für“-Feld, nur unter Verwendung der „An“-, „Abbiegen“-, „Auf‟ und „in Richtung“-Felder. Die dritte Instruktionsmenge entfernt das „An“-Feld. Diese Felder fügen Kontext hinzu und sind deshalb gut zu haben, wenn zusätzlicher Raum verfügbar ist. Allerdings sind sie für das Manöver selbst weniger wesentlich und deshalb die ersten Felder, die entfernt werden, wenn der Instruktionstext gekürzt wird. Als nächstes entfernt die Anwendung für die vierte Instruktionsmenge, das „in Richtung“-Feld, da die „Abbiegen-“ und „Auf‟-Felder als wichtiger angesehen werden. Zuletzt enthält die fünfte Instruktionsmenge nur das „Abbiegen“-Feld, das einfach „rechts abbiegen“ angibt.
  • Wieder werden einige Ausführungsformen zusätzliche Instruktionsmengen enthalten, wenn unterschiedliche Instruktionsmengen (die immer noch Sinn machen) verfügbar sind. Zum Beispiel werden einige Ausführungsformen eine Instruktionsmenge beinhalten, die das „An“-Feld entfernt, aber das „Für“-Feld beibehält, in dem Fall, dass das „Für“-Feld kürzer als das „An“-Feld ist. Dies erlaubt der Anwendung eine andere Option zu haben im Fall, dass die zweite Instruktionsmenge (mit dem „Für“-Feld entfernt) leicht zu lang für den zugeteilten Raum ist. Außerdem können einige Ausführungsformen zusätzliche, weniger oder unterschiedliche Felder beinhalten. Zum Beispiel können einige Ausführungsformen ein „In“-Feld beinhalten, welches die Distanz zu dem bevorstehenden Verbindungspunkt gibt (z.B. „in 0,5 Meilen“, ...).
  • 24 und 25 veranschaulichen verschiedene unterschiedliche Szenarien, in welchen die Kartenanwendung unterschiedliche Beispiele adaptiver Instruktionen für das bestimmte Manöver des ersten Verbindungspunktes in Tabelle 2305 in einer Vielzahl von unterschiedlichen Situationen anzeigt. In diesem Fall sind die vollständigen Instruktionen „In 0,5 Meilen, am Ende der Straße, rechts abbiegen auf die First Street in Richtung B Street für 0,1 Meilen“. Allerdings sind, da das Beispiel kein „In“-Feld beinhaltet, die Instruktionen mit höchstem Rang leicht kürzer als diese. Um zu ermitteln, welche Instruktionsmenge für eine bestimmte Anzeige zu verwenden ist, bestimmt die Kartenanwendung einiger Ausführungsformen eine maximale Länge für die Instruktionsmenge, wählt dann die Menge mit dem höchsten Rang aus, welche in den zugeteilten Raum passt.
  • Das erste Szenario 2405 veranschaulicht Instruktionen für das bestimmte Manöver, das bei der Punkt-zu-Punkt-Navigation angezeigt wird. In diesem Fall vergibt die Anwendung drei Textzeilen für die Instruktion. Die Distanz (0,5 Meilen) wird bereits in großer Schrift oben von dem Navigationsschild angezeigt, dies zählt jedoch nicht als eine der Textzeilen. Mit drei verfügbaren Zeilen kann die Instruktionsmenge mit dem höchsten Rang in dem Navigationsschild verwendet werden.
  • Das zweite Szenario 2410 veranschaulicht Punkt-zu-Punkt-Navigationsinstruktionen für das bestimmte Manöver, im Sperrbildschirmmodus. In diesem Modus sind in einigen Ausführungsformen nur zwei Zeilen großer Text zugeteilt, so dass die Instruktionen mit passendem höchstem Rang nur das „Abbiegen-“ und „Auf‟-Feld verwenden. Dieses vereinfacht die Richtung der Abbiegung und der Straße, in welche der Benutzer abbiegt. Das dritte Szenario 2415 veranschaulicht Navigationsinstruktionen für das Manöver, während die Kartenanwendung nicht auf der Vorrichtung geöffnet ist, in welchem Fall die Instruktionen als Alarm-Banner erscheinen. In diesem Fall vergibt die Anwendung in Instruktionen nur eine Zeile, so dass die Instruktionen mit dem niedrigstem Rang („rechts abbiegen“) verwendet werden.
  • Das vierte Szenario 2420 veranschaulicht das Anzeigen von Informationen in der Listenansicht für Routenanweisungen. Diese Ansicht listet, wie oben beschrieben, nachfolgende Instruktionen für jedes Manöver entlang der Route auf. In einigen Ausführungsformen sind die Banner in der Listenansicht für jede Anweisung von variabler Höhe und daher wird immer eine vollständige Instruktionsmenge verwendet. Deshalb wird die Menge von Instruktionen mit dem höchsten Rang, „am Ende der Straße, rechts abbiegen in die First Street in Richtung B Street“ für das erste Manöver in der Liste verwendet. Wie gezeigt nimmt dieses Manöver eine zusätzliche Textzeile verglichen mit den nächsten zwei Manövern ein.
  • Das fünfte Szenario 2425 veranschaulicht eine Punkt-zu-Punkt-Navigation in einem 3D-Modus. Verglichen zu dem ersten Szenario 2405 teilen einige Ausführungsformen über die Instruktionsmenge im 3D-Modus weniger Raum im Navigationsschild zu, um mehr von der 3D-Ansicht sichtbar zu machen. Als solche verwendet die Anwendung die Instruktionsmenge mit dem dritten Rang, weil diese die größte Instruktion ist, die in zwei Zeilen unter Benutzung einer gegebenen Textgröße hineinpasst.
  • 25 veranschaulicht zusätzliche Szenarien, in welchen die Kartenanwendung die aufgebauten Instruktionsmengen verwendet. Das sechste Szenario 2505 veranschaulicht die Anzeige von Routenübersichtsinstruktionen, durch die der Benutzer durchschreiten kann (z.B. mit Wischbewegungen). In einigen Ausführungsformen teilt die Anwendung für Durchschreitinstruktionen, wie für Punkt-zu-Punkt-Navigation die gleiche Menge an Raum zu und daher verwendet die Anwendung wieder die Instruktionsmenge mit dem höchsten Rang, welche alle Felder beinhaltet.
  • Das siebte Szenario 2510 ist dasselbe wie das erste Szenario 2405, aber gibt explizit an, dass die gesprochene Navigation ausgeschaltet ist. Dies wird hier als Kontrast zu dem achten Szenario 2515 bereitgestellt, in welchem Sprachinstruktionen während der Punkt-zu-Punkt-Navigation aktiviert sind. Für Sprachnavigation bestimmt die Anwendung eine maximale erlaubte Zeitdauer, um die Instruktionen zu sprechen, dann bestimmt sie die Instruktionsmenge mit dem höchsten Rang, die in der zugeteilten Zeit gesprochen werden kann. In diesem Fall erlaubt die Zeit der gesamten Instruktionsmenge mit dem höchsten Rang ausgewählt zu werden. Außerdem, wenn die Sprachnavigation aktiviert ist, reduziert die Anwendung die Größe des dargestellten Navigationsschildes. Von daher zeigt die Anwendung die Instruktionsmenge mit dem dritten Rang in der Anzeige an.
  • Abschließend kann die Kartenanwendung in einigen Ausführungsformen auf unterschiedlichen Arten von Vorrichtungen mit unterschiedlichen Größen von Anzeigebildschirmen arbeiten. Zum Beispiel könnte die Anwendung sowohl auf Smartphones wie auch auf größeren Tablet Computern arbeiten. Wenn sie auf einer größeren Vorrichtung arbeitet, erlauben einige Ausführungsformen mehr Raum für das Navigationsschild. Das neunte Szenario 2520 veranschaulicht eine Punkt-zu-Punkt-3D-Navigation auf einer größeren Vorrichtung (einem Tablet Computer). Anders als im fünften Szenario 2425, stellt das Navigationsschild genug Raum für die Benutzung der Instruktionsmenge mit dem höchsten Rang bereit.
  • Die obige Beschreibung beschreibt einige Ausführungsformen, welche verschiedene unterschiedliche Instruktionsmengen für ein Manöver generieren, die Instruktionsmengen einstufen und dann adaptiv ermitteln, welche dieser Instruktionsmengen am besten in einen bestimmten Raum passen. In einigen Ausführungsformen identifiziert die Anwendung eine maximale Anzahl von verfügbaren Zeichen, die für die Anweisungsanzeige verwendet werden. Die Anwendung startet anschließend mit der Instruktionsmenge mit dem höchsten Rang und bestimmt, ob die Instruktionsmenge in die identifizierte Anzahl an Zeichen hineinpasst. Wenn die Instruktionsmenge passt, selektiert und zeigt die Anwendung die Instruktionsmenge an.
  • Wenn die Instruktionsmenge nicht passt, geht die Anwendung zu der Instruktionsmenge mit dem nächsten Rang weiter und führt den gleichen Test durch. Wenn keine der Instruktionsmengen passt, verwendet die Anwendung dann die, die am nächsten an eine passende herankommt. Einige Ausführungsformen verkürzen dann die Instruktionsmenge mit einer Ellipse, um anzugeben, dass die Instruktionsmenge nicht vollständig in den Raum hineinpasst. Dies kann zum Entfernen von Elementen aus der Zeichenkette führen.
  • Zusätzlich zu Text verwenden einige der Ausführungsformen Textersatz in den Instruktionsmengen. Speziell bei Straßen, die durch Schilder (z.B. zwischenstaatliche Freeways, Staatsrouten) dargestellt sind, verwendet die Anwendung die Schilddarstellung der Straße anstelle des Straßennamens (z.B. ein blaues und rotes Schild mit „I-5“ darauf anstelle von „Golden State Freeway“ oder „Interstate 5“). Einige Ausführungsformen behandeln diese Schilder als eine fixe Anzahl von Zeichen, wenn sie die unterschiedlichen Instruktionsmengen beurteilen.
  • Die obige Beschreibung beschreibt einige Ausführungsformen der Kartenanwendung, in welcher die Entscheidung, welche Elemente zu verwenden sind, primär basierend auf dem Versuch, die Instruktionsmenge mit der maximalen Länge zu verwenden, durchgeführt wird. Einige andere Ausführungsformen berücksichtigen, ob bestimmte Elemente der Instruktionsmenge dem Benutzer in einer unterschiedlichen visuellen Art dargestellt werden und können diese Elemente potentiell entfernen.
  • Zum Beispiel, wenn ein detaillierter Instruktionspfeil angezeigt wird, der klarmacht, dass eine Abbiegung eine leichte Rechtsabbiegung ist, kürzen einige Ausführungsformen die Instruktion, indem sie das „leicht“ Entfernen oder sogar den gesamten Verweis auf die Abbiegung entfernen, stattdessen verwenden sie Instruktionen analog zu „CA-17 S in Richtung Santa Cruz“. In ähnlicher Weise, wenn ein großes Straßenschild angezeigt wird, kann dann der „CA-17 S“-Teil der Instruktion weggelassen werden.
  • B. Dynamische und animierte Darstellung von Schildern
  • Die oben beschriebenen Situationen von 20 veranschaulichen eine statische Ansicht der Navigationsschilder (z.B. werden keine Änderungen, die an den Schildern gemacht werden, gezeigt). Einige Ausführungsformen stellen Animationen oder andere dynamische Anzeigen für diese Navigationsschilder bereit. Diese Anzeigen beinhalten ein Anzeigen des Erscheinens des Schildes, die über den Kopf der Benutzerdarstellung (der Navigationspuck) in der Kartenanzeige vorbei zieht, wenn ein Benutzer ein Manöver macht und das Schild entfernt wird. Zusätzlich können subtile Animationen auf ein Schild angewendet werden, wenn sich ein Manöver nähert, um das bevorstehende Manöver in die Beachtung des Benutzers zu bringen. Abschließend, wenn zwei Manöver in kurzer Folge stattfinden, zeigt die Anwendung das Navigationsschild für das zweite Manöver, wie hinter dem ersten angestellt an.
  • 1. Animiertes Entfernen und Darstellung des Navigationsschildes
  • 26 veranschaulicht über vier Phasen 2605-2620 die Animation einiger Ausführungsformen, um ein Navigationsschild zu entfernen und das nächste Schild einzuführen. In einigen Ausführungsformen ahmt die Animation des entfernten Schildes die eines Straßenschildes nach, welches über Kopf auf einem Highway vorbei zieht. Während diese Figur die Animation in einem 3D-Modus-Kontext veranschaulicht, beinhalten einige Ausführungsformen auch die Animation im 2D-Modus. Andere Ausführungsformen stellen die Animation speziell für den 3D-Modus bereit.
  • Die erste Phase 2605 veranschaulicht ein Navigationsschild 2625, welches ein vom Benutzer durchzuführendes Manöver vom Einfädeln auf die Main Street in 100 Fuß angibt. Die zweite Phase 2610 veranschaulicht die Animation zum Entfernen des Navigationsschildes 2625, während der Benutzer das Manöver durchführt. Während der Benutzer sich physikalisch auf die Main Street einfädelt, vergrößert sich das Navigationsschild 2625 und beginnt, aus dem Sichtfeld zu verschwinden, so wie ein Straßenschild über einen Freeway. In einigen Ausführungsformen verwendet die Kartenanwendung auch ein perspektivisches Neigen zu dem Schild, um zusätzlich die Erscheinung des Schildes, das über Kopf vorbei zieht, nachzuahmen.
  • In der dritten Phase 2615 beginnt das nachfolgende Navigationsschild 2630 am Horizont oder in einer größeren Annäherung an den Horizont zu erscheinen. Einige Ausführungsformen geben nicht tatsächlich die Karte über den ganzen Weg bis zum Horizont im 3D-Modus wieder und starten mit der Animation des bevorstehenden Navigationsschildes bei der Distanz, bei welcher die 3D-Wiedergabe aufhört. Diese Animation ist gedacht, um der Annäherung an ein Straßenschild auf einem Freeway zu ähneln, jedoch oft in einer höheren Geschwindigkeit (um das Navigationsschild schnell auf volle Größe zu bringen und eine Ablenkung von einer langwierigen Animation zu vermeiden). Die vierte Phase 2620 veranschaulicht die resultierende Anzeige mit dem nachfolgenden Navigationsschild 2630, die oben auf dem Bildschirm in der normalen Position angezeigt ist.
  • Zusätzlich zu den Animationen, welche in 26 gezeigt sind, beinhalten einige Ausführungsformen in einigen Fällen auch komplexere Animationen. Als ein Beispiel rotieren einige Ausführungsformen ein Navigationsschild, während es die Anzeige verlässt, wenn ein Benutzer ein Abbiegemanöver macht, um die Erscheinung von einem Benutzer, der unter dem Schild abbiegt, nachzuahmen.
  • 2. Gelegentliche Betonungen
  • In einigen Fällen kann die Kartenanwendung ein Navigationsschild lange bevor das durch das Navigationsschild beschriebene Manöver durchgeführt wird, anzeigen. Zum Beispiel, wenn ein Benutzer einen Freeway betritt und das nächste Manöver eine Freeway-Ausfahrt in 15 Meilen involviert, kann die Anwendung ein Navigationsschild, welches die bevorstehende Freeway-Ausfahrt angibt, lange bevor der Benutzer sich auf das tatsächliche Verlassen des Freeways vorbereiten muss, anzeigen. Wenn die Zeit kommt, um den Benutzer zu warnen, dass der Verbindungspunkt, an welchem das Manöver durchgeführt wird, sich nähert, verwenden unterschiedliche Ausführungsformen unterschiedliche Techniken. Einige Ausführungsformen beinhalten Tonwarnungen, wobei die Benutzervorrichtung Sprachnavigation bereitstellt, um anzugeben, dass der nächste Verbindungspunkt sich nähert.
  • Einige Ausführungsformen stellen, entweder in Verbindung mit der Tonwarnung oder wenn die Tonwarnung ausgeschaltet ist, eine visuelle Angabe bereit, dass das Manöver bevorsteht, in dem es das Schild anzeigt. Zum Beispiel ändert in einigen Ausführungsformen die Anwendung die Farbe des Schildes (z.B. von grün nach weiß oder grün nach gelb) zusammen mit der Farbe des grafischen Indikatorpfeils (z.B. von weiß nach schwarz). Andere Ausführungsformen zeigen einen weniger aufdringlichen Schimmer über den Navigationsschildern an, der gedacht ist, die Aufmerksamkeit des Benutzers zu bekommen, ohne zu aufdringlich zu sein.
  • 27 veranschaulicht solch eine Schimmeranimation über vier Phasen 2705-2720. Diese Phasen veranschaulichen den Hintergrund der Anzeige grau, um sich von dem Schimmer, wie er sich durch das Schild bewegt, abzuheben (in weiß gezeigt). Die erste Phase 2705 veranschaulicht ein Navigationsschild 2725, welches gerade ein Rechtsabbiegemanöver in 1000 Fuß angibt.
  • In der zweiten Phase 2710 ist die Rechtsabbiegung nur noch 500 Fuß entfernt. Die Anwendung hat entschieden, dass dies eine angemessene Distanz ist, an welcher der Benutzer über das bevorstehende Manöver gewarnt werden soll, und hat deshalb begonnen, einen Schimmer über dem Navigationsschild 2725 anzuzeigen. Die dritte und vierte Phase 2715 und 2720 veranschaulichen die Fortsetzung dieser Animation. In einigen Ausführungsformen ähnelt die Animation einem Licht, welches von links nach rechts über das Schild bewegt wird. Andere Ausführungsformen zeigen eine ähnliche Animation von rechts nach links oder andere solche Animationen an (z.B. ein Licht, welches aus dem Zentrum des Schildes ausstrahlt, usw.).
  • Einige Ausführungsformen variieren die Distanz vom Manöver, bei welcher die Animation gestartet wird, basierend auf verschiedenen Faktoren, so wie der Geschwindigkeit, in welcher die Vorrichtung sich bewegt (basierend auf Ortsverfolgungsinformationen) und der Geschwindigkeitsbegrenzung der Straße, auf welcher der Benutzer gerade reist. Zum Beispiel haben einige Ausführungsformen eine festgesetzte Zeit bevor vor einer Kreuzung die Animation angezeigt werden soll und verwenden diese Geschwindigkeitsinformation, um die angemessene Distanz zu berechnen. Einige Ausführungsformen variieren auch die Distanz basierend auf der Art des durchzuführenden Manövers (z.B. erlauben sie mehr Zeit, einen Freeway zu verlassen als für eine Rechtsabbiegung von einer einspurigen Straße weg zu machen).
  • 3. Sekundäre Schilder
  • Wenn eine Route zwei verschiedene Manöver in schneller Folge verlangt, zeigen einige Ausführungsformen das Navigationsschild für das zweite Manöver unter dem Navigationsschild für das erste Manöver gestapelt an. Dies warnt den Benutzer vor der bevorstehenden Art des zweiten Manövers. Wenn mehrere Manöver in Folge durchgeführt werden, stapeln einige Ausführungsformen mehr als zwei Navigationsschilder aufeinander auf.
  • 28 veranschaulicht die Anzeige von zwei Schildern für Manöver in schneller Folge über vier Phasen 2805-2820. In der ersten Phase 2805, gibt ein erstes Navigationsschild 2825 an, dass das bevorstehende Manöver in einer Distanz von 1.000 Fuß, eine Linksabbiegung auf die East Street ist. Weil dies ein Punkt-zu-Punkt-Navigationsschild in voller Größe ist, zeigt die Anwendung eine erste Art von grafischem Indikatorpfeil (z.B. einen komplexen Pfeil) für dieses Manöver an. Wie auf der Karte durch eine sorgfältigere Prüfung als sie einem Fahrer zur Verfügung stehen würde (der meistens auf die Straße schauen wird) gesehen werden kann, wird eine Rechtsabbiegung auf die South Street kurz nach dem Linksabbiegen auf die East Street benötigt, um der gegebenen Route zu folgen. Um dies für den Benutzer offensichtlicher zu machen, zeigt die Anwendung ein zweites Navigationsschild 2830 unter dem ersten Navigationsschild 2825 an. Das zweite Schild beinhaltet eine zweite Art von grafischem Indikatorpfeil (z.B. einen einfacheren Pfeil), weil weniger Raum bereitgestellt wird. Außerdem werden dem Benutzer weniger Informationen in dem zweiten Schild 2830 bereitgestellt.
  • Die zweite Phase 2810 veranschaulicht, dass der Benutzer nun 900 Fuß gereist ist, so dass es nur noch 100 Fuß bis zum Linksabbiegemanöver sind. Außer den Aktualisierungen der Distanz in dem Navigationsschild 2825 (und der Bewegung auf der 3D-Karte), hat die Anzeige sich noch nicht geändert. Die dritte Phase 2815 veranschaulicht die Anzeige unmittelbar nachdem das Linksabbiegemanöver auf die East Street durchgeführt wurde. Wie gezeigt, ist das zweite Navigationsschild 2830 nun ein Navigationsschild voller Größe mit einem komplexen grafischen Indikatorpfeil und zusätzlichen Textinformationen (eine Distanz von 50 Fuß und Textinstruktionen, um nach rechts abzubiegen). Einige Ausführungsformen animieren den Übergang von dem kleinen Schild zu dem Schild voller Größe, während andere Ausführungsformen einfach eines durch das andere austauschen.
  • Die vierte Phase 2820 veranschaulicht die Anzeige, nachdem der Benutzer das zweite Manöver gemacht hat (rechts auf die South Street abbiegen). Die Anwendung zeigt nun ein Navigationsschild 2835 für das nächste Manöver an, eine Linksabbiegung auf die West Street. Weil dieses Manöver 2,8 Meilen entfernt ist, hat die Anwendung das Schild 2835 nicht unter das Schild 2830 gestapelt. Da die Navigation in einem 3D-Modus ist, zeigen einige Ausführungsformen die unter Bezugnahme der 26 beschriebenen Animationen an.
  • In dem obigen Beispiel stapelt die Anwendung Schilder für Manöver, die 50 Fuß auseinander auftreten, stapelt jedoch keine Schilder für Manöver, die mehrere Manöver auseinander auftreten. Die Schwellendistanz, ab welcher zwei Manöver aufeinanderfolgend anzusehen sind, kann von einer Vielzahl von Faktoren abhängen. Einige Ausführungsformen speichern eine festgelegte Distanz, die nicht variabel ist. Andere Ausführungsformen betrachten die Art der Straßen, die in die Manöver involviert sind (z.B. auf einer funktionalen Straßenklassenvariablen basierend, die die Straße in Backend-Kartendaten beschreibt) oder die Geschwindigkeitsbegrenzungen nehmen eine wahrscheinliche Geschwindigkeit für den Benutzer nach dem Manöver an und setzen die Schwellendistanz basierend auf diesen Daten fest (d.h. basierend auf einer Schwellenzeit zwischen Manövern, wie beispielsweise 30 Sekunden).
  • III. Navigationsinstruktionen, wenn nicht in der Navigationsanwendung
  • A. Instruktionen, wenn die Vorrichtung entsperrt ist und die Navigation im Hintergrund arbeitet
  • Einige Ausführungsformen erlauben der Navigationsanwendung im Hintergrund zu laufen, während andere Anwendungen im Vordergrund laufen. Diese Ausführungsformen stellen unaufdringliche Navigationsinstruktionen im Vordergrund bereit, sogar wenn die Hauptnavigationsanwendung im Hintergrund läuft und eine andere Anwendung oder ein Anwendungsstarter im Vordergrund laufen. Beispiele von Anwendungen, die im Vordergrund laufen, beinhalten einen sprachaktivierten persönlichen Assistenten, eine Email, einen Browser, ein Telefon, einen Kalender oder eine andere Anwendung, die auf der Vorrichtung verfügbar ist.
  • Die Navigationsanwendung einiger Ausführungsformen stellt einen Navigationsbalken (manchmal ein „Banner“ oder „Navigationsbanner“ genannt) und einen regulären Statusbalken auf dem Bildschirm bereit. Einige Ausführungsformen stellen einen Navigationsstatusbalken bereit, wenn keine Navigationsinstruktionen bereitgestellt werden und stellen einen Navigationsinstruktionsbalken bereit, wenn Navigationsinstruktionen gegeben werden. 29 veranschaulicht eine Anzeige einer Benutzervorrichtung 2900, wenn eine Navigation im Hintergrund der Erfindung in einigen Ausführungsformen arbeitet. Die Anzeige der Benutzervorrichtung 2900 wird in vier Phasen 2901-2904 gezeigt.
  • In Phase 2901 zeigt die Anzeige 2900 die Navigationsanwendung 2905, einen Statusbalken 2980 und einen Knopf 2915. Der Statusbalken 2980 zeigt unterschiedliche Informationen, wie den Batteriezustand, die Zeit, Empfangsbalken, usw. In einigen Ausführungsformen zeigt der Statusbalken einen Indikator, wie einen Pfeil, an, welcher angibt, dass die Navigationsanwendung oder eine Kartenanwendung läuft. In dieser Phase 2901 läuft die Navigationsanwendung 2905 im Vordergrund bis die Vorrichtung eine Selektion (z.B. einen Klick) auf dem Knopf 2915 empfängt, der von der Navigationsanwendung zu der Anwendungsstartansicht, welche selbst als eine Anwendungsstartanwendung charakterisiert werden kann, wechselt. In einigen Ausführungsformen gibt es andere Steuerungen anstelle oder zusätzlich zu dem Knopf, der von der Navigationsanwendung zu einer anderen Anwendung wechselt (z.B. die Navigationsstartansicht oder andere Anwendungen). Die Phase 2901 zeigt auch, dass die Straßennamen auf Straßenschildern und nicht in Bannern angezeigt werden. Wie oben erwähnt kann die Kartenanwendung von einigen Ausführungsformen die Straßennamen auf der Straße und/oder in den Bannern anzeigen, unabhängig davon, in welchem Modus die Kartenanwendung arbeitet.
  • In Phase 2902 wird der Anwendungsstarter 2975 im Vordergrund angezeigt. Der Anwendungsstarter im Vordergrund 2975 hat Symbole 2925, welche ihre normalen Funktionen haben (z.B. Starten anderer Anwendungen), während die Navigationsanwendung im Hintergrund läuft. In Phase 2902 wird ein Statusbalken der Hintergrundnavigation 2910 unter dem Statusbalken 2980 gezeigt. Einige Ausführungsformen zeigen den Statusbalken 2980 und/oder den Navigationsstatusbalken 2910 in einer unterschiedlichen Farbe (z.B. grün), wenn Navigation im Hintergrund läuft (wie in Phase 2902 gezeigt) als die Statusbalkenfarbe (z.B. grau), wenn Navigation nicht im Hintergrund läuft (wie in Phase 2901 gezeigt) an. In anderen Ausführungsformen ist der Statusbalken 2980 in der gleichen Farbe, wenn die Navigationsanwendung im Hintergrund läuft, die Navigationsanwendung aus ist oder die Navigationsanwendung im Vordergrund läuft. In einigen Ausführungsformen ist die Dicke des Navigationsstatusbalkens die gleiche oder annäherungsweise die gleiche (z.B. 75% zu 125% der Dicke) wie die Dicke des Statusbalkens, wenn die Navigationsanwendung gerade nicht eine Anweisung in einem Navigationsinstruktionsbalken anzeigt.
  • In einigen Ausführungsformen ist der Navigationsstatusbalken 2910 beides, ein Indikator dafür, dass die Navigationsanwendung im Hintergrund läuft und eine Steuerung, um die Navigationsanwendung in den Vordergrund zu bringen. Der Navigationsstatusbalken 2910 ist in einigen Ausführungsformen nicht limitiert, um nur mit dem Anwendungsstarterbildschirm 2975 angezeigt zu werden, sondern wird unter dem Statusbalken 2980 oben von jeder Anwendung, die im Vordergrund läuft, angezeigt.
  • In Phase 2903 wird der Navigationsstatusbalken 2910 durch Berührung des Navigationsstatusbalkens 2910 auf dem Bildschirm selektiert. Einige Ausführungsformen erlauben auch die Selektion des Navigationsbalkens durch andere berührungsbasierte oder bewegungsbasierte Eingabevorrichtungen sowie durch nicht berührungsbasierte oder bewegungsbasierte Eingabevorrichtungen. Einige Vorrichtungen, die für die Selektion in einigen Ausführungsformen verwendet werden, beinhalten Tastaturen, Mäuse, Joysticks, Touchpads und ähnliche (z.B. eine Selektion kann durch einen Mausklick sein). Die Selektion des Navigationsstatusbalkens 2910 (wie in Phase 2903) gezeigt, veranlasst die Navigationsanwendung 2905 in den Vordergrund in Phase 2904 zurückzukehren. Zusätzlich zu der Benutzung des Navigationsstatusbalkens 2910, um in die Navigationsanwendung zurückzukehren (z.B. um die Navigationsanwendung in den Vordergrund zu bringen), hat in einigen Ausführungsformen der Navigationsbalken andere Funktionen. Zum Beispiel wird der Navigationsstatusbalken 2910 in einigen Ausführungsformen verwendet, um Navigationsinstruktionen (z.B. Punkt-zu-Punkt-Anweisungen) bereitzustellen, während die Navigationsanwendung selbst weiterhin im Hintergrund ist. In anderen Ausführungsformen wird der Navigationsstatusbalken zu verschiedenen Zeiten durch einen Navigationsinstruktionsbalken ersetzt, der Instruktionen bereitstellt.
  • 30 veranschaulicht konzeptionell einen Prozess 3000 einiger Ausführungsformen, um Anweisungen bereitzustellen, während eine Navigationsanwendung im Hintergrund läuft. 30 wird mit Bezug auf 31 beschrieben, welche kurz zuerst beschrieben wird. 31 veranschaulicht eine Benutzerschnittstelle einiger Ausführungsformen, in welchen Navigationsinstruktionen gegeben werden, während die Navigationsanwendung im Hintergrund läuft und eine andere Anwendung im Vordergrund läuft. Die Figur zeigt sechs Phasen 3101-3106. Die erste Phase beinhaltet einen Statusbalken 3180, einen Navigationsstatusbalken 3110 und eine Vordergrundanwendung 3115. Die verbleibenden Phasen 3102-3106 zeigen die Änderungen des Navigationsstatusbalkens 3110 (z.B. ihre Ersetzung durch die Navigationsinstruktionsbalken 3120-3150), während die Vorrichtung bewegt (moved toward) wird und einen Navigationspunkt passiert (hier manchmal als Manöver angegeben, stellen einige Navigationspunkte Kreuzungen in der Straße dar).
  • Wie in 30 gezeigt, zeigt der Prozess 3000 (in 3005) die Navigationsanwendung im Vordergrund. Der Prozess bestimmt dann (in 3010), ob die Steuerung (z.B. Knopf 2915 der 29) aktiviert wurde. Wenn nicht, behält der Prozess die Anzeige der Navigationsanwendung im Vordergrund, bis die Steuerung aktiviert wird (oder in einigen Ausführungsformen, bis einige andere Steuerungen aktiviert werden oder die Vorrichtung in einen Schlafmodus geht). Wenn die Steuerung aktiviert wird, zeigt der Prozess (in 3015) den Anwendungsstartmodus im Vordergrund an und zeigt (auch in 3015) den Navigationsstatusbalken 3110 an, um anzugeben, dass die Navigation im Hintergrund läuft. Dies ist veranschaulicht in Phase 3101 in 31.
  • Der Fachmann wird verstehen, dass in einigen Ausführungsformen ein Navigationsbalken (ein Navigationsinstruktionsbalken und/oder ein Navigationsstatusbalken) oben von einigen oder allen Vordergrundanwendungen erscheint, nicht nur in der Anwendungsstartanwendung. Die Aktivierung von einer oder mehreren Steuerungen in einigen Ausführungsformen veranlasst andere Anwendungen als die Startanwendung, in den Vordergrund zu gehen. Außerdem erscheint in einigen Ausführungsformen der Navigationsbalken weiterhin über Vordergrundanwendungen, nach dem Wechseln zwischen einer Vordergrundanwendung zu einer anderen und nicht nur, wenn direkt von der Navigationsanwendung zu einer bestimmten Vordergrundanwendung gewechselt wird. Ein Beispiel eines Navigationsbalkens, der über einer anderen Anwendung angezeigt wird, ist in 32, die unten beschrieben wird, gezeigt.
  • Der Prozess 3000 bestimmt dann (in 3020), ob die Benutzervorrichtung nahe einem Navigationspunkt ist (z.B. an einer Wegpunktabbiegung). Während die Anwendung bestimmt (in 3020), dass die Vorrichtung nicht nahe eines Navigationspunktes ist, verbleibt die Anzeige wie in Phase 3101 der 31 gezeigt.
  • Die Phase 3101 zeigt den Zustand einer Vorrichtung, wenn die Navigationsanwendung als Hintergrundanwendung aktiv ist und die Vordergrundanwendung 3115 der Anwendungsstartbildschirm ist. Die Navigationsanwendung wurde nicht ausgeschaltet, jedoch stattdessen im Hintergrund angelassen. Die sichtbare Angabe in Phase 3101 der Navigationsanwendung, die im Hintergrund an ist, ist der Navigationsstatusbalken 3110. Auch zeigen einige Ausführungsformen den Statusbalken 3180 in einer anderen Farbe als seiner gewöhnlichen Farbe, wenn eine Navigation im Hintergrund läuft. In einigen Ausführungsformen werden der Statusbalken 3180 und der Navigationsstatusbalken 3110 in verschiedenen Grüntönen gezeigt. In einigen Ausführungsformen ändern sich die Farben oder Tönungen von einem oder beiden der Statusbalken und der Navigationsbalken über die Zeit, um auf die Tatsache aufmerksam zu machen, dass die Navigationsanwendung im Hintergrund ausgeführt wird.
  • In dieser Phase 3101 ist die Vorrichtung (und die Person oder das Fahrzeug, die die Vorrichtung tragen) weit von dem nächsten Navigationspunkt entfernt. Die Anwendung einiger Ausführungsformen beinhaltet die in 31 veranschaulichte, welche keine Abbiegeinformationen für die gesamte Zeitspanne, die die Anwendung im Hintergrund läuft, anzeigt. In einigen solchen Ausführungsformen, wenn die Vorrichtung nicht nahe einem Navigationspunkt ist (z.B. wenn keine Abbiegung bevorsteht), zeigt die Vorrichtung, in dem Navigationsstatusbalken 3110, „berühre um die Navigation anzusehen“ oder „berühre um zur Navigation zurückzukehren“ oder einige andere Nachrichten, die angeben, dass eine Selektion des Navigationsbalkens die Navigationsanwendung in den Vordergrund bringt, an. In anderen Ausführungsformen werden die Navigationsinstruktionen angezeigt unabhängig davon, ob die Vorrichtung nahe an einem Navigationspunkt ist oder nicht.
  • Zurückverweisend auf 30, wenn der Prozess 3000 bestimmt (in 3020), dass die Vorrichtung sich dem nächsten Navigationspunkt nähert, ändert der Prozess (in 3025) den Navigationsstatusbalken 3110 zu einem Navigationsinstruktionsbalken 3120, um die neue Navigationsinstruktion anzuzeigen. Dies wird in Phase 3102 der 31 gezeigt. In Phase 3102 nähert sich die Vorrichtung einem Navigationspunkt (einer Linksabbiegung in 500 Fuß). In dieser Phase 3102 zeigt der Navigationsinstruktionsbalken 3120 Navigationsinstruktionen an, welche einen Pfeil, der eine Linksabbiegung und eine Distanz (500 Fuß) bis zur Linksabbiegung angibt, beinhaltet. Der Prozess 3000 zeigt (in 3030) einen Countdown (in Fuß) an, bis er bestimmt (in 3035), dass der Navigationspunkt passiert wurde.
  • In einigen Ausführungsformen werden die Navigationsbalken in Phase 3101 und 3102 wie getrennte Einheiten behandelt, wobei es vorkommt, dass sie einen ähnlichen Platz im Bildschirm besetzen. In solchen Ausführungsformen kann der Navigationsbalken in Phase 3101 als ein „Navigationsstatusbalken“ charakterisiert werden, während der Navigationsbalken mit Navigationsinstruktionen in Phase 3102 als ein „Navigationsinstruktionsbalken“ oder ein „Navigationsanweisungsbalken“ charakterisiert werden kann. In einigen Ausführungsformen ist der Navigationsinstruktionsbalken 3120 dicker als der Navigationsstatusbalken 3110 (z.B. zweifache Dicke oder mehr) und verdeckt den Statusbalken. In anderen Ausführungsformen wird der Navigationsbalken als eine einzelne Einheit behandelt, die sich (z.B. auf das Zweifache ihrer vorherigen Dicke oder mehr) ausdehnt, um den Statusbalken zu verdecken oder zu ersetzen, wenn der Navigationsbalken Navigationsinstruktionen anzeigt.
  • In den Phasen 3103 und 3104 wird, während die Vorrichtung sich näher an die Navigationspunkte heranbewegt, die Distanz zu den Navigationspunkten in den Navigationsinstruktionen in dem Navigationsbalken 3130 (100 Fuß) und 3140 (0 Fuß) heruntergezählt. In Phase 3104 haben die Instruktionen begonnen, auf die nächste Instruktion zu wechseln.
  • In Phase 3104 findet die tatsächliche Abbiegung statt. Die Navigationsinstruktionen in dem Navigationsinstruktionsbalken 3150 (gezeigt in Phase 3105) ersetzen die vorigen Navigationspunktinstruktionen in dem Navigationsinstruktionsbalken 3140 mit den Anweisungen für den nächsten Navigationspunkt. In einigen Ausführungsformen, die die veranschaulichte Ausführungsform beinhaltet, werden die Navigationsinstruktionen in einer Simulation von einem kippenden Schild mit mehreren Flächen, gewechselt. Entsprechend zeigt die Anweisung 3140 die Anweisung „o Fuß links abbiegen“ als sie zu kippen beginnt. In einigen Ausführungsformen kippt das Schild hinauf, in einigen Ausführungsformen kippt das Schild hinunter. In anderen Ausführungsformen verwendet die Vorrichtung andere Übergangsmethoden, um die alte Navigationsinstruktion in dem Navigationsinstruktionsbalken 3140 zu entfernen und sie durch neue Navigationsinstruktionen in dem Navigationsinstruktionsbalken 3150 (in Phase 3105) zu ersetzen. Zum Beispiel simulieren einige Ausführungsformen eine neue Instruktion hinauf, hinunter oder seitwärts gleitend, während die alte Instruktion in die gleiche Richtung gleitet. Andere Ausführungsformen simulieren die neue Instruktion über die alte Instruktion gleitend. Noch andere Ausführungsformen lassen einfach die alte Instruktion verschwinden, um durch die neue Instruktion ersetzt zu werden.
  • Wenn ein Navigationspunkt erreicht wird, bestimmt der Prozess 3000 (in 3040), ob das finale Ziel erreicht wurde. Wenn das finale Ziel erreicht wurde, endet die Navigation. (Dies wird in der unten beschriebenen 33 veranschaulicht.) Falls das finale Ziel noch nicht erreicht wurde, dann existiert ein neuer Navigationspunkt zum Anzeigen (in 3045). Dies wird in Phase 3105 der 31 gezeigt.
  • Die Phase 3105 erscheint gerade nachdem die Linksabbiegung abgeschlossen ist. Die Navigationsinstruktion in dem Navigationsinstruktionsbalken 3150 hat die Navigationsinstruktion in dem Navigationsinstruktionsbalken 3140 vollständig ersetzt. Die neue Navigationsinstruktion in dem Navigationsinstruktionsbalken 3150 gibt eine erhebliche Distanz zu dem nächsten Navigationspunkt an. Wie oben erwähnt, sind die Anwendungen einiger Vorrichtungen programmiert, um Navigationsinstruktionen primär anzuzeigen, wenn die Vorrichtung nahe an einem Navigationspunkt ist, nicht die ganze Zeit. Dementsprechend kehrt die Anwendung nach der Anzeige der nächsten Navigationsinstruktion in dem Navigationsinstruktionsbalken 3150 für eine voreingestellte Zeitdauer (oder in einigen Ausführungsformen nach einer voreingestellten gereisten Distanz), in einigen Ausführungsformen zu der Anzeige des Navigationsstatusbalken 3110 in Phase 3106 zurück (und der Prozess 3000 kehrt zu der Operation 3015 zurück). Allerdings wenn bestimmt wird, dass der neue Navigationspunkt in der Nähe ist (in 3050 von 30), beginnt der Prozess 3000 sofort, die Distanz zu dem nächsten Navigationspunkt herunterzuzählen (in 3030). Unterschiedliche Anwendungen von unterschiedlichen Ausführungsformen verwenden verschiedene unterschiedliche Distanzen, um zu ermitteln, ob der Navigationsstatusbalken 3110 oder Navigationsinstruktionen (z.B. Instruktionen in dem Navigationsinstruktionsbalken 3120) gezeigt werden sollen. In einigen Ausführungsformen wechselt die Anwendungen zu den Instruktionen bei einer Meile oder einer halben Meile oder einer Viertelmeile oder 1.000 Fuß oder 750 Fuß oder 500 Fuß oder 250 Fuß oder einigen anderen Distanzen.
  • 32 veranschaulicht einen Navigationsbalken, der am oberen Ende einer Anwendung angezeigt wird. Die Figur veranschaulicht, dass der Navigationsbalken in anderen Anwendungen als der Anwendungsstarteranwendung angezeigt wird. Die Figur wird in vier Phasen 3201 bis 3203 gezeigt. In Phase 3201 ist die Navigationsanwendung im Vordergrund und der Benutzer hat einen Befehl eingegeben (z.B. zweifaches Drücken eines Knopfes 3210), um eine Liste von Anwendungen, welche gerade im Hintergrund laufen, hervorzubringen. In Phase 3202 zeigt die Vorrichtung eine Menge von Symbolen 3220, welche Anwendungen, die gerade im Hintergrund sind, darstellen, an. In einigen Ausführungsformen drückt die Menge von Symbolen 3220 die Benutzerschnittstelle der Anwendung wie gezeigt in den Vordergrund, hinauf. In anderen Ausführungsformen wird die Benutzerschnittstelle der Anwendung im Vordergrund mit der Menge von Symbolen 3220 überdeckt anstelle von hinaufgedrückt.
  • Die zweite Phase 3202 zeigt auch, dass der Benutzer ein Symbol 3225 selektiert, welches befiehlt, dass die durch Symbol 3225 dargestellte Anwendung (z.B. ein Internet-Browser) in den Vordergrund und die Navigationsanwendung in den Hintergrund verschoben wird. Der Fachmann wird verstehen, dass dies nur einer von vielen Wegen ist, wie einige Ausführungsformen die Navigationsanwendung in den Hintergrund und eine andere Anwendung in den Vordergrund wechseln. Zum Beispiel könnte der Benutzer zu der Anwendungsstartansicht wechseln und eine Anwendung starten, welche dann die Anwendungsstartansicht als Vordergrundanwendung ersetzen würde.
  • Der Internet-Browser 3230, der die Vorrichtung in den Vordergrund wechselt, ist in Phase 3203 gezeigt. Oben auf dem Bildschirm ist ein Navigationsinstruktionsbalken 3235, der angibt, dass die Navigationsanwendung im Hintergrund läuft und den Benutzer anweist, in 50 Fuß nach rechts abzubiegen. In einigen Ausführungsformen werden die Statusbalken und der Navigationsstatusbalken erscheinen (z.B. wie in 29 gezeigt), wenn die Navigationsanwendung gerade keine Anweisung bereitstellt.
  • Nach dem Folgen der Navigationsinstruktionen, die von der Vorrichtung gezeigt werden, wird der Benutzer sein beabsichtigtes Ziel erreichen. 33 veranschaulicht die Benutzerschnittstelle der Vorrichtung 3300 in einigen Ausführungsformen, in welchen die Vorrichtung ihr Ziel erreicht, während die Navigationsanwendung im Hintergrund von anderen Anwendungen läuft. Die Figur zeigt drei Phasen 3301 bis 3303. Die erste Phase 3301 zeigt einen Navigationsinstruktionsbalken 3310 und eine Vordergrundanwendung 3340. Wie gezeigt geben die Instruktionen in dem Navigationsinstruktionsbalken 3310 „Gehen Sie 50 Fuß geradeaus“ an.
  • Die Phase 3302 veranschaulicht die Benutzervorrichtung 3300, wenn das Ziel erreicht ist. Wie in dieser Phase gezeigt, gibt der Navigationsinstruktionsbalken 3310 „Ziel auf der linken Seite“ an. Phase 3303 veranschaulicht die Benutzervorrichtung 3300 nachdem das Ziel erreicht ist. Wie gezeigt, wurde der Navigationsinstruktionsbalken 3310 der Phasen 3301 und 3302 vom Bildschirm entfernt, um anzugeben, dass die Navigationsinstruktionen beendet sind und der Statusbalken 3380 kehrt auf den Bildschirm zurück. In einigen Ausführungsformen verbleibt die Navigationsanwendung im Hintergrund, wird jedoch nicht sichtbar in dieser Phase 3303 angezeigt. In anderen Ausführungsformen schaltet sich die Navigationsanwendung in dieser Phase 3303 selbst aus. In noch anderen Ausführungsformen zeigt die Vorrichtung den Navigationsbalken, nachdem das Ziel erreicht wurde, weiterhin an. Außerdem identifiziert die Navigationsanwendung einiger Ausführungsformen einen Ort als Ende der Fahrzeugnavigation und gibt an, dass der Rest des Weges zu Fuß beendet werden muss, welcher die Navigationsanwendung anweist (z.B. in dem Navigationsinstruktionsbalken).
  • Die Phase 3303 zeigt auch, dass die Symbole 3390 nicht bewegt wurden. Allerdings in anderen Ausführungsformen können die Symbole 3390 hinauf bewegt werden, um wenigstens einen Teil des Raumes, der einmal von dem Navigationsinstruktionsbalken 3310 in vorigen Phasen in einigen Ausführungsformen besetzt war, zu besetzen, wenn der Navigationsinstruktionsbalken vom Bildschirm entfernt wurde.
  • Wie oben beschrieben, werden der Navigationsstatusbalken und der Navigationsinstruktionsbalken als getrennte Komponenten in einigen Ausführungsformen behandelt. Die oben beschriebenen Figuren zeigen den Navigationsstatusbalken unter dem Statusbalken. Allerdings wenn die Navigationsanwendung im Hintergrund läuft, wird der Statusbalken selbst in einigen Ausführungsformen durch ein Navigationsbanner ersetzt. Dieses Navigationsbanner hat in einigen Ausführungsformen die doppelte Höhe des regulären Statusbalkens. Das Navigationsbanner einiger Ausführungsformen zeigt einige oder alle der gleichen Informationen wie der Statusbalken, welchen er ersetzt. In einigen Ausführungsformen zeigt das Navigationsbanner diese Informationen, wenn die Vorrichtung sich keinem Navigationspunkt nähert und zeigt sie nicht an, wenn die Vorrichtung sich einem Navigationspunkt nähert. Wenn die Vorrichtung sich einem Navigationspunkt nähert, werden einige oder alle der Statusinformationen entfernt, so dass eine Anweisung relevant zu dem bevorstehenden Navigationspunkt klarer gesehen werden kann.
  • Vorrichtungen, die Navigationsanwendungen einiger Ausführungsformen ausführen, beinhalten telefonische Vorrichtungen. In einigen Ausführungsformen ersetzen, wenn ein Telefonanruf durch die Vorrichtung verarbeitet wird und die Navigationsanwendung im Hintergrund läuft, Daten über den Telefonanruf (z.B. Anrufdauer) einen Navigationsstatusbalken oder den Instruktionsbalken mit einem Telefonanrufstatusbalken.
  • 34 veranschaulicht Interaktionen zwischen einem Anrufstatusbalken und einem Navigationsinstruktionsbalken. Die Figur wird in drei Phasen 3401-3403 gezeigt. In Phase 3401 wird ein Anruf fortgeführt, während die Vorrichtung eine Anwendungsstarteransicht anzeigt. Der Anruf wird durch einen Anrufstatusbalken 3415 unter dem Statusbalken 3410 angegeben. Der Anrufstatusbalken in einigen Ausführungsformen gibt an, dass ein Anruf im Gange ist, enthält einen Indikator der Dauer des Anrufs und erlaubt dem Benutzer, den Anrufstatusbalken zu selektieren, um zu einer Bildschirmansicht zurückzukehren, welche normalerweise für eine Behandlung von Anrufen verwendet wird. In einigen Ausführungsformen wechselt der ursprüngliche Statusbalken 3410 (Batterielebensdauer usw. zeigend) zu einer Farbe, welche angibt, dass ein Anruf im Gange ist (z.B. rot oder grün). In einigen Ausführungsformen hat der Telefonanrufstatusbalken 3415 eine ähnliche Farbe, wie eine Farbe, die der ursprüngliche Statusbalken während des Anrufs anzeigt (z.B. beide haben eine rote Tönung oder beide haben eine grüne Tönung).
  • In einigen Ausführungsformen taucht der Navigationsinstruktionsbalken 3420 wieder auf und ersetzt die Telefondaten unter einigen Umständen. In Phase 3402 ist die Vorrichtung nahe an einem Navigationspunkt. Deshalb ersetzt der Navigationsinstruktionsbalken 3420 den Anrufstatusbalken 3415 und den Statusbalken 3410. Nachdem der Navigationspunkt passiert ist, werden der Anrufstatusbalken 3415 und der Statusbalken 3410 wie in Phase 3403 angezeigt, wieder angezeigt. In der veranschaulichten Ausführungsform der 34 wird der Anrufstatusbalken, sobald der Navigationspunkt passiert wurde, wieder angezeigt. Allerdings wird in einigen Ausführungsformen der Telefonanrufstatusbalken nicht wieder angezeigt, bis die nächste Navigationsinstruktion in dem Navigationsinstruktionsbalken 3420 angezeigt wird.
  • Die Phasen 3302 und 3303 zeigen, dass die Symbole 3390 nicht bewegt wurden. Allerdings können in anderen Ausführungsformen die Symbole hinauf oder hinab bewegt werden, um unterschiedliche Räume abhängig von der Anwesenheit des Anrufstatusbalkens 3415 und des Navigationsinstruktionsbalkens 3420 zu besetzen.
  • B. Instruktionen bei gesperrter Vorrichtung
  • 1. Aufbau
  • In einigen Ausführungsformen können Vorrichtungen mit mehreren Funktionen (z.B. Mobiltelefone, die mehrere Anwendungen ausführen) in einen Sperrmodus von verschiedenen Anwendungen versetzt werden. In einigen Ausführungsformen gibt es mehrere Wege, um eine Vorrichtung in den Sperrmodus zu versetzen. Der Sperrmodus einiger Ausführungsformen ist ein Modus, in welchem die meisten Steuerungen deaktiviert sind und mit limitierter Funktionalität, bis die Vorrichtung entsperrt wird. Dies hat den Vorteil, in einigen Ausführungsformen den Benutzer vor vorzeitiger versehentlicher Beendigung des Navigationsmodus zu hindern. In einigen Ausführungsformen erfordert das Entsperren der Vorrichtung einen bestimmten gestischen Befehl auf einem spezifischen Teil des Bildschirms.
  • Einige Vorrichtungen haben einen Knopf, welcher den Bildschirm ausschaltet und/oder die Vorrichtung in einen Sperrmodus versetzt. Einige Vorrichtungen haben eine Zeitbeschränkungsfunktion, welche den Bildschirm ausschaltet und/oder in den Sperrmodus versetzt, nachdem eine bestimmte Zeit zwischen Benutzerbefehlen vergangen ist. Ungeachtet des Weges, wie die Anwendungen in den Sperrmodus gelangen, kommen die meisten solcher Vorrichtungen aus dem Sperrmodus mit der gleichen Anwendung im Vordergrund laufend heraus, wie die Anwendung, die im Vordergrund lief, als der Sperrmodus betreten wurde. In den Vorrichtungen einiger Ausführungsformen jedoch, ungeachtet dessen, welche Anwendung (oder Anwendungsstarter) im Vordergrund läuft, wenn die Vorrichtung gesperrt ist, falls die Navigationsanwendung im Hintergrund läuft, kehrt die Anwendung dann aus dem Sperrmodus direkt in die Navigationsanwendung zurück.
  • 35 veranschaulicht eine Vorrichtung 3500 einiger Ausführungsformen, die den Sperrmodus mit der Navigationsanwendung im Hintergrund laufend betritt und den Sperrmodus mit der Navigationsanwendung im Vordergrund laufend verlässt. Die Figur zeigt die Vorrichtung 3500 in vier Phasen 3501-3504. In Phase 3501 läuft der Anwendungsstarter 3520 im Vordergrund und die Navigationsanwendung im Hintergrund. Die im Hintergrund laufende Navigationsanwendung wird durch den Navigationsbalken 3510 oben im Bildschirm gerade unter dem Statusbalken 3515 und über dem Anwendungsstarter 3520 im Vordergrund angegeben. Wie in Phase 3501 gezeigt, drückt der Benutzer eine Steuerung 3590, um den Bildschirm zu sperren.
  • In Phase 3502 ist die Vorrichtung in einem Sperrmodus (wie durch den Entsperrschieber 3530 auf dem Bildschirm angegeben). In dieser Phase wird die Karte 3540 im gesperrten Bildschirm gezeigt und Punkt-zu-Punkt-Anweisungen werden in dem Informationsbalken 3550 gezeigt.
  • In Phase 3503 hat der Benutzer begonnen, den Entsperrschieber 3530 nach rechts zu schieben, um die Vorrichtung zu entsperren. In dieser Phase wird die Karte 3540 auf dem Bildschirm angezeigt, und die Punkt-zu-Punkt-Navigationsanweisungen werden in dem Informationsbalken 3550 angezeigt. In einigen Ausführungsformen (nicht gezeigt), wenn der Schieberegler den ganzen Weg nach rechts bewegt wird, wird der Benutzer aufgefordert, einen Passcode einzugeben, um den Bildschirm zu entsperren. Nachdem der Benutzer den Passcode erfolgreich eingegeben hat, ist der Bildschirm entsperrt. In einigen Ausführungsformen werden die Anweisungen und/oder die Karte unter einigen Umständen im gesperrten Modus nicht gezeigt. Zum Beispiel kann eine Schnittstelle zum Beantworten von einem eingehenden Anruf angezeigt werden, wenn ein Anruf auf der Vorrichtung eingeht und eine Schnittstelle zum Behandeln eines Anrufes kann angezeigt werden, wenn ein Anruf im Gange ist. Solch eine Schnittstelle kann die Anzeige der Anweisungen in dem Informationsbalken, der Anzeige der Karte oder beidem überschreiben. In ähnlicher Weise können in einigen Ausführungsformen andere Anzeigeansichten den Informationsbalken, die Karte oder sogar beide ersetzen, obwohl die Navigationsanwendung weiterhin auf der Vorrichtung läuft.
  • Allerdings bleibt, nachdem der Bildschirm entsperrt ist, die Navigationskarte 3540 im Vordergrund (anstatt eine Anwendung 3520 anzuzeigen, die im Vordergrund lief bevor der Bildschirm gesperrt wurde). Wie in Phase 3504 gezeigt, erscheint die Navigationsanwendung in Vollbild im Vordergrund. In dieser Phase ist der Bildschirm entsperrt und die Navigationsinstruktion 3560 und die Karte 3540 werden auf dem Bildschirm angezeigt. In einigen Ausführungsformen beinhaltet die Navigationsanwendung die Karte 3540 auf der gleichen Position wie die Karte 3540 in der gesperrten Bildschirmansicht. Dementsprechend belässt die Vorrichtung in einigen Ausführungsformen sogar für Vorrichtungen, die normalerweise einen Übergang (z.B. ein Wischen oder eine Ausdehnung der neuen Bildschirmansicht, vom Zentrum des Bildschirms aus) zwischen den gesperrten Bildschirmansichten und anderen Ansichten verwenden, wenn sie aus dem gesperrten Modus zurückkehren, bei dem Übergang zwischen Phase 3503 und 3504 die Karte an der Stelle und wechselt die anderen Elemente im Bildschirm. Das heißt, die Karte wird während des Übergangs von Phase 3503 zu Phase 3504 durchgehend angezeigt, während der Navigationsbalken 3510 und der Entsperrschieber 3530 verschwinden und die Navigationsinstruktionen 3560 stattdessen erscheinen. Wie Phase 3504 zeigt, ist die Vorrichtung aus dem Sperrmodus direkt in die Navigationsanwendung zurückgekehrt, obwohl die Navigationsanwendung im Hintergrund, nicht im Vordergrund, in Phase 3501 lief, bevor die Vorrichtung gesperrt wurde.
  • 36 veranschaulicht eine Vorrichtung 3600 in einigen Ausführungsformen, die einen Sperrmodus mit der Navigationsanwendung im Vordergrund laufend betritt und den Sperrmodus mit der Navigationsanwendung immer noch im Vordergrund laufend verlässt. Die Figur zeigt die Vorrichtung in vier Phasen 3601-3604. In Phase 3601 läuft die Navigationsanwendung im Vordergrund und eine Karte 3640 und Navigationsinstruktionen 3660 werden auf dem Bildschirm angezeigt. Wie gezeigt drückt der Benutzer eine Steuerung 3690, um den Bildschirm zu sperren.
  • In Phase 3602 wurde die Vorrichtung in den Sperrmodus versetzt (wie durch den Entsperrschieber 3630 auf dem Bildschirm angegeben). In dieser Phase wird die Karte 3640 in dem Sperrbildschirm gezeigt und Punkt-zu-Punkt-Anweisungen werden in dem Informationsbalken 3650 gezeigt.
  • In Phase 3603 hat der Benutzer begonnen, den Entsperrschieber 3630 nach rechts zu verschieben, um die Vorrichtung zu entsperren. In dieser Phase wird die Karte 3640 auf dem Bildschirm angezeigt und Punkt-zu-Punkt-Navigationsanweisungen werden in dem Informationsbalken 3650 angezeigt. Wenn der Schieber den ganzen Weg nach rechts bewegt wird, wird der Benutzer aufgefordert (nicht gezeigt), den Passcode zum Entsperren des Bildschirms einzugeben. Nachdem der Benutzer den Passcode erfolgreich eingegeben hat, wird der Bildschirm entsperrt. Wie oben mit Bezug auf 35 erwähnt, werden in einigen Ausführungsformen die Anweisungen und/oder die Karte unter einigen Umständen nicht im Sperrmodus gezeigt. Zum Beispiel wird eine Schnittstelle zum Beantworten eines eingehenden Anrufs in einigen Ausführungsformen angezeigt, wenn ein Anruf auf der Vorrichtung eingeht und es wird eine Schnittstelle zum Behandeln eines Anrufs angezeigt, wenn ein Anruf im Gange ist. Solch eine Schnittstelle überschreibt die Anzeige von Anweisungen in dem Informationsbalken, der Anzeige der Karte oder beiden. In ähnlicher Weise können in einigen Ausführungsformen andere Anzeigeansichten den Informationsbalken, die Karte oder beide ersetzen, selbst wenn die Navigationsanwendung weiterhin auf der Vorrichtung läuft.
  • Wie in Phase 3604 gezeigt erscheint die Navigationsanwendung im Vordergrund. In dieser Phase ist der Bildschirm gesperrt und die Karte 3640 und die Navigationsinstruktionen 3660 werden auf dem Bildschirm angezeigt. In einigen Ausführungsformen beinhaltet die Navigationsanwendung die gleiche Karte 3640 auf der gleichen Position wie in der Sperrbildschirmansicht. Dementsprechend behält die Vorrichtung in einigen Ausführungsformen sogar für Vorrichtungen, die einen Übergangsbildschirm (z.B. ein Wischen oder Ausdehnung aus dem Zentrum) haben würden, wenn sie aus dem Sperrmodus zurückkehren, in dem Übergang von der Phase 3603 zu der Phase 3604 die Karte an der Stelle und wechselt, in einigen Ausführungsformen, die anderen Elemente im Bildschirm. Das heißt die Karte wird während des Übergangs von der Phase 3603 zu der Phase 3604 durchgehend angezeigt, während der Informationsbalken 3650 und der Entsperrschieber 3630 verschwinden und die Navigationsinstruktionen 3660 auf der Anzeige erscheinen. Wie Phase 3604 zeigt ist die Vorrichtung vom Sperrmodus in die Navigationsanwendung zurückgekehrt.
  • In den vorangegangenen zwei Figuren drückt der Benutzer eine Steuerung, um einen Sperrmodus zu betreten. In einigen Ausführungsformen drückt der Benutzer solch eine Steuerung, um die Anzeige auszuschalten. Später, wenn die Anzeige wieder eingeschaltet wird, entweder durch erneutes Drücken der gleichen Steuerung oder durch Drücken einer anderen Steuerung, zeigt die Vorrichtung dann den Sperrmodus, wenn die Anzeige wieder eingeschaltet ist. In ähnlicher Weise hat die Vorrichtung in einigen Ausführungsformen eine Zeitbeschränkungsfunktion, die die Anzeige nach einer bestimmten Zeitdauer ausschaltet, ohne dass die Vorrichtung Befehle erhalten hat. In einigen Ausführungsformen ist die Vorrichtung im Sperrmodus, wenn die Anzeige nach solch einem Aussperren wieder eingeschaltet wird.
  • Zusätzlich zu (oder in einigen Ausführungsformen anstelle von) Navigationsinstruktionen in einem Navigationsbalken zu geben, wenn andere Anwendungen im Vordergrund sind, stellen die Navigationsanwendungen einiger Ausführungsformen auch Navigationsinstruktionen bereit, während die Vorrichtung im Sperrmodus ist. 37 veranschaulicht eine Navigationsanwendung, die Anweisungen auf einer gesperrten Vorrichtung in einigen Ausführungsformen der Erfindung gibt. Die Figur wird in vier Phasen 3701-3704 gezeigt. In Phase 3701 zeigt der Bildschirm der Vorrichtung einen Statusbalken 3780, einen Navigationsbalken 3710, eine Karte 3712, einen Ortsindikator 3714 und einen Entsperrschieber 3716 an. Der Fachmann wird verstehen, dass andere Gestaltungen und Steuerungen im Umfang einiger Ausführungsformen möglich sind.
  • In Phase 3701 ist die Vorrichtung nahe an dem nächsten Navigationspunkt, daher zeigt der Navigationsbalken 3710 Instruktionen, um in 500 Fuß nach rechts abzubiegen an. In einigen Ausführungsformen (die die veranschaulichte Ausführungsform beinhalten) ist der Navigationsbalken 3710 durchlässig, was den Merkmalen auf der Karte 3712 erlaubt, durch den Navigationsbalken 3710 hindurch gesehen zu werden. Der Ortsindikator 3714 gibt den Ort der Vorrichtung relativ zu den Merkmalen auf der Karte 3712 an. Die Karte selbst beinhaltet die Straße, auf der sich die Vorrichtung befindet (Curb Road) und die Straße, zu der die Navigationsanwendung den Benutzer leitet (T Road). Auch angezeigt ist eine dunkle Linie 3718, die die geleitete Fahrt der Vorrichtung zeigt, und eine hellere Linie 3719, die die vorherigen Orte der Vorrichtung entlang der von der Navigationsanwendung selektierten Route zeigt. Der Entsperrschieber 3716 entsperrt die Vorrichtung wenn aktiviert. Der Entsperrschieber 3716 ist jedoch in dieser Figur unbenutzt.
  • Während die Vorrichtung einen Punkt 250 Fuß von dem Navigationspunkt entfernt erreicht, wechselt der Navigationsbalken die Instruktionen wie in Navigationsbalken 3720 in Phase 3702 angezeigt. Der Ortsindikator 3714 ist an dem gleichen Ort, jedoch hat sich die Karte 3712 relativ zu dem Ortsindikator 3714 nach unten bewegt. Der neue Ort der Karte relativ zu dem Ortsindikator 3714 ist eine andere Art, wie die Navigationsanwendung zeigt, dass sich die Vorrichtung näher zu dem Navigationspunkt bewegt hat.
  • In ähnlicher Weise gibt in Phase 3703 der Navigationsbalken 3730 an, dass der Navigationspunkt nur 100 Fuß entfernt ist und der Ortsindikator 3714 näher zur Abbiegung auf der Karte ist. Schließlich ist die Vorrichtung in Phase 3704 um die Ecke herumgegangen und der Navigationsbalken 3740 zeigt die nächste Navigationsinstruktion an. Obwohl der Übergang zwischen Navigationsinstruktionen nicht in dieser Figur gezeigt wird, ist in einigen Ausführungsformen der Übergang ähnlich zu dem beschriebenen Übergang im Hintergrundmodus (mit einer Instruktionen scheinbar hinaufkippend, als ob auf der einen Seite eines Schildes ist und durch eine andere ersetzt wird, welche auf einer anderen Seite des Schildes zu sein scheint). In anderen Ausführungsformen werden andere Übergangsverfahren verwendet, um die alte Navigationsinstruktion 3730 zu entfernen und sie durch eine neue Navigationsinstruktion 3740 (in Phase 3704) zu ersetzen. Zum Beispiel simulieren einige Ausführungsformen eine neue Instruktion hinauf oder seitwärts gleitend, während die alte Instruktion in der gleichen Richtung gleitet. Andere Ausführungsformen simulieren die neue Instruktion über die alte Instruktion gleitend. Noch andere Ausführungsformen lassen die alte Instruktion einfach verschwinden und ersetzen sie durch die neue Instruktion.
  • Die neuen Instruktionen sind nicht die einzigen Angaben, dass die Abbiegung gemacht wurde. Die Karte 3712 wurde rotiert, so dass die Richtung, in welche die Vorrichtung reist (entlang der T Road) auf der Karte 3712 als aufwärts gezeigt wird. Die hellere Linie 3719 auf der Karte 3712 beinhaltet nun die Ecke, um die die Vorrichtung gerade abgebogen ist.
  • Obwohl der Ortsindikator 3714 in 37 immer die gleiche Größe aufweisend gezeigt wird, hat der Ortsindikator in einigen Ausführungsformen, in einem oder beiden von Sperrmodus und dem regulären Navigationsmodus, eine unterschiedliche Größe abhängig von der Zoomstufe. Zum Beispiel, je weiter die Karte in einigen Ausführungsformen hineingezoomt ist, umso größer wird der Ortsindikator. In ähnlicher Weise wird der Ortsindikator 3714 immer mit einem Pfeil aufweisend gezeigt. In einigen Ausführungsformen wird der Pfeil allerdings unter einigen Umständen nicht gezeigt. Zum Beispiel, wenn die Vorrichtung in einigen Ausführungsformen in einem Gebäude (oder anderweitig weg von allen Straßen) anstelle von auf der Straße ist, wird der Pfeil nicht angezeigt. Der Ortsindikator 3714 wird in 37 als undurchlässig gezeigt, jedoch ist der Ortsindikator in einigen Ausführungsformen durchlässig, halbtransparent oder transparent, um somit die Straßen „unter“ ihm zu zeigen.
  • Während sie im Sperrmodus arbeitet, stellt die Navigationsanwendung einiger Ausführungsformen Anweisungen bereit bis die Vorrichtung ihr Ziel erreicht. 38 veranschaulicht die Sperrmodusansicht einiger Ausführungsformen, wenn die Vorrichtung ihr Ziel erreicht. Die Figur wird in vier Phasen 3801-3804 gezeigt. In Phase 3801 zeigt die Karte 3840 eine hellere Linie 3819 hinter dem aktuellen Ortsindikator 3814. Vor dem Ortsindikator 3814 endet eine dunkle Linie 3818 in einem Kreis 3812, welcher das Ziel angibt. Entsprechend dem Navigationsbalken 3810 ist das Ziel 50 Fuß voraus.
  • Sobald die Vorrichtung ihr Ziel in Phase 3802 erreicht, zeigt der Navigationsbalken 3820, dass das Ziel auf der rechten Seite ist, die dunkle Linie 3818 wird nicht länger auf der Karte 3840 gezeigt. In einigen Ausführungsformen zeigt die Vorrichtung dann eine Nachricht, dass die Vorrichtung „angekommen“ ist, wie in Phase 3803 gezeigt. Die Navigationsanwendung gibt dann in Phase 3804 den gesperrten Bildschirm für was auch immer ihre Standard-Gestaltung (default) ist frei, wenn die Navigationsanwendung keine Navigationsinstruktionen bereitstellt. In der veranschaulichten Ausführungsform beinhaltet die Standard-Gestaltung einen Zeit- und Datumindikator 3830.
  • Diese Figur veranschaulicht die Sperrmodusansicht in einer 2D-Karte. Allerdings kann die Kartenanwendung einiger Ausführungsformen im Sperrmodus betrieben werden, während sie eine Karte in 3D zeigt.
  • 2. Benachrichtigungsmanagement
  • In einigen Ausführungsformen benachrichtigen die Vorrichtungen ihre Benutzer über eintreffende Textnachrichten oder andere nennenswerte Ereignisse. Sogar wenn solche Vorrichtung im Sperrmodus sind, können einige solcher Vorrichtungen weiterhin Benachrichtigungen anzeigen. Allerdings kann das Belassen einer Benachrichtigung auf dem Bildschirm für eine längere Zeitdauer von den Navigationsinstruktionen, welche auch auf dem Bildschirm angezeigt werden, ablenken. Entsprechend zeigen einige Ausführungsformen eine Benachrichtigung kurz auf dem Bildschirm an und machen die Benachrichtigung dann zugreifbar, aber nicht sichtbar. In einigen Ausführungsformen gibt es ein sichtbares, aber nicht aufdringliches Schild, das angibt, dass es einen Benachrichtigungsgegenstand, der darauf wartet, gelesen zu werden, gibt. 39 veranschaulicht ein Sperransicht-Benachrichtigungssystem einiger Ausführungsformen. Das System wird in vier Phasen 3901-3904 gezeigt.
  • In Phase 3901 ist der Navigationsbalken 3910 unter dem Statusbalken 3980 am oberen Ende des Bildschirms eine Navigationsinstruktion anzeigend. Eine Benachrichtigungsnachricht 3912 wird auf dem Bildschirm über der Karte 3940 angezeigt, um anzugeben, dass eine Textnachricht empfangen wurde. Die tatsächliche Textnachricht wird in der veranschaulichten Ausführungsform nicht angezeigt, aber Ausführungsformen, die die tatsächliche Textnachricht anzeigen, sind im Bereich der Erfindung. Einige Ausführungsformen zeigen einen Namen (wenn bekannt) des Absenders der Textnachricht oder eine Telefonnummer, von welcher die Textnachricht stammt, in der Benachrichtigungsnachricht 3912.
  • Die Anwendung einiger Ausführungsformen zeigt die Benachrichtigung für eine voreingestellte Zeitdauer an, bevor die Benachrichtigung verschwindet, die vollständige Karte 3940 wieder sichtbar zurücklassend. Einige Ausführungsformen zeigen die Benachrichtigung für weniger als 5 Sekunden, einige für 5 Sekunden und einige für mehr als 5 Sekunden an. Sobald die Benachrichtigung verschwindet, erscheint eine Schubladensteuerung 3922 in Phase 3902 in den Navigationsbalken 3910. Die Anwendung einiger Ausführungsformen, die die veranschaulichte Anwendung beinhalten, erlauben der Schubladensteuerung 3922 vergrößert zu werden (z.B. durch eine Berührungsgeste, die die Schubladensteuerung hinunterzieht), um eine Liste von erhaltenen Benachrichtigungsgegenständen zu öffnen. Anwendungen anderer Ausführungsformen erlauben der Schubladensteuerung getippt zu werden, um die Liste zu öffnen oder doppelt getippt zu werden, um die Liste zu öffnen. In ähnlicher Weise erlauben andere Anwendungen der Schubladensteuerung durch andere Mittel selektiert zu werden (z.B. eine Selektion wie ein Klick auf einer verbundenen Zeigersteuervorrichtung).
  • In der veranschaulichten Ausführungsform wird die Schublade 3934 als offen in Phase 3903 gezeigt. In dieser Phase 3903 wird die Schublade, die in diesem Fall nur eine Textnachricht 3932 und einen verpassten Anruf 3933 enthält, in einer Liste gezeigt, welche die Karte vom unteren Ende des Navigationsbalkens 3910 bis zum oberen Ende des Entsperrschiebers 3915 verdeckt. Allerdings ist in einigen Ausführungsformen die Schublade durchlässig, halbtransparent oder transparent, was es erlaubt, die Karte durch die Liste zu sehen. In einigen Ausführungsformen verdeckt die Schublade die Karte 3940 nur teilweise (z.B. verdeckt die Hälfte der Karte oder nur den Teil der Karte, der benötigt wird, um alle Textnachrichten oder andere Benachrichtigungsgegenstände in der Schublade zu zeigen). In einigen Ausführungsformen wird, wenn eine neue Nachricht oder Benachrichtigung, die normalerweise zu der Schublade gesendet wird, ankommt, während die Schublade geöffnet ist, die Nachricht sofort der Schublade hinzugefügt (mit oder ohne Anzeige einer erscheinenden Benachrichtigung in verschiedenen Ausführungsformen).
  • Wenn die Liste der Nachrichten zu lang wird, um auf den Bildschirm zu passen, kann die Liste, falls notwendig, in einigen Ausführungsformen hinauf und hinunter geblättert werden. Wenn der Benutzer mit dem Ansehen der Nachrichtenliste fertig ist, kann der Benutzer die Schublade durch Aktivierung einer Steuerung (z.B. eine Hardware oder eine Steuerung auf dem Bildschirm, wie eine Steuerung, die die Ansicht ausschaltet) in einigen Ausführungsformen schließen. In einigen Ausführungsformen wird die Schublade offen bleiben, bis der Benutzer den Bildschirm ausschaltet und dann wieder einschaltet. Die Steuerung könnte auch jede Anzahl von Steuerungen, die durch einen gestischen Befehl aktiviert werden, wie ein Tippen auf die Liste oder anderswo auf dem Bildschirm, ein doppeltes Tippen oder eine Schiebegeste (z.B. eine Schiebegeste nach oben mit einem Teil oder der ganzen Schublade als Steuerung) in einigen Ausführungsformen beinhalten. In einigen Ausführungsformen könnte die Steuerung auch einen Knopf oder eine andere Komponente einer Maus oder einer anderen Zeigersteuervorrichtung usw. beinhalten.
  • Auch zusätzlich zu oder anstelle von einer Steuerung zum Schließen der Schublade aufweisend, zeigen einige Ausführungsformen die geöffnete Schublade für variierende Zeitlängen an, bevor sie verschwindet, die vollständige Karte 3940 wieder sichtbar belassend, wie in Phase 3904 gezeigt. Die Phase 3904 beinhaltet eine Schubladensteuerung 3922. Allerdings wird in einigen Ausführungsformen, nachdem die Schublade 3934 geschlossen ist, die Schubladensteuerung 3922 nicht gezeigt, bis eine neue Nachricht ankommt.
  • Nachdem die Schublade geschlossen ist, wenn und wann eine neue Textnachricht oder Benachrichtigung ankommt, wiederholen sich die Phasen 3901-3904 mit dieser neuen Nachricht, wobei angenommen wird, dass die Navigation noch aktiv ist. In einigen Ausführungsformen passiert die Phase 3904 nur, wenn der Benutzer die Schublade schließt. Wenn die Schublade offen bleibt, verbleibt die Anzeige in einigen Ausführungsformen dann in der Phase 3903. Außerdem muss der Zustand der offenen Schublade 3903 nicht sofort den Phasen 3901 und 3902 folgen. In einigen Ausführungsformen werden die Phasen 3901 bis 3902, wenn der Benutzer die Schublade nicht öffnet, mit jeder von mehreren eingehenden Nachrichten wiederholt und die Schublade bleibt geschlossen mit der Schubladensteuerung 3922 anzeigend, während die neuen Nachrichtenbenachrichtigungen erscheinen.
  • In einigen Fällen kann sich ein Benutzer entscheiden, die Vorrichtung zu entsperren, bevor er die Schublade 3934 öffnet. In einigen Ausführungsformen ist das normale Verhalten der Vorrichtung, wenn sie aus dem Sperrmodus mit Benachrichtigungen kommt, die Benachrichtigung auf dem Bildschirm aufzulisten. Allerdings in einigen Ausführungsformen, wenn die Navigationsanwendung läuft, übernimmt das Öffnen in die Navigationsanwendung Priorität über die Anzeige von Benachrichtigungsnachrichten. Daher entsperrt und öffnet die Vorrichtung dieser Ausführungsformen in die Navigationsanwendung, anstatt in eine Liste von Benachrichtigungsnachrichten zu öffnen. In einigen solchen Ausführungsformen kann ein Benutzer auswählen, die Liste der Benachrichtigungsnachrichten zu öffnen, nachdem die Navigationsanwendung geöffnet wurde. 40 veranschaulicht das Ansehen von Benachrichtigungsnachrichten nach dem Entsperren einer Vorrichtung in einigen Ausführungsformen der Erfindung. Die Figur wird in sechs Phasen 4001-4006 gezeigt.
  • In Phase 4001 ist der Navigationsbalken 4010 unter dem Statusbalken 4080 am oberen Ende des Bildschirms, der eine Navigationsinstruktion anzeigt. Eine Benachrichtigungsnachricht 4012 wird auf dem Bildschirm über der Karte 4040 angezeigt, um anzugeben, dass eine Textnachricht empfangen wurde. Die tatsächliche Textnachricht wird in der veranschaulichten Ausführungsform nicht angezeigt, aber Ausführungsformen, die die tatsächliche Textnachricht anzeigen, sind im Bereich der Erfindung. Einige Ausführungsformen zeigen den Namen des Absenders, die Telefonnummer des Absenders oder beides in der Benachrichtigungsnachricht 4012 an. Die Anwendung verschiedener Ausführungsformen zeigt die Benachrichtigung für eine variierende Zeitdauer, bevor sie verschwindet, die vollständige Karte 4040 wieder sichtbar verlassend. Einige Anwendungen zeigen die Benachrichtigung für weniger als 5 Sekunden, einige für 5 Sekunden und einige für mehr als 5 Sekunden an.
  • Sobald die Benachrichtigung verschwindet, erscheint eine Schubladensteuerung 4022 in Phase 4002 im Navigationsbalken 4010. Die Phase 4001 ist identisch mit Phase 3901 der 39. Anstatt jedoch die Schublade 4022 in Phase 4002 zu öffnen, entsperrt der Benutzer stattdessen die Vorrichtung mit dem Entsperrschieber 4016. Der Benutzer hat die Vorrichtung mit der im Hintergrund laufenden Navigationsanwendung entsprechend entsperrt, daher erscheint die Navigationsanwendung in Phase 4003 im Vordergrund. Wie gezeigt übernimmt die Navigationsanwendung Priorität über die Anzeige der Benachrichtigungsnachrichten.
  • Die Navigationsanwendung zeigt in einigen Ausführungsformen keine Schubladensteuerung. Allerdings kann der Benutzer durch Hinunterziehen der oberen Mitte des Bildschirms (wie in Phase 4004 gezeigt) die Schublade 4044 dazu bringen, hinunterzukommen (wie in Phase 4005 gezeigt). In einigen Ausführungsformen erscheint die Schubladensteuerung 4022 unter dem ziehenden Finger, während der Finger die Schublade 4044 hinunter zieht. In anderen Ausführungsformen, wenn die Navigationsanwendung im Vordergrund ist, muss mehrfaches Ziehen eingesetzt werden. Zum Beispiel wird eine Ziehgeste am oberen Ende des Bildschirms verwendet, um die Schubladensteuerung 4022 aufzudecken und eine gesonderte Ziehgeste auf der Schubladensteuerung 4022 wird verwendet, um die Schublade in einigen Ausführungsformen zu öffnen. Phase 4005 zeigt die Schublade 4044 vollständig aufgedeckt und den ganzen Bildschirm überdeckend. Eine Textnachricht 4052 erscheint im oberen Ende des Bildschirms.
  • In einigen Ausführungsformen bleibt die Schublade offen, bis der Benutzer entweder die Schublade schließt (in diesem Augenblick erscheint die Navigationsanwendung wieder) oder die Vorrichtung sperrt. In einigen Ausführungsformen kann die Schublade durch Hinaufschieben der Schubladensteuerung 4022 geschlossen werden. In anderen Ausführungsformen kann die Schublade nicht durch Hinaufschieben der Schubladensteuerung 4022 geschlossen werden, kann aber durch irgendeine andere Steuerung (z.B. ein Knopf oder ein gestischer Befehl) geschlossen werden. Zum Beispiel kann die Vorrichtung gesperrt werden, beispielsweise durch Aktivierung einer Steuerung 4090, welche auch die Schublade in einigen Ausführungsformen schließt. Einige Ausführungsformen schließen die Schublade auch automatisch nach einer vorbestimmten Zeitdauer. In einigen Ausführungsformen, nachdem die Schublade, entweder im Sperrmodus oder im nicht gesperrten Modus, geöffnet ist, wird die Schublade, sobald die Schublade geschlossen ist, geleert und ist nicht länger aus der Sperrmodusansicht zugreifbar, wie in Phase 4006 gezeigt, in welcher die Schubladensteuerung 4022 nicht mehr vorhanden ist. Das heißt, die Schubladensteuerung 4022 wird nur wieder angezeigt, wenn eine neue Benachrichtigung empfangen wird. In einigen Ausführungsformen wird allerdings die Schubladensteuerung 4022 nicht entfernt, wird nur entfernt, wenn bestimmte Verfahren, um sie zu schließen, verwendet werden oder wird entfernt, wenn die Schublade im nicht gesperrten Modus geöffnet wird, aber nicht, wenn die Schublade im Sperrmodus geöffnet wird.
  • In einigen Ausführungsformen zeigt die Schublade Nachrichten unterschiedlicher Arten in getrennten Bereichen an. Zum Beispiel zeigen einige Ausführungsformen Textnachrichten in einem getrennten Bereich von „verpasster Anruf‟-Nachrichten an. In einigen Ausführungsformen zeigt die Schublade unterschiedliche Arten von Nachrichten in getrennten Bereichen an, wenn sie im nicht gesperrten Modus geöffnet wird, aber die Schublade im Sperrmodus zeigt keine unterschiedlichen Arten von Nachrichten in getrennten Bereichen an. In anderen Ausführungsformen zeigt die Schublade unterschiedliche Arten von Nachrichten in getrennten Bereichen an, wenn sie im nicht gesperrten Modus geöffnet wird und die Schublade im Sperrmodus zeigt auch unterschiedliche Arten von Nachrichten in getrennten Bereichen an. In anderen Ausführungsformen verwendet die Schublade im Sperrmodus getrennte Bereiche für unterschiedliche Nachrichtenarten und die Schublade im nicht gesperrten Modus tut dies nicht. In anderen Ausführungsformen trennt keine der Schubladen Nachrichtenarten.
  • 3. Dynamisches Einschalten
  • Energiesparen ist ein Merkmal einiger Ausführungsformen der Anwendung. In einigen Ausführungsformen schaltet die Navigationsanwendung, die im Sperrmodus arbeitet, den Bildschirm nur an, wenn sich die Vorrichtung einem Navigationspunkt nähert oder eine Benachrichtigung empfängt. 41 veranschaulicht einen Prozess 4100, um den Bildschirm der Vorrichtung einzuschalten, wenn sie sich einem Navigationspunkt in einigen Ausführungsformen der Erfindung nähert. 41 wird in Hinsicht auf die 42 beschrieben werden, welche zuerst kurz beschrieben wird. 42 veranschaulicht mehrere Phasen, die eine Vorrichtung durchläuft, wenn ihr keine Befehle gegeben werden, während eine Navigationsanwendung im Hintergrund in einigen Ausführungsformen der Erfindung läuft. 42 wird in sechs Phasen 4201-4206 veranschaulicht. Die verschiedenen Phasen werden an den angemessenen Stellen währen der Beschreibung zu 41 beschrieben.
  • Der Prozess 4100 der 41 beginnt bevor der Bildschirm ausgeschaltet wird, indem (in 4105) eine Anwendung mit der im Hintergrund laufenden Navigationsanwendung angezeigt wird. Phase 4201 der 42 veranschaulicht den Zustand vor der Sperrung der Vorrichtung. Diese Phase 4201 beinhaltet eine Vordergrundanwendung 4212 (die Anwendungsstarteransicht) mit dem Navigationsbalken 4210 unter dem Statusbalken 4280 oben im Bildschirm, der angibt, dass die Navigationsanwendung im Hintergrund läuft.
  • In einigen Ausführungsformen schaltet eine Vorrichtung den Bildschirm aus und betritt den Sperrmodus, wenn sie für eine vordefinierte Zeitdauer keine Befehle erhält (z.B. 5 Minuten, 15 Minuten, usw.). Der Prozess bestimmt (in 4110), ob irgendeine Steuerung der vordefinierten Zeitdauer zum Sperren der Vorrichtung und Ausschalten des Bildschirms aktiviert wurde. Wenn irgendeine Steuerung aktiviert wurde (eine andere wie die, die den Bildschirm ausschaltet und/oder die Vorrichtung sofort sperrt), setzt die Vorrichtung dann ihren Countdown um in Anzeige-Aus und Sperrmodus zu gehen, zurück.
  • Wenn der Prozess bestimmt, dass genug Zeit verstrichen ist, schaltet der Prozess den Bildschirm aus (in 4115). In einigen Ausführungsformen, anstelle von oder zusätzlich zu der Bildschirmausschaltung durch die Zeitbeschränkung, gibt es eine Steuerung, die der Benutzer auswählen kann (z.B. einen Knopf), die die Vorrichtung in den Sperrmodus versetzt. In einigen Ausführungsformen erfolgt die Bildschirmdeaktivierung durch die Zeitbeschränkung, wenn einige Anwendungen ausgeführt werden, aber nicht wenn andere Anwendungen ausgeführt werden. In einigen Ausführungsformen z.B. schaltet die Vorrichtung, wenn die Navigationsanwendung im Vordergrund läuft, nicht nach einer voreingestellten Zeit aus. Außerdem hat die Vorrichtung in einigen Ausführungsformen auch keine Zeitbeschränkung, wenn die Navigationsanwendung auch im Hintergrund läuft.
  • Die Operation 4115 wird in Phase 4202 der 42 veranschaulicht. Phase 4202 zeigt den Bildschirm in schwarz, weil er entweder durch eine Zeitbeschränkung, eine Steuerung oder in irgendeiner anderen Art ausgeschaltet wurde. Während der Bildschirm ausgeschaltet ist und die Vorrichtung zu dem nächsten Navigationspunkt reist, bestimmt der Prozess 4100 (in 4120) wiederholend, ob die Vorrichtung nahe dem nächsten Navigationspunkt ist. Wenn die Vorrichtung nicht nahe dem nächsten Navigationspunkt ist, wird die Vorrichtung weiter prüfen, ob sie nahe dem nächsten Navigationspunkt ist. „Nahe“ bedeutet in der Anwendung von unterschiedlichen Ausführungsformen unterschiedliche Distanzen.
  • In unterschiedlichen Ausführungsformen bestimmt die Vorrichtung, dass sie nahe dem Navigationspunkt ist, wenn die Vorrichtung 1000 Fuß vom Navigationspunkt oder 500 Fuß oder 250 Fuß oder irgendeine andere bestimmte Distanz entfernt ist. Sobald der Prozess 4100 bestimmt (in 4120), dass die Vorrichtung nahe dem Navigationspunkt ist, schaltet der Prozess (in 4125) einen Umgebungslichtsensor ein. In einigen Ausführungsformen ist der Umgebungslichtsensor ein Teil einer Kamera der Vorrichtung. In anderen Ausführungsformen ist der Umgebungslichtsensor nicht Teil einer Kamera der Vorrichtung. In einigen Ausführungsformen ist der Umgebungslichtsensor zu jedem Zeitpunkt an. In einigen Ausführungsformen ist der Umgebungslichtsensor ein passives Element, welches nicht eingeschaltet werden muss, um zu funktionieren. Der Umgebungslichtsensor bestimmt wie viel Licht um die Vorrichtung herum vorhanden ist. Wenn eine große Menge an Licht vorhanden ist, muss der Bildschirm dann in einer hohen Helligkeitsstufe eingeschaltet werden, um in dem bestehenden Licht gesehen zu werden. Wenn allerdings eine geringe Menge an Umgebungslicht vorhanden ist, kann der Bildschirm dann auf einer dunkleren Stufe eingeschaltet werden und ist immer noch hell genug, um bei dem niedrigen Umgebungslicht gesehen zu werden.
  • Sobald die Lichtstufe bestimmt ist, schaltet der Prozess 4100 (in 4130) den Bildschirm in eine Helligkeitsstufe gemäß den Umgebungslichtstufen, die von dem Umgebungslichtsensor ermittelt wurden, ein. Der Bildschirm zeigt dann (in 4135) einen Countdown zum nächsten Navigationspunkt an. Dies wird in Phase 4203 der 42 veranschaulicht. Die Figur zeigt einen Navigationsbalken 4230 mit einem Pfeil, der eine Rechtsabbiegung angibt, und Instruktionen, um in 1000 Fuß nach rechts abzubiegen. Der Prozess bestimmt dann (in 4140), ob der Navigationspunkt passiert wurde. Wenn der Navigationspunkt nicht passiert wurde, kehrt der Prozess 4100 dann zu Operation 4135 zurück. Der Prozess zeigt dann weiterhin den Countdown zum nächsten Navigationspunkt an. Ein Teil des Countdowns ist in Phase 4204 der 42 gezeigt. In Phase 4204 gibt der Navigationsbalken 4240 an, dass noch 200 Fuß bis zur Rechtsabbiegung verbleiben. Sobald die Vorrichtung den Navigationspunkt passiert (in diesem Fall die Rechtsabbiegung macht), bestimmt der Prozess 4100 (in 4145), ob die Vorrichtung an ihrem Ziel ist. Wenn die Vorrichtung an ihrem Ziel ist, endet dann der Navigationsprozess. Wenn die Vorrichtung nicht an ihrem Ziel ist, zeigt der Prozess dann (in 4150) die nächste Navigationsinstruktion an. Dies wird in Phase 4205 in 42 veranschaulicht. In dieser Phase zeigt der Navigationsbalken 4250 2,8 Meilen, geradeaus gehen.
  • Wenn der Prozess 4100 bestimmt (in 4155), dass der nächste Navigationspunkt nahe ist, kehrt der Prozess dann zu der Operation 4135 zurück und zählt herunter zu dem nächsten Navigationspunkt. Allerdings ist dies in 42 nicht der Fall. Wenn der Prozess bestimmt (in 4155), dass die Vorrichtung nicht nahe dem nächsten Navigationspunkt ist, schaltet dann der Prozess 4100 den Bildschirm aus (in 4115). Dies ist gezeigt in Phase 4206, welche einen dunklen Bildschirm zeigt. Der Fachmann wird verstehen, dass das Wort „Energiesparmodus“ in 42, Phasen 4202 und 4206, gedacht ist, um konzeptionell zu veranschaulichen, dass die Anzeige ausgeschaltet ist, und dass sie nicht physikalisch auf dem Bildschirm während des Energiesparmodus in einigen Ausführungsformen angezeigt wird.
  • Die oben beschriebene Figur zeigt, wie die Vorrichtung die Anzeige einschaltet, wenn sie sich einem vorbestimmten Navigationspunkt nähert und den Bildschirm ausschaltet, wenn sie sich keinem voreingestellten Navigationspunkt nähert. Allerdings schaltet die Vorrichtung in einigen Ausführungsformen den Bildschirm auch an, wenn der Benutzer von der vorgeschriebenen Route (z.B. nimmt der Benutzer eine falsche Abbiegung) abweicht. In einigen solchen Ausführungsformen zeigt die Vorrichtung eine „neue Route festlegen“-Nachricht, bis die Vorrichtung eine neue Route berechnet hat. In einigen Ausführungsformen zeigt die Vorrichtung dann die nächste Navigationsinstruktion und schaltet dann die Anzeige aus, außer der nächste Navigationspunkt ist innerhalb der Schwellendistanz.
  • In einer ähnlichen Weise wie die Navigationsanwendung einiger Ausführungsformen den Bildschirm im Sperrmodus einschaltet, wenn die Vorrichtung sich einem Navigationspunkt nähert, schaltet die Vorrichtung einiger Ausführungsformen den Bildschirm ein, wenn eine Benachrichtigung empfangen wird, während das Navigationsprogramm läuft. 43 veranschaulicht konzeptionell einen Prozess 4300 einiger Ausführungsformen, um den Bildschirm einzuschalten, wenn eine Benachrichtigungsnachricht empfangen wird. Der Prozess 4300 wird mit Bezugnahme zu der zuvor beschriebenen 39 beschrieben. Der Prozess 4300 beginnt mit dem Ausschalten des Bildschirms (in 4305). Der Bildschirm kann aus irgendeinem mit Bezug auf 41 diskutierten Grund ausgeschaltet werden. Der Prozess wartet dann (in 4310) bis er eine Benachrichtigung empfängt. Wenn der Prozess 4300 eine Benachrichtigung empfängt, schaltet er (in 4315) den Umgebungslichtsensor ein (wie oben in Operation 4125 der 41 beschrieben). Der Prozess schaltet dann (in 4320) den Bildschirm in einer Helligkeit gemäß der Umgebungslichtstufe, wie sie vom Umgebungslichtsensor ermittelt wurde, eingestellt, ein. Der Prozess zeigt dann (in 4325) die Benachrichtigung an. Dies wird in 39 in Phase 3901 als Popup-Nachricht 3912 gezeigt. Der Prozess legt dann (in 4330) die Benachrichtigung in eine Schublade, wie mit Bezug zu Phase 3902 der 39 beschrieben.
  • Der Prozess bestimmt dann (in 4335), ob die Schublade vor einem Zeitlimit geöffnet wurde (z.B. durch den Benutzer, der eine Schubladensteuerung 3922 schiebt. Wenn die Schublade nicht in dem Zeitlimit geöffnet wurde, schaltet der Prozess dann den Bildschirm wieder aus (in 4305). Wenn die Schublade vor dem Zeitlimit geöffnet wurde, werden dann die Nachrichten (in 4340) angezeigt, z.B. wie in 39 gezeigt (wie Phase 3903 mit einer Nachricht 3932 angezeigt wird). Der Prozess bestimmt dann (in 4345), ob die Schublade geschlossen wurde. Wenn die Schublade geschlossen wurde, kehrt der Prozess zu der Operation 4305 zurück und schaltet den Bildschirm nach einer Zeitbeschränkungsdauer aus. Das heißt, in der Anwendung einiger Ausführungsformen, wartet die Anwendung eine gewisse Zeitdauer nachdem die Schublade geschlossen ist, bevor sie den Bildschirm ausschaltet.
  • In einigen Ausführungsformen bestimmt der Prozess, wenn der Prozess 4300 bestimmt (in 4345), dass die Schublade offen geblieben ist, dann (in 4350) ob eine Zeitbeschränkungsdauer erreicht wurde. Wenn die Zeitbeschränkungsdauer nicht erreicht wurde, zeigt der Prozess dann weiterhin (in 4340) die Nachrichten an. Wenn as Zeitlimit abgelaufen ist, bevor die Schublade vom Benutzer geschlossen wurde, schaltet der Prozess dann den Bildschirm (in 4305) aus. In einigen Ausführungsformen, wenn der Benutzer Befehle zu der Vorrichtung sendet (z.B. Durchblättern der Nachrichten), wird der Countdown für das Zeitlimit nicht beginnen, bis die Vorrichtung aufhört, Befehle vom Benutzer zu erhalten.
  • Der Fachmann wird verstehen, dass, obwohl die Flussdiagramme für die Prozesse 4300 der 43 und für den Prozess 4100 der 41 getrennt beschrieben wurden, laufen sie in einigen Ausführungsformen simultan und der Bildschirm wird eingeschaltet sein, wenn einer der Prozesse es verlangt. In einigen Fällen wird er bereits für Benachrichtigungsgründe, wenn ein Navigationspunkt näher kommt, eingeschaltet sein. In diesen Fällen würde der Bildschirm, statt sich einzuschalten (in 4130), wie der Prozess 4100 vorschreibt, einfach an bleiben, sogar wenn der Prozess 4300 verlangt, dass er ausgeschaltet wird (in 4305). In ähnlicher Weise werden die Prozesse 4100 und 4300 in einigen Ausführungsformen weiterlaufen, bis entweder die Vorrichtung entsperrt wird oder das Ziel erreicht wird (wie in Operation 4145 des Prozesses 4100 in 41 gezeigt).
  • Wie oben beschrieben hat die Vorrichtung im Sperrmodus eine limitierte Anzahl an aktiven Steuerungen. In einigen Ausführungsformen kann die Karte allerdings, während der Sperrmodus wirksam ist, im Sperrbildschirm auf eine Seite oder hinauf und hinunter, in einem größeren oder kleineren Ausmaß, durch einen gestischen Befehl in die Richtung bewegt werden, in die der Benutzer die Karte bewegen möchte. In einigen Ausführungsformen kehrt die Karte, wenn die Vorrichtung losgelassen wird, in ihre Standard-Position (default) zurück.
  • IV. Elektronisches System
  • Viele der oben beschriebenen Merkmale und Anwendungen sind als Softwareprozesse implementiert, welche als eine Menge von Instruktionen, die auf einem computerlesbaren Speichermedium aufgenommen sind, spezifiziert sind (auch bezeichnet als computerlesbares Medium). Wenn diese Instruktionen durch eine oder mehrere rechnerische oder Verarbeitungseinheit(en) ausgeführt werden (z.B. einen oder mehrere Prozessoren, Prozessorkerne oder andere Verarbeitungseinheiten), veranlassen sie die Verarbeitungseinheit(en) die Aktionen, die in den Instruktionen angegeben sind, auszuführen. Beispiele von computerlesbaren Medien beinhalten, sind aber nicht limitiert auf, CD-ROMs, Flashlaufwerke, Speicher mit wahlfreiem Zugriff (RAM)-Chips, Festplatten, löschbare programmierbare Nur-Lesespeicher (EPROMs), elektrisch löschbare programmierbare Nur-Lesespeicher (EEPROMs), usw. Die computerlesbaren Medien beinhalten keine Trägerwellen und elektronische Signale, die kabellos oder über Kabelverbindungen passieren.
  • In dieser Spezifikation soll der Begriff „Software“ eine Firmware in einem Nur-Lesespeicher liegend oder Anwendungen in magnetischen Speichern gespeichert beinhalten, welche in den Speicher gelesen werden können, um von einem Prozessor verarbeitet zu werden. Auch können in einigen Ausführungsformen mehrere Softwareerfindungen als Unterteile eines größeren Programms implementiert werden, während sie getrennte Softwareerfindungen bleiben. In einigen Ausführungsformen können mehrere Softwareerfindungen auch als getrennte Programme implementiert werden. Schließlich ist jegliche Kombination von getrennten Programmen, die zusammen eine Softwareerfindung implementieren, die hier beschrieben wird, im Bereich dieser Erfindung. In einigen Ausführungsformen definieren die Softwareprogramme, wenn sie installiert sind, um auf einem oder mehreren elektronischen Systemen betrieben zu werden, eine oder mehrere spezifische Maschinenimplementierungen, die die Operationen der Softwareprogramme ausführen und durchführen.
  • A. Mobile Vorrichtung
  • Die Karten- und Navigationsanwendung einiger Ausführungsformen arbeiten auf mobilen Vorrichtungen, sowie Smartphones (z.B. iPhones®) und Tablets (z.B. iPads®). 44 ist ein Beispiel einer Architektur 4400 einer solchen mobilen Rechenvorrichtung. Beispiele von mobilen Rechenvorrichtungen beinhalten Smartphones, Tablets, Laptops, usw. Wie gezeigt beinhaltet die mobile Rechenvorrichtung 4400 ein oder mehrere Verarbeitungseinheiten 4405, eine Speicherschnittstelle 4410 und eine Peripherieschnittstelle 4415.
  • Die Peripherieschnittstelle 4415 ist mit verschiedenen Sensoren und Untersystemen gekoppelt, welche ein Kamerauntersystem 4420, ein drahtloses Kommunikationsuntersystem(e) 4420, ein Tonuntersystem 4430, ein Eingabe/Ausgabeuntersystem 4435 (E/A), usw., beinhalten. Die Peripherieschnittstelle 4415 erlaubt eine Kommunikation zwischen den Verarbeitungseinheiten 4405 und verschiedenen Peripheriegeräten. Zum Beispiel einen Ausrichtungssensor 4445 (z.B. ein Gyroskop) und einen Beschleunigungssensor 4450 (z.B. einen Beschleunigungsmesssensor) mit der Peripherieschnittstelle 4415 gekoppelt, um Ausrichtungs- und Beschleunigungsfunktionen zu ermöglichen.
  • Das Kamerauntersystem 4420 ist mit einem oder mehreren optischen Sensoren 4440 gekoppelt (z.B. ein optischer Sensor mit ladungsgekoppelten Bauteilen (CCD), ein optischer Sensor mit sich ergänzenden Metalloxid-Halbleitern (CMOS) usw.). Das Kamerauntersystem 4420, welches mit den optischen Sensoren 4440 gekoppelt ist, ermöglicht Kamerafunktionen, sowie Bild- und/oder Videodatenaufnahme. Das drahtlose Kommunikationsuntersystem 4425 dient dazu, Kommunikationsfunktionen zu ermöglichen. In einigen Ausführungsformen beinhaltet das drahtlose Kommunikationsuntersystem 4425 Funkfrequenzempfänger und -sender und optische Empfänger und Sender (nicht in 44 gezeigt). Diese Empfänger und Sender von einigen Ausführungsformen sind implementiert, um über ein oder mehrere Kommunikationsnetzwerke wie ein GSM-Netzwerk, ein Wi-Fi-Netzwerk, ein Bluetooth-Netzwerk, usw. zu arbeiten. Das Tonuntersystem 4430 ist mit einem Lautsprecher gekoppelt, um Ton auszugeben (z.B. um Sprachnavigationsinstruktionen auszugeben). Zusätzlich ist das Tonuntersystem 4430 mit einem Mikrofon gekoppelt, um sprachfähige Funktionen zu ermöglichen, wie eine Spracherkennung (z.B. zum Suchen), digitales Aufnehmen, usw.
  • Das E/A-Untersystem 4435 beinhaltet die Übertragung zwischen Eingabe/Ausgabe-Peripherievorrichtungen, wie einer Anzeige, einem Berührungsbildschirm, usw., und dem Datenbus der Verarbeitungseinheiten 4405 durch die Peripherieschnittstelle 4415. Das Eingabe/Ausgabe-Untersystem 4435 beinhaltet ein Berührungsbildschirmsteuergerät 4455 und andere Eingabesteuergeräte 4460, um die Übertragung zwischen Eingabe/Ausgabe-Peripherievorrichtungen und dem Datenbus der Verarbeitungseinheiten 4405 zu ermöglichen. Wie gezeigt, ist das Berührungsbildschirmsteuergerät 4455 mit einem Berührungsbildschirm 4465 gekoppelt. Das Berührungsbildschirmsteuergerät 4455 ermittelt einen Kontakt oder eine Bewegung auf dem Berührungsbildschirm 4465, indem es eine von mehreren berührungsempfindlichen Technologien verwendet. Die anderen Eingabesteuergeräte 4460 sind mit anderen Eingabe/Ausgabe-Vorrichtungen gekoppelt, sowie einem oder mehreren Knöpfen. Einige Ausführungsformen beinhalten einen fast-berührungsempfindlichen Bildschirm und ein entsprechendes Steuergerät, welches Fast-Berührungsinteraktionen anstelle von oder zusätzlich zu Berührungsinteraktionen feststellen kann.
  • Die Speicherschnittstelle 4410 ist mit dem Speicher 4470 gekoppelt. In einigen Ausführungsformen beinhaltet der Speicher 4470 volatilen Speicher (z.B. Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff), nichtvolatilen Speicher (z.B. Flash-Speicher), eine Kombination aus volatilem und nichtvolatilem Speicher und/oder irgendeine andere Art von Speicher. Wie in 44 veranschaulicht, speichert der Speicher 4470 ein Betriebssystem (operating system, OS) 4472. Das Betriebssystem 4472 beinhaltet Anweisungen, um Grundsystemdienste zu handhaben und um hardwareabhängige Aufgaben durchzuführen.
  • Der Speicher 4470 beinhaltet auch Kommunikationsinstruktionen 4474, um eine Kommunikation mit einer oder mehreren zusätzlichen Vorrichtungen zu ermöglichen; Instruktionen der grafische Benutzerschnittstelle 4476, um grafische Benutzerschnittstellenverarbeitungen zu ermöglichen; Bildverarbeitungsinstruktionen 4478, um bildbezogene Verarbeitung und Funktionen zu ermöglichen; Eingabeverarbeitungsinstruktionen 4480, um eingabebezogene (z.B. Berührungseingabe) Prozesse und Funktionen zu ermöglichen; Tonverarbeitungsinstruktionen 4482, um tonbezogene Prozesse und Funktionen zu ermöglichen; und Kamerainstruktionen 4484, um kamerabezogene Prozesse und Funktionen zu ermöglichen. Die oben beschriebenen Anweisungen sind nur beispielhaft und der Speicher 4470 beinhaltet zusätzliche und/oder andere Anweisungen in einigen Ausführungsformen. Beispielweise könnte der Speicher für ein Smartphone Telefoninstruktionen enthalten, um telefonbezogene Prozesse und Funktionen zu ermöglichen. Zusätzlich könnte der Speicher Instruktionen für eine Karten- und Navigationsanwendung wie auch für andere Anwendungen beinhalten. Die oben identifizierten Instruktionen müssen nicht als getrennte Softwareprogramme oder Module implementiert werden. Verschiedene Funktionen der mobilen Flächenvorrichtung können in Hardware und/oder Software implementiert werden, welche eine oder mehrere Signalverarbeitungs- und/oder anwendungsspezifische integrierte Schaltungen beinhalten.
  • Während die in 44 veranschaulichten Komponenten als getrennte Komponenten gezeigt werden, wird der Fachmann erkennen, dass zwei oder mehrere Komponenten in eine oder mehrere integrierte Schaltungen integriert werden können. Zusätzlich können zwei oder mehrere Komponenten über eine oder mehrere Kommunikationsbusse oder Signalleitungen verbunden werden. Obwohl viele der Funktionen beschrieben wurden, als ob sie durch eine Komponente durchgeführt werden würden, wird auch der Fachmann erkennen, dass die mit Bezug zu 44 beschriebenen Funktionen in zwei oder mehrere integrierte Schaltungen aufgeteilt werden können.
  • B. Computersystem
  • 45 veranschaulicht konzeptionell ein anderes Beispiel eines elektronischen Systems 4500, mit welchem einige Ausführungsformen der Erfindung implementiert sind. Das elektronische System 4500 kann ein Computer (z.B. ein Desktop-Computer, persönlicher Computer, Tablet-Computer, usw.), ein Telefon, ein PDA oder jede andere Art von elektronischer Vorrichtung oder Rechenvorrichtung sein. Solch ein elektronisches System beinhaltet verschiedene Arten von computerlesbaren Medien und Schnittstellen für verschiedene andere Arten von computerlesbaren Medien. Das elektronische System 4500 beinhaltet einen Bus 4505, eine Verarbeitungseinheit(en) 4510, eine grafische Verarbeitungseinheit (GPU) 4515, einen Systemspeicher 4520, ein Netzwerke 4525, einen Festwertspeicher (ROM) 4530, eine permanente Speichervorrichtung 4535, Eingabevorrichtungen 4540 und Ausgabevorrichtungen 4545.
  • Der Bus 4505 stellt insgesamt alle System-, Peripherie- und Chipsatzbusse dar, die kommunikativ die zahlreichen internen Vorrichtungen des elektronischen Systems 4500 verbinden. Zum Beispiel verbindet der Bus 4505 kommunikativ die Verarbeitungseinheit(en) 4510 mit dem Festspeicher 4530, der GPU 4515, dem Systemspeicher 4520 und der permanenten Speichervorrichtung 4535.
  • Von diesen verschiedenen Speichereinheiten erhält die Verarbeitungseinheit(en) 4510 auszuführende Instruktionen und zu verarbeitende Daten, um die Prozesse der Erfindung auszuführen. Die Verarbeitungseinheit(en) kann ein einzelner Prozessor oder ein Mehrkernprozessor in unterschiedlichen Ausführungsformen sein. Einige Anweisungen werden an die GPU 4515 gegeben und durch sie ausgeführt. Die GPU 4515 kann verschiedene Berechnungen abstoßen oder die Bildverarbeitung, welche durch die Verarbeitungseinheit(en) 4510 bereitgestellt wird, ergänzen. In einigen Ausführungsformen kann eine solche Funktionalität durch die Benutzung die Kernel Shading Language der CoreImage bereitgestellt werden.
  • Der Nur-Lese-Speicher (ROM) 4530 speichert statische Daten und Anweisungen, die von der Verarbeitungseinheit(en) 4510 und anderen Modulen des elektronischen Systems benötigt werden. Die permanente Speichervorrichtung 4535 ist andererseits eine Lese- und Schreibspeichervorrichtung. Diese Vorrichtung ist eine nichtvolatile Speichereinheit, die Instruktionen und Daten speichert, sogar wenn das elektronische System 4500 aus ist. Einige Ausführungsformen der Erfindung verwenden eine Massenspeichervorrichtung (so wie eine magnetische oder optische Platte und ihre entsprechende Festplatte, integrierter Flashspeicher) als permanente Speichervorrichtung 4535.
  • Andere Ausführungsformen verwenden eine abnehmbare Speichervorrichtung (wie eine Diskette, eine Flashspeichervorrichtung, usw. und ihre entsprechenden Laufwerke) als permanente Speichervorrichtung. Wie die permanente Speichervorrichtung 4535, ist der Systemspeicher 4520 eine Lese- und Schreibspeichervorrichtung. Allerdings anders als die Speichervorrichtung 4535 ist der Systemspeicher 4520 ein volatiler Lese- und Schreibspeicher sowie ein Speicher mit wahlfreiem Zugriff. Der Systemspeicher 4520 speichert einige der Anweisungen und Daten, die der Prozessor zur Laufzeit benötigt. In einigen Ausführungsformen sind die Prozesse der Erfindung in dem Systemspeicher 4520, der permanenten Speichervorrichtung 4535 und/oder dem ROM-Speicher 4530 abgelegt. Zum Beispiel beinhalten die verschiedenen Speichereinheiten Anweisungen zum Verarbeiten von Multimediafilmen entsprechend einigen Ausführungsformen. Von diesen verschiedenen Speichereinheiten ruft die Verarbeitungseinheit(en) 4510 auszuführende Instruktionen und zu verarbeitende Daten ab, um die Prozesse einiger Ausführungsformen auszuführen.
  • Der Bus 4505 schließt auch die Eingabe- und Ausgabevorrichtungen 4540 und 4545 an. Die Eingabevorrichtungen 4540 erlauben dem Benutzer, zu dem elektronischen System Informationen zu kommunizieren und Befehle zu selektieren. Die Eingabevorrichtungen 4540 beinhalten alphanumerische Tastaturen und Zeigevorrichtungen (auch „Zeigersteuerungsvorrichtungen“ genannt), Kameras (z.B. Webkameras), Mikrofone oder ähnliche Vorrichtungen zum Empfangen von Sprachbefehlen, usw. Die Ausgabevorrichtungen 4545 zeigen Bilder an, die von dem elektronischen System generiert sind oder anderweitige Ausgabedaten. Die Ausgabevorrichtungen 4545 beinhalten Drucker und Anzeigevorrichtungen, sowie Kathodenstrahlröhren (CRT) oder Flüssigkristallanzeigen (LCD), sowie Lautsprecher oder ähnliche Tonausgangsvorrichtungen. Einige Ausführungsformen beinhalten Vorrichtungen sowie einen Berührungsbildschirm, der als beides, Eingabe - und Ausgabevorrichtungen funktioniert.
  • Schließlich, wie in 45 gezeigt, koppelt der Bus 4505 auch das elektronische System 4500 an ein Netzwerk 4545 durch einen Netzwerkadapter (nicht gezeigt). Auf diese Weise kann der Computer ein Teil eines Computernetzwerkes (sowie ein lokales Netzwerk („LAN“), ein Großraumnetzwerk (wide area network, „WAN“) oder ein Intranet) oder ein Netzwerk von Netzwerken sowie das Internet, sein. Einige oder alle Komponenten des elektronischen Systems 4500 können in Verbindung mit der Erfindung verwendet werden.
  • Einige Ausführungsformen beinhalten elektronische Komponenten, wie beispielweise Mikroprozessoren, Ablagen und Speicher, die Computerprogramminstruktionen in einem maschinenlesbaren oder computerlesbaren Medium (alternativ bezeichnet als computerlesbare Speichermedien, maschinenlesbare Medien oder maschinenlesbare Speichermedien) abgelegt sind. Einige Beispiele solcher computerlesbaren Medien beinhalten RAM, ROM, Nur-Lese-Kompaktdisk (CD-ROM), beschreibbare Kompaktdisks (CD-R), wiederbeschreibbare Kompaktdisks (CD-RW), nur-lese-digitale vielseitige Disk (digital versatile disks) (z.B. DVD-ROM, zweischichtige DVD-ROM), eine Vielzahl von beschreibbaren /wiederbeschreibbaren DVDs (DVD-RAM, DVD-RW, DVD+RW, usw.), Flash-Speicher (z.B. SD-Karten, Mini-SD-Karten, Mikro-SD-Karten, usw.), magnetische Festplatten und/oder Halbleiterlaufwerke (SSD), nur-lese- und beschreibbare BlueRay®-Disks, ultradichte optische Disks, beliebige andere optische oder magnetische Medien und Disketten. Die computerlesbaren Medien können ein Computerprogramm abspeichern, welches von wenigstens einer Verarbeitungseinheit ausgeführt werden kann und eine Menge von Instruktionen zum Durchführen verschiedener Operationen enthält. Beispiele von Computerprogrammen oder Computercode beinhalten Maschinencode, wie solcher, der von einem Kompilierer produziert wird, und Dateien, die Code einer höheren Stufe beinhalten, die von einem Computer, einer elektronischen Komponente oder einem Mikroprozessor, unter Verwendung eines Interpreters, ausgeführt werden.
  • Während die obige Diskussion primär auf Mikroprozessoren oder Mehrkernprozessoren, die Software ausführen, bezogen ist, werden einige Ausführungsformen durch eine oder mehrere integrierte Schaltungen ausgeführt werden, wie beispielsweise anwendungsspezifische integrierte Schaltungen (ASICs) oder feldprogrammierbare Gatteranordnungen (FPGAs). In einigen Ausführungsformen führen solche integrierte Schaltungen Instruktionen aus, die auf der Schaltung selbst abgespeichert sind. Zusätzlich führen einige Ausführungsformen Software, die in programmierbaren logischen Vorrichtungen (PLDs), ROM- oder RAM-Vorrichtungen gespeichert sind, aus.
  • Wie in dieser Spezifikation und in jedem Anspruch dieser Anmeldung verwendet, beziehen sich die Begriffe „Computer“, „Server“, „Prozessor“ und „Speicher“ alle auf elektronische oder andere technologische Vorrichtungen. Diese Begriffe schließen Personen oder Gruppen von Personen aus. Im Sinne der Spezifikation bedeuten die Begriffe Anzeige oder Anzeigen das Anzeigen auf einer elektronischen Vorrichtung. Wie in dieser Spezifikation und jedem Anspruch der Anmeldung verwendet, sind die Begriffe „computerlesbares Medium“, „computerlesbare Medien“ und „maschinenlesbares Medium““ vollständig beschränkt auf greifbare physische Objekte, die Informationen in einer Form, die von einem Computer gelesen werden kann, speichern. Diese Begriffe schließen jegliche drahtlose Signale, drahtgebunde Downloadsignale und jegliche andere flüchtige Signale aus.
  • V. Kartendienstumgebung
  • Verschiedene Ausführungsformen können innerhalb einer Kartendienstbetriebsumgebung arbeiten. 46 veranschaulicht eine Kartendienstbetriebsumgebung entsprechend einigen Ausführungsformen. Ein Kartendienst 4630 (auch bezeichnet als Kartendienst) kann Kartendienste für eine oder mehrere Clientvorrichtungen 4602a-4602c in Kommunikation mit dem Kartendienst 4630 durch verschiedene Kommunikationsverfahren und Protokolle bereitstellen. Ein Kartendienst 4630 stellt in einigen Ausführungsformen Karteninformationen und andere kartenbezogene Daten, sowie zweidimensionale Kartenbilddaten (z.B. Luftansicht von Straßen durch Verwendung von Satellitenbildern), dreidimensionale Kartenbilddaten (z.B. durchquerbare Karten mit dreidimensionalen Merkmalen, sowie Gebäude), Straßen- und Richtungsberechnungen (z.B. Fährroutenberechnungen oder Richtungen zwischen zwei Punkten für einen Fußgänger), Echtzeitnavigationsdaten (z.B. Punkt-zu-Punkt visuelle Navigationsdaten in zwei oder drei Dimensionen), Ortsdaten (z.B. wo die Clientvorrichtung sich aktuell befindet) und andere geografische Daten (z.B. drahtlose Netzabdeckung, Wetter, Verkehrsinformationen oder naheliegende Punkte von Interesse) bereit. In verschiedenen Ausführungsformen können die Kartendienstdaten lokalisierte Bezeichnungen für unterschiedliche Länder oder Regionen beinhalten. Lokalisierte Bezeichnungen können verwendet werden, um Kartenbezeichnungen (z.B. Straßennamen, Städtenamen, Punkte von Interesse) in unterschiedlichen Sprachen auf der Clientvorrichtung darzustellen. Die Clientvorrichtungen 4602a-4602c können diese Kartendienste verwenden, um Kartendienstdaten zu erhalten. Die Clientvorrichtungen 4602a-4602c können verschiedene Techniken implementieren, um Kartendienstdaten zu verarbeiten. Die Clientvorrichtungen 4602a-4602c können dann verschiedenen Einheiten Kartendienste bereitstellen, die beinhalten, jedoch nicht limitiert sind auf, Benutzer, interne Software- oder Hardwaremodule und/oder andere Systeme oder Vorrichtungen, die extern zu den Clientvorrichtungen 4602a-4602c sind.
  • In einigen Ausführungsformen ist ein Kartendienst durch einen oder mehrere Knoten in einem verteilten Rechensystem implementiert. Jeder Knoten kann einem oder mehreren Diensten oder einer oder mehreren Komponenten eines Kartendienstes zugeteilt sein. Einige Knoten können dem gleichen Kartendienst oder der gleichen Komponente eines Kartendienstes zugeteilt sein. Ein Lastverteilungsknoten verteilt in einigen Ausführungsformen Zugriffe oder Anfragen zu anderen Knoten in einem Kartendienst. In einigen Ausführungsformen ist ein Kartendienst als einzelnes System, wie z.B. ein einzelner Server, implementiert. Unterschiedliche Module oder Hardwarevorrichtungen in einem Server können einen oder mehrere von den verschiedenen Diensten, die von einem Kartendienst bereitgestellt werden, implementieren.
  • Ein Kartendienst stellt in einigen Ausführungsformen Kartendienste durch Generierung von Kartendienstdaten in verschiedenen Formaten bereit. In einigen Ausführungsformen ist ein Format von Kartendienstdaten Kartenbilddaten. Kartenbilddaten stellen Bilddaten einer Clientvorrichtung bereit, so dass die Clientvorrichtung die Bilddaten verarbeiten kann (z.B. Wiedergeben und/oder Anzeigen der Bilddaten als eine zweidimensionale oder dreidimensionale Karte). Kartenbilddaten, ob in zwei oder drei Dimensionen, können eine oder mehrere Kartenkacheln spezifizieren. Eine Kartenkachel kann ein Teil eines größeren Kartenbildes sein. Das Zusammenfügen der Kartenkacheln einer Karte produziert die originale Karte. Kacheln können aus Kartenbilddaten und/oder Navigationsdaten oder jeden anderen Kartendienstdaten generiert werden. In einigen Ausführungsformen sind Kartenkacheln rasterbasierte Kartenkacheln mit Kachelgrößen, die sich über alle Größen erstrecken, mit größeren und kleineren als üblicherweise benutzten 256 Pixel zu 256 Pixel Kacheln erstrecken. Rasterbasierte Kartenkacheln können in jeglicher Anzahl von standardisierten digitalen Bilddarstellungen codiert werden, die beinhalten, sind jedoch nicht limitiert auf, Bitmap (.bmp), Graphics Interchange Format (.gif), Joint Photographic Experts Group (.jpg, jpeg, usw.), Portable Networks Graphic (.png) oder Tagged Image File Format (.tiff). In einigen Ausführungsformen sind Kartenkacheln vektorbasierte Kartenkacheln, die Vektorgrafiken benutzend codiert sind, welche beinhalten, jedoch nicht limitiert sind auf, Scalable Vector Graphics (.svg) oder ein Drawing File (.drw). Einige Ausführungsformen beinhalten auch Kacheln mit einer Kombination aus Vektor- und Rasterdaten. Metadaten oder andere Informationen, die die Kartenkacheln betreffen, können auch in oder bei einer Kartenkachel enthalten sein, die weitere Kartendienstdaten der Clientvorrichtung bereitstellt. In verschiedenen Ausführungsformen ist eine Kartenkachel für einen Transport codiert, der verschiedene Standards und/oder Protokolle, von denen einige in den nachfolgenden Beispielen beschrieben sind, verwendet.
  • In verschiedenen Ausführungsformen können Kartenkacheln aus Bilddaten unterschiedlicher Auflösung abhängig von der Zoomstufe hergestellt werden. Zum Beispiel, für eine niedrige Zoomstufe (z. B. Welt- oder Globusansicht), muss die Auflösung der Karte oder der Bilddaten nicht so hoch sein, relativ zu der Auflösung in einer hohen Zoomstufe (z.B. Stadt- oder Straßenstufe). Zum Beispiel, wenn in einer Globusansicht, gibt es keinen Bedarf, um Artefakte der Straßenstufe wiederzugeben, da solche Objekte so klein sein würden, dass sie in den meisten Fällen vernachlässigbar sind.
  • Ein Kartendienst führt in einigen Ausführungsformen verschiedene Techniken zur Analyse einer Kartenkachel aus, bevor die Kachel für den Transport codiert wird. Diese Analyse kann die Leistung des Kartendienstes für beide, Clientvorrichtung und einen Kartendienst optimieren. In einigen Ausführungsformen werden Kartenkacheln auf Komplexität gemäß vektorbasierten grafischen Techniken analysiert und unter Verwendung von komplexen und nichtkomplexen Schichten erstellt. Kartenkacheln können also auch auf gewöhnliche Bilddaten oder Muster, die als Bildtexturen wiedergegeben und auch Bildmasken setzend erstellt werden. In einigen Ausführungsformen enthalten rasterbasierte Bilddaten in einer Kartenkachel bestimmte Maskenwerte, welche mit einer oder mehreren Texturen verbunden sind. Einige Ausführungsformen analysieren Kartenkacheln auch auf spezielle Merkmale, welche mit bestimmten Kartenarten, die bestimmte Artbezeichnungen enthalten, verbunden werden können.
  • Andere Kartendienste generieren Kartendienstarten, welche auf verschiedenen Datenformaten getrennt von einer Kartenkachel in einigen Ausführungsformen setzen. Zum Beispiel Kartendienste, die Ortsdaten bereitstellen, können Datenformate entsprechend den Protokollen von Ortsdiensten verwenden, sowie, aber nicht limitiert auf, Radio Resource Location Service Protocol (RRLP), TIA 801 für Code Division Multiple Access (CDMA), Radio Resource Control (RRC) Positions Protocol oder LTE Positioning Protocol (LPP). Ausführungsformen können auch Daten von Clientvorrichtungen erhalten oder anfragen, welche Möglichkeiten oder Attribute (z.B. Hardwarespezifikationen oder Betriebssystemversion) oder Kommunikationsmöglichkeiten (z.B. Kommunikationsbandbreite der Vorrichtung, die durch drahtlose Signalstärke oder Kabel oder drahtlose Netzwerkart bestimmt wird) der Vorrichtung identifizieren.
  • Ein Kartendienst kann Kartendienstdaten von einer internen oder externen Quelle erhalten. Zum Beispiel Satellitenbilder, die in Kartenbilddaten verwendet werden, können von externen Diensten oder internen Systemen, Speichervorrichtungen oder Knoten erhalten werden. Andere Beispiele können beinhalten, sind aber nicht limitiert auf, GPS-Unterstützungsserver, drahtlose Netzwerkabdeckung-Datenbanken, Geschäfts- oder persönliche Verzeichnisse, Wetterdaten, Regierungsinformationen (z.B. Aktualisierungen von Bauten oder Änderung von Straßennamen) oder Verkehrsberichte. Einige Ausführungsformen eines Kartendienstes können Kartendienstdaten (z.B. drahtlose Netzwerkabdeckung) für die Analyse von zukünftigen Anfragen der Clientvorrichtungen, aktualisieren.
  • Verschiedene Ausführungsformen eines Kartendienstes können auf die Anfrage von Clientvorrichtungen für Kartendienste antworten. Diese Anfragen können für eine spezifische Karte oder Teile einer Karte sein. Einige Ausführungsformen formatieren Anfragen für eine Karte sowie Anfragen für bestimmte Kartenkacheln. In einigen Ausführungsformen beliefern die Anfragen den Kartendienst auch mit Fahrtorten (oder aktuellen Orten) und Zielorten für eine Routenberechnung. Eine Clientvorrichtung kann auch Wiedergabeinformationen des Kartendienstes, sowie Kartentexturen oder Formatvorlagen, anfragen. In wenigstens einigen Ausführungsformen sind Anfragen auch eine einer Serie von Anfragen, die eine Punkt-zu-Punkt-Navigation implementieren. Anfragen für andere geografische Daten können beinhalten, sind jedoch nicht limitiert auf, Anfragen für aktuellen Ort, drahtlose Netzwerkabdeckung, Wetter, Verkehrsinformationen oder naheliegende Punkte von Interesse.
  • Ein Kartendienst analysiert in einigen Ausführungsformen Anfragen einer Clientvorrichtung, um eine Vorrichtungs- oder Kartendienstoperation zu optimieren. Zum Beispiel kann ein Kartendienst erkennen, dass der Ort einer Clientvorrichtung in einem Bereich mit schlechter Verbindung (z.B. schwaches drahtloses Signal) ist und mehr Kartendienstdaten sendet, um eine Clientvorrichtung im Falle von Verbindungsverlust zu beliefern oder sendet Instruktionen, um unterschiedliche Clienthardware (z.B. Ausrichtungssensoren) oder Software (z.B. drahtlose Ortsdienst oder Wi-Fi-Positionierung anstelle von GPS-basierten Diensten zu verwenden) zu verwenden. In einem anderen Beispiel kann ein Kartendienst eine Anfrage einer Clientvorrichtung auf vektorbasierte Kartenbilddaten analysieren und ermitteln, dass rasterbasierte Kartendaten die Kartenbilddaten entsprechend der Bildkomplexität besser optimieren. Ausführungsformen von anderen Kartendiensten können ähnliche Analysen der Anfragen von Clientvorrichtungen ausführen und als solche in die oberen Beispiele nicht als eingrenzend anzusehen.
  • Verschiedene Ausführungsformen von Clientvorrichtungen (z.B. Clientvorrichtungen 4602a-4602c) sind auf unterschiedlichen tragbaren multifunktionalen Vorrichtungsarten implementiert. Clientvorrichtungen 4602a-4602c verwenden einen Kartendienst 4630 durch verschiedene Kommunikationsverfahren und Protokolle. In einigen Ausführungsformen erhalten Clientvorrichtungen 4602a-4602c Kartendienstdaten von dem Kartendienst 4630. Clientvorrichtungen 4602a-4602c verlangen oder erhalten Kartendienstdaten. Clientvorrichtungen 4602a-4602c verarbeiten dann die Kartendienstdaten (z.B. Wiedergeben und/oder Anzeigen der Daten) und können die Daten zu einem anderen Software- oder Hardwaremodul der Vorrichtung oder zu einer externen Vorrichtung oder einem externen System senden.
  • Eine Clientvorrichtung entsprechend einigen Ausführungsformen implementiert Techniken, um Karten wiederzugeben und/oder anzuzeigen. Diese Karten können in verschiedenen Formaten angefragt oder erhalten werden, so wie die oben beschriebenen Kartenkacheln. Eine Clientvorrichtung kann eine Karte in zweidimensionalen oder dreidimensionalen Ansichten wiedergeben. Einige Ausführungsformen einer Clientvorrichtung zeigen eine wiedergegebene Karte und erlauben einem Benutzer, einem System oder eine Vorrichtung, Eingaben, um eine virtuelle Kamera in der Karte zu manipulieren, die Kartenansicht entsprechend der Position, der Ausrichtung und dem Sichtfeld der virtuellen Kamera ändernd, bereitzustellen. Verschiedene Formen und Eingabevorrichtungen sind implementiert, um eine virtuelle Kamera zu manipulieren. In einigen Ausführungsformen manipulieren Berührungseingaben, durch bestimmte einzelne oder Kombinationsgesten (z.B. Berühre und Halte oder ein Wischen) die virtuelle Kamera. Andere Ausführungsformen erlauben durch eine Manipulation des physischen Ortes der Vorrichtung, eine virtuelle Kamera zu manipulieren. Zum Beispiel kann eine Clientvorrichtung aus ihrer aktuellen Position aufwärts gekippt werden, um die virtuelle Kamera zum aufwärts Rotieren zu manipulieren. In einem anderen Beispiel kann eine Clientvorrichtung aus ihrer aktuellen Position vorwärts geneigt werden, um die virtuelle Kamera nach vorn zu bewegen. Andere Eingabevorrichtungen für die Clientvorrichtung können implementiert werden, beinhaltend aber nicht limitiert auf, Toneingabe (z.B. gesprochene Worte), eine physische Tastatur, eine Maus und/oder ein Joystick.
  • Einige Ausführungsformen stellen verschiedene visuelle Rückmeldungen zu virtuellen Kameramanipulationen bereit, so wie die Anzeige einer Animation von möglichen virtuellen Kameramanipulationen, beim Übergehen von zweidimensionalen Kartenansichten zu dreidimensionalen Kartenansichten. Einige Ausführungsformen erlauben auch Eingabe, um ein Kartenmerkmal oder ein Objekt (z.B. ein Gebäude) auszuwählen und heben das Objekt hervor, dies produziert einen Unschärfeeffekt, welcher die Sichtweise der virtuellen Kamera des dreidimensionalen Raums beibehält.
  • In einigen Ausführungsformen implementiert eine Clientvorrichtung ein Navigationssystem (z.B. Punkt-zu-Punkt-Navigation). Ein Navigationssystem stellt Anweisungen oder Routeninformationen bereit, welche einem Benutzer angezeigt werden können. Einige Ausführungsform einer Clientvorrichtung fragen Anweisungen oder eine Routenberechnungen von einem Kartendienst an. Eine Clientvorrichtung kann Kartenbilddaten und Routendaten eines Kartendienstes erhalten. In einigen Ausführungsformen implementiert eine Clientvorrichtung ein Punkt-zu-Punkt-Navigationssystem, welches Echtzeit-Routen- und Richtungsinformationen basierend auf Ortsinformationen und Routeninformationen, die von einem Kartendienst und/oder anderen Ortssystemen, sowie einem Global Positioning Satellite (GPS) erhalten werden, bereitgestellt werden. Eine Clientvorrichtung kann Kartenbilddaten anzeigen, die den aktuellen Ort der Clientvorrichtung wiederspiegeln und die Kartenbilddaten in Echtzeit aktualisieren. Ein Navigationssystem kann akustische oder visuelle Anweisungen, um einer bestimmten Route zu folgen, bereitstellen.
  • Eine virtuelle Kamera ist implementiert, um Navigationskartendaten entsprechend einiger Ausführungsformen zu manipulieren. In einigen Ausführungsformen erlauben die Clientvorrichtungen der Vorrichtung, die Ausrichtung der virtuellen Kameraanzeige anzupassen, um sie in Richtung des Routenziels auszurichten. Einige Ausführungsformen erlauben der virtuellen Kamera auch, Abbiegungen zu navigieren, indem sie die Trägheitsbewegung der virtuellen Kamera simuliert.
  • Clientvorrichtungen implementieren verschiedene Techniken, um Kartendienstdaten von einem Kartendienst zu verwenden. Einige Ausführungsformen implementieren einige Techniken, um die Wiedergabe von zweidimensionalen und dreidimensionalen Kartenbilddaten zu optimieren. In einigen Ausführungsformen speichert eine Clientvorrichtung Wiedergabeinformation lokal. Zum Beispiel speichert ein Client eine Formatvorlage, welche Wiedergabeinstruktionen für Bilddaten, die Artbezeichnungen enthalten, bereitstellen. In einem anderen Beispiel können häufige Bildtexturen gespeichert werden, um die Anzahl an Kartenbilddaten, die vom Kartendienst übertragen werden, zu reduzieren. Clientvorrichtungen in unterschiedlichen Ausführungsformen implementieren verschiedene Modellierungstechniken, um zweidimensionale und dreidimensionale Kartenbilddaten wiederzugeben, Beispiele von diesen enthalten, sind aber nicht limitiert auf: Generierung von dreidimensionalen Gebäuden aus Profildaten von zweidimensionalen Gebäuden; Modellierung von zweidimensionalen und dreidimensionalen Kartenobjekten, um die Verbindungsumgebung der Clientvorrichtung zu ermitteln; Generierung von Modellen, um zu ermitteln, ob Kartenbezeichnungen aus einer bestimmten virtuellen Kameraposition gesehen werden; und Generierung von Modellen, um Übergänge zwischen Kartenbilddaten zu glätten. In einigen Ausführungsformen ordnen oder priorisieren die Clientvorrichtungen auch Kartendienstdaten nach bestimmten Techniken. Zum Beispiel stellt eine Clientvorrichtung die Bewegung oder Geschwindigkeit einer virtuellen Kamera fest, wenn diese bestimmte Schwellenwerte überschreitet, werden weniger detaillierte Bilddaten für bestimmte Bereiche geladen und wiedergegeben. Andere Beispiele beinhalten: die Wiedergabe vektorbasierter Kurven als eine Serie von Punkten, Vorladen von Kartenbilddaten für Bereiche mit schlechter Verbindung zu einem Kartendienst, Anpassen von Texturen basierend auf der angezeigten Zoomstufe oder Wiedergabe von Kartenbilddaten entsprechend der Komplexität.
  • In einigen Ausführungsformen kommunizieren Clientvorrichtungen unter Verwendung verschiedener Datenformate getrennt von einer Kartenkachel. Zum Beispiel implementieren einige Clientvorrichtungen Assistant Global Positioning Satellites (A-GPS) und kommunizieren mit Ortsdiensten, die Datenformate verwenden, die den Protokollen der Ortsdienste entsprechen, so wie, aber nicht limitiert auf, Radio Resource Location services Protocol (RRLP), TIA 801 für Code Division Multiple Access (CDMA), Radio Resource Control (RRC)-Positionsprotoll oder LTE Positioning Protocol (LPP). Clientvorrichtungen können auch direkt GPS-Signale erhalten. Ausführungsformen können auch Daten senden, mit oder ohne Anforderungen von einem Kartendienst, die die Möglichkeiten oder Attribute (z.B. Hardwarespezifikation oder Betriebssystemversion) oder Kommunikationsmöglichkeiten (z.B. Kommunikationsbandbreite der Vorrichtung, wie sie von drahtloser Signalstärke oder Kabel oder vom drahtlosen Netzwerktyp bestimmt wurde) der Clientvorrichtungen identifizieren.
  • 46 veranschaulicht eine mögliche Ausführungsform einer Betriebsumgebung 4600 für einen Kartendienst 4630 von Clientvorrichtungen 4602a-4602c. In einigen Ausführungsformen kommunizieren Vorrichtungen 4602a, 4602b und 4602c über ein oder mehrere Kabel oder kabellose Netzwerke 4610. Zum Beispiel ein drahtloses Netzwerk 4610, wie ein Mobilfunknetz, können mit einem Großraumnetzwerk (WAN) 4620, wie das Internet, durch die Verwendung eines Gateways 4614 kommunizieren. Ein Gateway 4614 stellt in einigen Ausführungsformen einen paketorientierten mobilen Datendienst, so wie General Package Radio Service (GPRS) oder einen anderen mobilen Datendienst bereit, der drahtlosen Netzwerken erlaubt, Daten zu anderen Netzwerken, wie Großraumnetzwerk 4620, zu übertragen. Ebenso stellt eine Zugriffsvorrichtung 4612 (z.B. IEEE 802.11g drahtlose Zugriffsvorrichtung) Kommunikationszugriff zu WAN 4620 bereit. Vorrichtungen 4602a und 4602b können jegliche tragbare elektronische oder Rechenvorrichtung sein, die fähig sind, mit einem Kartendienst zu kommunizieren. Die Vorrichtung 4602c kann jegliche nicht tragbare elektronische oder Rechenvorrichtung sein, die fähig ist, mit einem Kartendienst zu kommunizieren.
  • In einigen Ausführungsformen werden beide, Sprach- und Datenkommunikation über ein drahtloses Netzwerk 4610 und eine Zugriffsvorrichtung 4612 aufgebaut. Zum Beispiel kann die Vorrichtung 4602a einen Telefonanruf tätigen und empfangen (z.B. unter Verwendung von Voice-over-Internet-Protocol (VoIP)-Protokollen), Senden und Empfangen von Emailnachrichten (z.B. unter Verwendung von Simple Mail Transfer Protocol (SMTP) oder Post Office Protocol 3 (POP3)) und Abrufen von elektronischen Dokumenten und/oder Datenströme, wie Webseiten, Fotos und Videos, über das drahtlose Netzwerk 4610, den Gateway 4614 und das WAN 4620 (z.B. unter Verwendung von Transmission Control Protocol/Internet Protocol (TCP/IP) oder User Datagram Protocol (UDP)). Ebenso können in einigen Implementierungen die Vorrichtungen 4602b und 4602c Telefonanrufe tätigen oder empfangen, Emailnachrichten senden und empfangen und elektronische Dokumente über die Vorrichtung 4612 und WAN 4620 abrufen. In verschiedenen Ausführungsformen kann jede der veranschaulichten Clientvorrichtungen mit dem Kartendienst 4630 und/oder anderen Dienst(en) 4650 unter Verwendung einer permanent aufgebauten Verbindung entsprechend mit einem oder mehreren Sicherheitsprotokollen, sowie das Secure Sockets Layer (SSL)-Protocol oder das Transport Layer Security (TLS)-Protocol kommunizieren.
  • Die Vorrichtungen 4602a und 4602b können auch durch andere Mittel Verbindungen aufbauen. Zum Beispiel kann die drahtlose Vorrichtung 4602a mit anderen drahtlosen Vorrichtungen (z.B. anderen Vorrichtungen 4602b, Mobiltelefonen, usw.) über das drahtlose Netzwerk 4610 kommunizieren. Ebenso können Vorrichtungen 4602a und 4602b Peer-to-Peer-Kommunikationen 4640 (z.B. einen persönlichen Netzwerkbereich) aufbauen durch die Verwendung eines oder mehrerer Kommunikationsuntersysteme, sowie Bluetooth®-Kommunikation von Bluetooth Special Interest Group, Inc. aus Kirkland, Washington. Die Vorrichtung 4602c kann auch Peer-to-Peer-Verbindungen mit den Vorrichtungen 4602a oder 4602b (nicht gezeigt) aufbauen. Andere Kommunikationsprotokolle und Topologien können auch implementiert werden. Die Vorrichtungen 4602a und 4602b können auch Global Positioning Satellite (GPS)-Signale von GPS-Satelliten 4660 empfangen.
  • Die Vorrichtungen 4602a, 4602b, und 4602c können mit dem Kartendienst 4630 über ein oder mehrere drahtgebundene und/oder drahtlose Netzwerke 4612 oder 4610 kommunizieren. Zum Beispiel kann der Kartendienst 4630 Kartendienstdaten für die Wiedergabevorrichtungen 4602a, 4602b und 4602c bereitstellen. Der Kartendienst 4630 kann auch mit anderen Diensten 4650 kommunizieren, um Daten für die Implementierung von Kartendiensten zu erhalten. Der Kartendienst 4630 und andere Dienste 4650 können auch GPS-Signale von GPS-Satelliten 4660 erhalten.
  • In verschiedenen Ausführungsformen wird der Kartendienst 4630 und/oder andere Dienst(e) 4650 konfiguriert, um Suchanfragen von jeder der Clientvorrichtungen zu verarbeiten. Suchanfragen können beinhalten, sind aber nicht limitiert auf, Anfragen für Geschäfte, Adressen, Wohnorte, Punkte von Interesse oder einigen Kombinationen davon. Der Kartendienst 4630 und/oder andere Dienst(e) 4650 können konfiguriert werden, um Ergebnisse zurückzuliefern, die mit einer Vielzahl von Parametern zusammenhängen, welche beinhalten, aber nicht limitiert sind auf, einen Ort, der in einen Adressbalken oder ein anderes Texteingabefeld eingegebenen wird (Abkürzungen und/oder andere Kurzschriftbezeichnungen beinhaltend), eine aktuelle Kartenansicht (z.B. kann ein Benutzer einen Ort auf einer Multifunktionsvorrichtung ansehen, während er sich an einem anderen Ort befindet), einen aktuellen Ort des Benutzers (z.B. in Fällen, wo die aktuelle Kartenansicht keine Suchergebnisse beinhaltet) und die aktuelle Route (wenn eine vorhanden ist). In verschiedenen Ausführungsformen können diese Parameter die Zusammensetzung der Suchergebnisse (und/oder der Ordnung der Suchergebnisse) basierend auf unterschiedlichen Prioritätsgewichtungen beeinflussen. In verschiedenen Ausführungsformen können die Suchergebnisse, die zurückgegeben werden, eine Untermenge von selektierten Ergebnissen basierend auf einem spezifischen Kriterium, welches beinhaltet, aber nicht limitiert ist auf eine Menge, wie oft das Suchergebnis angefragt wurde (z.B. ein bestimmter Punkt von Interesse), ein Maß an Qualität verbunden mit dem Suchergebnis (z.B. höchster Benutzer oder Editoren-Rezension-Bewertung) und/oder die Anzahl an Prüfungen für die Suchergebnisse (z.B. die Anzahl der Male, die das Suchergebnis geprüft oder bewertet wurde).
  • In verschiedenen Ausführungsformen sind der Kartendienst 4630 und/oder andere Dienst(e) 4650 konfiguriert, um automatisch vervollständigte Suchergebnisse bereitzustellen, die auf der Clientvorrichtung, sowie in der Kartenanwendung, angezeigt werden. Zum Beispiel können automatisch vervollständigte Suchergebnisse einen Teil des Bildschirms befüllen, während der Benutzer ein oder mehrere Suchstichworte in die Multifunktionsvorrichtung eingibt. In einigen Fällen kann dieses Merkmal dem Benutzer Zeit sparen, weil das gewünschte Suchergebnis angezeigt werden kann, bevor der Benutzer die gesamte Suchanfrage eingegeben hat. In verschiedenen Ausführungsformen können die automatisch vervollständigten Suchergebnisse Suchergebnisse, die der Client auf der Clientvorrichtungen gefunden hat (z.B. Lesezeichen oder Kontakte), Suchergebnisse, die woanders durch den Kartendienst 4630 und/oder andere Dienst(e) 4650 gefunden werden (z.B. aus dem Internet) und/oder einige Kombinationen davon sein. Wie in dem Fall der Befehle, können alle Suchanfragen durch den Benutzer über Sprache oder durch Tippen eingegeben werden. Die Multifunktionsvorrichtung kann konfiguriert werden, um Suchergebnisse grafisch innerhalb jeder hier beschriebenen Kartenansichten anzuzeigen. Zum Beispiel kann ein Pin oder ein anderer grafischer Indikator Orte der Suchergebnisse als Punkt von Interesse spezifizieren. In verschiedenen Ausführungsformen, antworten auf eine Benutzerauswahl, eines dieser Punkte von Interesse (z.B. eine Berührungsselektion, so wie ein Tippen), ist die Multifunktionsvorrichtung konfiguriert, um zusätzliche Informationen über den selektierten Punkt von Interesse anzuzeigen, beinhaltend aber nicht limitiert auf Bewertungen, Prüfungen oder Prüfungsausschnitte, Betriebsstunden, Geschäftsstatus (z.B. Offen für Verkauf, permanent geschlossen usw.) und/oder Bilder der Fassade des Punktes von Interesse. In verschiedenen Ausführungsformen können all diese Informationen in einer grafischen Informationskarte angezeigt werden, die als Antwort auf die Benutzerselektion des Punktes von Interesse angezeigt wird.
  • In verschiedenen Ausführungsformen stellen der Kartendienst 4630 und/oder andere Dienst(e) 4650 ein oder mehrere Rückmeldemechanismen bereit, um Rückmeldung von den Clientvorrichtungen 46o2a-46o2c zu erhalten. Zum Beispiel können Clientvorrichtungen Rückmeldung auf Suchresultate dem Kartendienst 4630 und/oder anderen Dienst(e) 4650 bereitstellen (z.B. Rückmeldung, welche Bewertungen, Rezensionen, temporäre oder permanente Schließungen von Geschäften, Fehler usw. spezifizieren); diese Rückmeldung kann verwendet werden, um Informationen über Punkte von Interesse zu aktualisieren, um genauere oder aktuellere Suchergebnisse in Zukunft bereitzustellen. In einigen Ausführungsformen kann der Kartendienst 4630 und/oder andere Dienst(e) 4650 Testinformationen der Clientvorrichtung bereitstellen (z.B. ein A/B-Test), um zu ermitteln, welche Suchergebnisse die Besten sind. Zum Beispiel kann die Clientvorrichtung in zufälligen Intervallen zwei Suchergebnisse erhalten und dem Benutzer darstellen und dem Benutzer erlauben, das beste Resultat anzugeben. Die Benutzervorrichtung kann die Testergebnisse dem Kartendienst 4630 und/oder anderen Dienst(en) 4650 mitteilen, um zukünftige Suchergebnisse basierend auf der gewählten Testtechnik, sowie eine A/B-Testtechnik, in welcher eine Basislinienstichprobe mit einer Vielzahl an Testproben mit einzelner Variable verglichen wird, um die Ergebnisse zu verbessern.

Claims (15)

  1. Ein Verfahren zum Bereitstellen von Navigationsanweisungen für eine Vorrichtung, die ein Anzeigebildschirm aufweist, wobei das Verfahren umfasst: Ausführen einer Vielzahl von Anwendungen, eine Navigationsanwendung beinhaltend; wenn die Navigationsanwendung im Vordergrund ausgeführt wird, Behalten den Anzeigebildschirm an und die Vorrichtung in einem nicht gesperrten Modus, um Punkt-zu-Punkt-Navigationsinstruktionen auf dem Anzeigebildschirm darzustellen, während die Vorrichtung verschiedene Navigationspunkte entlang der Navigationsroute passiert; Ausschalten des Anzeigebildschirms und Betreiben der Vorrichtung in einem Sperrmodus; und in dem Sperrmodus: Bestimmen, dass die Vorrichtung sich einem Navigationspunkt nähert, während der Anzeigebildschirm der Vorrichtung ausgeschaltet ist; automatisches Einschalten des Anzeigebildschirms; Anzeigen von Navigationsanweisungen ohne die Vorrichtung aus dem Sperrmodus zu nehmen; und Ausschalten des Anzeigebildschirms, wenn die Vorrichtung den Navigationspunkt passiert hat.
  2. Verfahren nach Anspruch 1, wobei, wenn die Vorrichtung im Sperrmodus ist, ein Zugriff zu einer Vielzahl von Anwendungen, die auf der elektronischen Vorrichtung installiert sind, verhindert wird, bis eine Eingabe zum Entsperren des Anzeigebildschirms empfangen wird.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen, dass die Vorrichtung sich einem Navigationspunkt nähert, eine Bestimmung, dass die Vorrichtung näher als eine vorbestimmte Schwellendistanz zu dem Navigationspunkt ist, umfasst.
  4. Verfahren nach Anspruch 1, wobei das Passieren des Navigationspunktes ein Passieren des Navigationspunktes mit einer vorbestimmten Schwellendistanz umfasst.
  5. Verfahren nach Anspruch 1, wobei die Navigationsinstruktionen durch die Navigationsanwendung, die auf der Vorrichtung ausgeführt wird, bereitgestellt werden, wobei das Verfahren weiterhin umfasst: Empfangen eines Entsperrbefehls; und Entsperren der Vorrichtung in die Navigationsanwendung, obwohl eine unterschiedliche Anwendung in einem Vordergrund der Vorrichtung geöffnet war, bevor die Vorrichtung gesperrt wurde.
  6. Verfahren nach Anspruch 1, ferner umfassend: Empfangen einer Textnachricht, während der Anzeigebildschirm im Sperrmodus ausgeschaltet ist; automatisches Einschalten des Anzeigebildschirms, sogar wenn die Vorrichtung nicht nahe eines Navigationsortes ist; und Anzeigen einer Nachrichtzugriffssteuerung.
  7. Verfahren nach Anspruch 6, ferner umfassend: Empfangen einer Auswahl von der Nachrichtzugriffssteuerung, ohne die Vorrichtung zu entsperren; und Anzeigen der Nachricht ohne die Vorrichtung zu entsperren.
  8. Verfahren nach Anspruch 1, wobei Bestimmen, dass die Vorrichtung sich einem Navigationspunkt nähert, während der Anzeigebildschirm ausgeschaltet ist, umfasst: Identifizieren einer Umgebungslichtstufe um die Vorrichtung; und automatisches Einschalten des Anzeigebildschirms in einer Helligkeitsstufe, die basierend auf der identifizierten Umgebungslichtstufe bestimmt wurde.
  9. Verfahren nach Anspruch 1, ferner umfassend, nach Einschalten des Anzeigebildschirms, Anzeigen einer Menge sich verringernder Distanzen zwischen einem aktuellen Ort der Vorrichtung und dem Navigationspunkt, während die Vorrichtung sich dem Navigationspunkt nähert, ohne die Vorrichtung zu entsperren.
  10. Verfahren nach Anspruch 1, ferner umfassend: nachdem der Navigationspunkt passiert ist, Anzeigen einer nächsten Navigationsinstruktion; und Ausschalten des Anzeigebildschirms.
  11. Verfahren nach Anspruch 8, wobei Einschalten des Anzeigebildschirms in einer Helligkeitsstufe, die basierend auf der identifizierten Umgebungslichtstufe ermittelt wird, Einschalten des Anzeigebildschirms in einer ersten Helligkeitsstufe basierend auf einer ersten Umgebungslichtstufe und einer Helligkeitsstufe basierend auf einer zweiten Umgebungslichtstufe umfasst, wobei, wenn die erste Umgebungslichtstufe höher ist als die zweite Umgebungslichtstufe, die erste Umgebungslichtstufe auf eine höhere Stufe als die zweite Helligkeitsstufe gesetzt wird.
  12. Verfahren nach Anspruch 8, wobei das Identifizieren des Umgebungslichts eine Aktivierung eines Umgebungslichtstufensensors vor dem Erreichen des Navigationspunktes umfasst.
  13. Verfahren nach Anspruch 1 ferner umfassend, wenn die Navigationsanwendung im Hintergrund ausgeführt wird, Ausschalten der Anzeige und Setzen der Vorrichtung in einen Sperrmodus nach Erkennen einer Periode von Inaktivität in einem nicht gesperrten Modus.
  14. Computerlesbares Medium, das ein Programm speichert, zum Ausführen durch zumindest eine Verarbeitungseinheit, wobei das Programm Mengen von Instruktionen für die Implementierung der Verfahren gemäß allen Ansprüchen 1-13 umfasst.
  15. Elektronische Vorrichtung umfassend: eine Menge an Verarbeitungseinheiten; ein berührungsempfindlicher Bildschirm; eine Berührungseingabeschnittstelle; und ein computerlesbares Medium, das eine Navigationsanwendung speichert, zum Ausführen durch zumindest eine der Verarbeitungseinheiten, wobei das Navigationsprogramm Mengen von Instruktionen für die Implementierung der Verfahren gemäß allen Ansprüchen 1-13 umfasst.
DE112013002796.8T 2012-06-05 2013-05-29 Bereitstellen von Navigationsinstruktionen während eine Vorrichtung im Sperrmodus ist Active DE112013002796B4 (de)

Applications Claiming Priority (33)

Application Number Priority Date Filing Date Title
US201261655997P 2012-06-05 2012-06-05
US201261655995P 2012-06-05 2012-06-05
US61/655,997 2012-06-05
US61/655,995 2012-06-05
US201261656080P 2012-06-06 2012-06-06
US201261656043P 2012-06-06 2012-06-06
US201261656015P 2012-06-06 2012-06-06
US201261656032P 2012-06-06 2012-06-06
US61/656,015 2012-06-06
US61/656,032 2012-06-06
US61/656,043 2012-06-06
US61/656,080 2012-06-06
US201261657880P 2012-06-10 2012-06-10
US201261657864P 2012-06-10 2012-06-10
US61/657,864 2012-06-10
US61/657,880 2012-06-10
US201261699851P 2012-09-11 2012-09-11
US201261699857P 2012-09-11 2012-09-11
US201261699842P 2012-09-11 2012-09-11
US201261699841P 2012-09-11 2012-09-11
US201261699853P 2012-09-11 2012-09-11
US201261699855P 2012-09-11 2012-09-11
US61/699,841 2012-09-11
US61/699,842 2012-09-11
US61/699,853 2012-09-11
US61/699,857 2012-09-11
US61/699,855 2012-09-11
US61/699,851 2012-09-11
US13/632,120 US9052197B2 (en) 2012-06-05 2012-09-30 Providing navigation instructions while device is in locked mode
US13/632,125 2012-09-30
US13/632,120 2012-09-30
US13/632,125 US8965696B2 (en) 2012-06-05 2012-09-30 Providing navigation instructions while operating navigation application in background
PCT/US2013/043190 WO2013184472A2 (en) 2012-06-05 2013-05-29 Providing navigation instructions while device is in locked mode

Publications (2)

Publication Number Publication Date
DE112013002796T5 DE112013002796T5 (de) 2015-04-02
DE112013002796B4 true DE112013002796B4 (de) 2023-09-14

Family

ID=49775111

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013002796.8T Active DE112013002796B4 (de) 2012-06-05 2013-05-29 Bereitstellen von Navigationsinstruktionen während eine Vorrichtung im Sperrmodus ist

Country Status (6)

Country Link
US (5) US9052197B2 (de)
EP (3) EP3502624B1 (de)
CN (2) CN108021303B (de)
AU (1) AU2016213819B2 (de)
DE (1) DE112013002796B4 (de)
WO (1) WO2013184472A2 (de)

Families Citing this family (158)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
US9273979B2 (en) * 2011-05-23 2016-03-01 Microsoft Technology Licensing, Llc Adjustable destination icon in a map navigation tool
US20150029214A1 (en) * 2012-01-19 2015-01-29 Pioneer Corporation Display device, control method, program and storage medium
USD730364S1 (en) * 2012-06-05 2015-05-26 Apple Inc. Display screen or portion thereof with a graphical user interface
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US20130321400A1 (en) 2012-06-05 2013-12-05 Apple Inc. 3D Map Views for 3D Maps
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
USD740832S1 (en) * 2012-06-06 2015-10-13 Apple Inc. Display screen or portion thereof with a graphical user interface
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
USD739859S1 (en) 2012-06-06 2015-09-29 Apple Inc. Display screen or portion thereof with graphical user interface
USD719973S1 (en) * 2012-06-06 2014-12-23 Apple Inc. Display screen or portion thereof with graphical user interface
USD709915S1 (en) * 2012-06-11 2014-07-29 Apple Inc. Display screen or portion thereof with graphical user interface
US20140040832A1 (en) * 2012-08-02 2014-02-06 Stephen Regelous Systems and methods for a modeless 3-d graphics manipulator
KR101494234B1 (ko) * 2012-09-14 2015-02-17 팅크웨어(주) 경로 검색을 위한 사용자 인터페이스 장치 및 그 방법
US9575650B2 (en) * 2012-10-26 2017-02-21 Htc Corporation Mobile communications device, non-transitory computer-readable medium and method of switching screen of mobile communications device from screen locked state to screen unlocked state
USD735214S1 (en) * 2012-11-30 2015-07-28 Google Inc. Display screen or portion thereof with graphical user interface
US9341479B2 (en) 2013-03-05 2016-05-17 Google Inc. Configurable point of interest alerts
CN104036160B (zh) * 2013-03-07 2019-03-15 腾讯科技(深圳)有限公司 一种网页浏览方法、装置及浏览器
USD750663S1 (en) 2013-03-12 2016-03-01 Google Inc. Display screen or a portion thereof with graphical user interface
US8676431B1 (en) 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
USD754189S1 (en) 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
USD754190S1 (en) * 2013-03-13 2016-04-19 Google Inc. Display screen or portion thereof with graphical user interface
US9164653B2 (en) 2013-03-15 2015-10-20 Inspace Technologies Limited Three-dimensional space for navigating objects connected in hierarchy
US9225677B2 (en) * 2013-03-15 2015-12-29 Facebook, Inc. Systems and methods for displaying a digest of messages or notifications without launching applications associated with the messages or notifications
JP6022386B2 (ja) * 2013-03-21 2016-11-09 株式会社ジオ技術研究所 3次元地図表示装置、3次元地図表示方法、および、コンピュータプログラム
JP6179166B2 (ja) * 2013-04-16 2017-08-16 アイシン・エィ・ダブリュ株式会社 地点表示システム、方法およびプログラム
US20140337781A1 (en) * 2013-05-10 2014-11-13 International Business Machines Corporation Optimized non-grid based navigation
US10824328B2 (en) 2013-05-10 2020-11-03 International Business Machines Corporation Optimized non-grid based navigation
US9721107B2 (en) 2013-06-08 2017-08-01 Apple Inc. Using biometric verification to grant access to redacted content
WO2014203358A1 (ja) * 2013-06-19 2014-12-24 株式会社東芝 方法、電子機器およびプログラム
US8755824B1 (en) 2013-06-28 2014-06-17 Google Inc. Clustering geofence-based alerts for mobile devices
KR101988319B1 (ko) * 2013-09-09 2019-06-12 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US10054463B2 (en) 2013-09-26 2018-08-21 Google Llc Systems and methods for providing navigation data to a vehicle
US20150088411A1 (en) * 2013-09-26 2015-03-26 Google Inc. Providing Digital Images to an External Device During Navigation
KR102192157B1 (ko) * 2013-09-26 2020-12-16 삼성전자주식회사 검색 장소에 대한 관련 정보를 제공하는 전자 장치 및 방법
USD752617S1 (en) * 2013-10-23 2016-03-29 Ares Trading S.A. Display screen with graphical user interface
US20150135116A1 (en) * 2013-11-14 2015-05-14 Microsoft Corporation Control user interface element for continuous variable
KR102263695B1 (ko) * 2014-01-20 2021-06-10 삼성전자 주식회사 복수개의 카메라를 이용한 휴대 장치 및 제어방법
US9986375B2 (en) 2014-02-12 2018-05-29 Google Llc Energy-efficient location determination
US9509822B2 (en) 2014-02-17 2016-11-29 Seungman KIM Electronic apparatus and method of selectively applying security in mobile device
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD780777S1 (en) * 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9692879B1 (en) 2014-05-20 2017-06-27 Invincea, Inc. Methods and devices for secure authentication to a compute device
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
KR20150137799A (ko) * 2014-05-30 2015-12-09 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10578449B2 (en) * 2014-06-02 2020-03-03 Ent. Services Development Corporation Lp Waypoint navigator
KR102255432B1 (ko) * 2014-06-17 2021-05-24 팅크웨어(주) 전자 장치 및 그의 제어 방법
US9677898B2 (en) 2014-06-17 2017-06-13 Think Ware Corporation Electronic apparatus and control method thereof
JP2016048541A (ja) * 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
USD755232S1 (en) * 2014-06-20 2016-05-03 Google Inc. Portion of a display screen with icon
WO2016022204A1 (en) 2014-08-02 2016-02-11 Apple Inc. Context-specific user interfaces
US9478042B1 (en) 2014-08-12 2016-10-25 Google Inc. Determining visibility of rendered content
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
CN106662988B (zh) * 2014-08-27 2020-10-27 索尼公司 显示控制装置、显示控制方法及存储介质
US9638538B2 (en) 2014-10-14 2017-05-02 Uber Technologies, Inc. Street-level guidance via route path
CN104391667B (zh) * 2014-10-31 2019-01-04 小米科技有限责任公司 事项内容显示方法及装置
US9378688B2 (en) * 2014-11-24 2016-06-28 Caterpillar Inc. System and method for controlling brightness in areas of a liquid crystal display
CN105783938A (zh) * 2014-12-19 2016-07-20 大陆汽车投资(上海)有限公司 基于语音的地图操作方法及路径规划方法
USD789417S1 (en) 2014-12-22 2017-06-13 Google Inc. Portion of a display panel with a transitional graphical user interface component for a lock screen interface
US9207092B1 (en) * 2014-12-22 2015-12-08 Google Inc. Displaying navigation information within a secondary user interface of a mobile device
US10123276B2 (en) * 2014-12-31 2018-11-06 Bandwidthx Inc. Systems and methods for optimizing mobile device radio management for user experience
US9959129B2 (en) 2015-01-09 2018-05-01 Microsoft Technology Licensing, Llc Headless task completion within digital personal assistants
US9417087B1 (en) * 2015-02-06 2016-08-16 Volkswagen Ag Interactive 3D navigation system
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
KR101722671B1 (ko) * 2015-03-31 2017-04-03 네이버 주식회사 대중교통 노선 서비스와 지도 서비스를 연결하는 방법과 시스템 및 기록 매체
WO2016165284A1 (zh) 2015-04-13 2016-10-20 华为技术有限公司 启动任务管理界面的方法、装置及设备
KR101750876B1 (ko) * 2015-05-28 2017-06-26 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
US10514271B2 (en) 2015-06-06 2019-12-24 Apple Inc. Mapping application with transit mode
US9702724B2 (en) 2015-06-06 2017-07-11 Apple Inc. Mapping application with transit mode
US10401180B2 (en) 2015-06-07 2019-09-03 Apple Inc. Frequency based transit trip characterizations
CN105091894A (zh) * 2015-06-30 2015-11-25 百度在线网络技术(北京)有限公司 导航方法、智能终端设备及可穿戴设备
US10067988B2 (en) 2015-07-21 2018-09-04 Uber Technologies, Inc. User-based content filtering and ranking to facilitate on-demand services
EP4321088A3 (de) 2015-08-20 2024-04-24 Apple Inc. Übungsbasiertes uhrengesicht und komplikationen
IL241446B (en) * 2015-09-10 2018-05-31 Elbit Systems Ltd Display adjustments on user screens and guiding users' attention
US10739960B2 (en) * 2015-09-22 2020-08-11 Samsung Electronics Co., Ltd. Performing application-specific searches using touchscreen-enabled computing devices
US9971470B2 (en) * 2015-09-30 2018-05-15 Apple Inc. Navigation application with novel declutter mode
KR102648349B1 (ko) 2015-11-13 2024-03-15 하만인터내셔날인더스트리스인코포레이티드 차량 내 시스템용 사용자 인터페이스
US10217283B2 (en) * 2015-12-17 2019-02-26 Google Llc Navigation through multidimensional images spaces
US9626874B1 (en) 2016-01-06 2017-04-18 Qualcomm Incorporated Systems and methods for managing restricted areas for unmanned autonomous vehicles
US20170242432A1 (en) * 2016-02-24 2017-08-24 Dronomy Ltd. Image processing for gesture-based control of an unmanned aerial vehicle
CN105758417A (zh) * 2016-02-25 2016-07-13 广东欧珀移动通信有限公司 一种终端导航的方法及系统
US9581460B1 (en) * 2016-03-29 2017-02-28 Toyota Motor Engineering & Manufacturing North America, Inc. Apparatus and method transitioning between driving states during navigation for highly automated vechicle
CN109074618B (zh) * 2016-04-11 2024-04-09 开利公司 在与多个访问控件交互时捕获用户意图
JP6855170B2 (ja) * 2016-04-13 2021-04-07 キヤノン株式会社 電子機器およびその制御方法
US10459616B2 (en) 2016-04-15 2019-10-29 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic full screen display
US9846052B2 (en) * 2016-04-29 2017-12-19 Blackriver Systems, Inc. Electronic route creation
US20180188935A1 (en) * 2016-06-09 2018-07-05 Samsung Electronics Co., Ltd. Method and electronic device for managing notifications in a notification panel
USD854548S1 (en) * 2016-06-15 2019-07-23 Hyundai Mobis Co., Ltd. Display screen or portion thereof with graphical user interface
US20180017403A1 (en) * 2016-07-12 2018-01-18 Google Inc. Navigation API for Linking Software Applications
CN107796409B (zh) * 2016-09-05 2021-03-05 阿里巴巴(中国)有限公司 一种导航控制方法及装置
JP6411669B2 (ja) * 2016-09-12 2018-10-24 楽天株式会社 携帯端末、消費電力制御プログラム、及び消費電力制御方法
KR102507252B1 (ko) 2016-09-23 2023-03-07 애플 인크. 워치 극장 모드
US20180088749A1 (en) * 2016-09-26 2018-03-29 Uber Technologies, Inc. Customized content generation for a user interface for a network service
US9791291B1 (en) 2016-09-26 2017-10-17 Uber Technologies, Inc. Modifying map configurations based on established location points
US10410017B2 (en) * 2016-09-30 2019-09-10 The Toronto-Dominion Bank Device lock bypass on selectable alert
US20180129519A1 (en) * 2016-11-08 2018-05-10 Srinivas Bharadwaj Method and system for emulating application running in secondary device on primary device
USD842331S1 (en) * 2016-11-14 2019-03-05 Lyft, Inc. Display screen or portion thereof with animated graphical user interface
US10270727B2 (en) * 2016-12-20 2019-04-23 Palantir Technologies, Inc. Short message communication within a mobile graphical map
USD839882S1 (en) * 2017-01-03 2019-02-05 Faraday & Future Inc. Vehicle display screen or portion thereof with graphical user interface
CN106713662B (zh) * 2017-01-23 2020-03-24 北京安云世纪科技有限公司 定位系统性能的优化方法、装置及移动终端
AU2017399473B2 (en) 2017-02-15 2021-03-11 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for on-demand service
CN109074236B (zh) 2017-02-15 2022-06-07 北京嘀嘀无限科技发展有限公司 在终端设备上提供信息的系统和方法
EP4040368A1 (de) 2017-04-27 2022-08-10 Snap Inc. Ausgabemechanismus mit niedriger latenz für kartenbasierte gui
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
DK179555B1 (en) 2017-05-16 2019-02-13 Apple Inc. USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE
JP1601053S (de) * 2017-05-18 2018-04-02
US20180366084A1 (en) * 2017-06-19 2018-12-20 Qualcomm Incorporated Switching between display technologies
KR102535031B1 (ko) * 2017-07-19 2023-05-22 삼성전자주식회사 디스플레이장치, 그 제어방법 및 그 컴퓨터프로그램제품
USD908140S1 (en) * 2017-09-05 2021-01-19 Future Mobility Corporation Limited Display screen or portion thereof with an animated graphical user interface
USD907054S1 (en) 2017-09-05 2021-01-05 Byton Limited Display screen or portion thereof with a graphical user interface
USD899328S1 (en) 2017-09-05 2020-10-20 Byton Limited Steering wheel
JP7147146B2 (ja) * 2017-09-27 2022-10-05 カシオ計算機株式会社 携帯型電子時計、表示方法および表示プログラム
USD858549S1 (en) * 2017-10-27 2019-09-03 Waymo Llc Display screen portion with graphical user interface
USD858550S1 (en) * 2017-10-27 2019-09-03 Waymo Llc Display screen portion with graphical user interface
CN107846518B (zh) * 2017-11-15 2020-06-12 维沃移动通信有限公司 一种导航状态切换方法、移动终端及计算机可读存储介质
US10854164B1 (en) * 2018-01-25 2020-12-01 Dell Products L.P. Generating visual indicators representing complexity of processes
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
US10270899B1 (en) 2018-03-06 2019-04-23 Titan Health & Security Technologies, Inc. Community safety, security, health communication and emergency notification system providing emergency source tracking
USD875740S1 (en) * 2018-03-14 2020-02-18 Google Llc Display screen with graphical user interface
USD879114S1 (en) * 2018-03-29 2020-03-24 Google Llc Display screen with graphical user interface
US11086474B2 (en) * 2018-04-09 2021-08-10 Spatial Systems Inc. Augmented reality computing environments—mobile device join and load
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US10473468B1 (en) * 2018-09-12 2019-11-12 Verizon Patent And Licensing Inc. Systems and methods for real-time updating of attributes of an area and status of devices within the area
CN109348528A (zh) * 2018-09-17 2019-02-15 Oppo(重庆)智能科技有限公司 显示控制方法及相关产品
KR20200042660A (ko) * 2018-10-16 2020-04-24 현대자동차주식회사 차량 디스플레이 제어 장치, 그를 포함한 시스템 및 그 방법
CN111258878B (zh) * 2018-12-03 2023-05-30 斑马智行网络(香港)有限公司 应用测试方法、装置、设备及存储介质
US20200183762A1 (en) * 2018-12-06 2020-06-11 International Business Machines Corporation Simulation distraction suppression
CN109669753B (zh) * 2018-12-21 2022-02-22 福建星网视易信息系统有限公司 数字视听系统界面显示方法及计算机可读存储介质
CN109752018A (zh) * 2019-01-16 2019-05-14 北京百度网讯科技有限公司 信息获取方法及装置
US11407436B2 (en) 2019-03-04 2022-08-09 Byton North America Corporation Steering wheel with fixed center
DE102019204036A1 (de) * 2019-03-25 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Navigationsvorrichtung und Navigationsvorrichtung
US20200311194A1 (en) * 2019-03-27 2020-10-01 Hexagon Technology Center Gmbh Structured data jump mechanism
CN109992873B (zh) * 2019-03-27 2020-12-22 北京交通大学 车站导向标识的安装设计方法
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
KR102393717B1 (ko) 2019-05-06 2022-05-03 애플 인크. 전자 디바이스의 제한된 동작
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11120593B2 (en) 2019-05-24 2021-09-14 Rovi Guides, Inc. Systems and methods for dynamic visual adjustments for a map overlay
US11674818B2 (en) 2019-06-20 2023-06-13 Rovi Guides, Inc. Systems and methods for dynamic transparency adjustments for a map overlay
USD914706S1 (en) * 2019-06-28 2021-03-30 The Charles Machine Works, Inc. Display screen with graphical user interface
DK180684B1 (en) 2019-09-09 2021-11-25 Apple Inc Techniques for managing display usage
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
CN115904596B (zh) 2020-05-11 2024-02-02 苹果公司 用于管理用户界面共享的用户界面
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
CN113729572B (zh) * 2020-05-29 2022-12-06 宝时得科技(中国)有限公司 清洁机器人及其控制方法
CN113779300B (zh) * 2020-06-09 2024-05-07 比亚迪股份有限公司 语音输入引导方法、装置和车机
CN112596653B (zh) * 2020-12-17 2023-02-24 维沃移动通信有限公司 路线图的显示方法、装置和电子设备
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US20220390242A1 (en) * 2021-06-06 2022-12-08 Apple Inc. Presenting Transit Alight Notifications
BR102021013558A2 (pt) * 2021-07-08 2023-01-17 Globetek Holding, Llc. Sistema para provisão de empréstimos financeiros ou viabilização de garantia, processos de bloqueio e de desbloqueio
US20230236547A1 (en) 2022-01-24 2023-07-27 Apple Inc. User interfaces for indicating time
US20230418449A1 (en) * 2022-06-22 2023-12-28 Rivian Ip Holdings, Llc User interface adjustment based on proximity to upcoming maneuver
CN117631907B (zh) * 2024-01-26 2024-05-10 安科优选(深圳)技术有限公司 具有摄像模块的信息显示设备及信息显示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6360167B1 (en) 1999-01-29 2002-03-19 Magellan Dis, Inc. Vehicle navigation system with location-based multi-media annotation
DE10239438A1 (de) 2002-08-28 2004-03-04 Robert Bosch Gmbh Navigationssystem für ein Kraftfahrzeug
US20070265772A1 (en) 2006-03-08 2007-11-15 Pieter Geelen Portable navigation device

Family Cites Families (668)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US636314A (en) 1899-08-01 1899-11-07 August Wilhelm Billman Hose-coupling.
EP0199780B1 (de) 1984-10-22 1996-12-27 Etak, Inc. Vorrichtung zur vorführung einer karte
US4914605A (en) 1984-10-22 1990-04-03 Etak, Inc. Apparatus and method for displaying a map
US4797836A (en) 1986-11-19 1989-01-10 The Grass Valley Group, Inc. Image orientation and animation using quaternions
US5459702A (en) 1988-07-01 1995-10-17 Greenspan; Myron Apparatus and method of improving the quality of recorded dictation in moving vehicles
US5031104A (en) 1988-12-05 1991-07-09 Sumitomo Electric Industries, Ltd. Adaptive in-vehicle route guidance system
US5289572A (en) 1989-10-24 1994-02-22 Mitsubishi Denki Kabushiki Kaisha Electronic map combined with user service information
DE69130549T2 (de) 1990-06-11 1999-05-27 Hitachi, Ltd., Tokio/Tokyo Vorrichtung zur Erzeugung eines Objektbewegungsweges
US5359712A (en) 1991-05-06 1994-10-25 Apple Computer, Inc. Method and apparatus for transitioning between sequences of digital information
EP0534533B1 (de) 1991-09-25 1997-02-05 Koninklijke Philips Electronics N.V. Gerät und Verfahren für Kartenanzeige in der Fahrzeugnavigation
US5654892A (en) 1991-10-18 1997-08-05 Zexel Usa Corporation Navigation system displaying forthcoming turns
JP3235866B2 (ja) 1992-05-08 2001-12-04 パイオニア株式会社 ナビゲーション装置
JP2602158B2 (ja) 1992-12-04 1997-04-23 株式会社エクォス・リサーチ 音声出力装置
US6259446B1 (en) 1992-12-23 2001-07-10 Object Technology Licensing Corporation Menu state system
US5459667A (en) 1993-01-22 1995-10-17 Sumitomo Electric Industries, Ltd. Navigation apparatus for informing vehicle driver of information regarding travel route
FR2705561B1 (fr) 1993-04-23 1995-08-04 Glories Serge Tétine perfectionnée pour biberon.
US5321161A (en) 1993-05-17 1994-06-14 Akzo Nv Hydrogenation of nitriles by a tungsten carbide catalyst
US5353319A (en) 1993-07-16 1994-10-04 General Electric Company Removable feedwater sparger assembly
US6321158B1 (en) 1994-06-24 2001-11-20 Delorme Publishing Company Integrated routing/mapping information
US7432830B2 (en) 1994-06-24 2008-10-07 Navteq North America, Llc Electronic navigation system and method
US5592173A (en) * 1994-07-18 1997-01-07 Trimble Navigation, Ltd GPS receiver having a low power standby mode
DE69529871T2 (de) 1994-09-20 2003-11-20 Aisin Aw Co., Ltd. Fahrzeugnavigationssystem
US5692173A (en) 1994-12-13 1997-11-25 Microsoft Corporation Method and system for combining prefix and first character searching of a list
JPH08271274A (ja) 1995-03-28 1996-10-18 Mitsubishi Electric Corp 移動経路生成装置
US5848375A (en) 1995-04-19 1998-12-08 Nippon Telegraph And Telephone Corporation Method of automatically generating road network information and system for embodying the same
US6654014B2 (en) 1995-04-20 2003-11-25 Yoshinori Endo Bird's-eye view forming method, map display apparatus and navigation system
EP1174843B1 (de) 1995-06-13 2005-11-09 Matsushita Electric Industrial Co., Ltd. Fahrzeugnavigationsvorrichtung und Aufzeichnungsmedium zur Programmabspeicherung dafür
CN2240163Y (zh) * 1995-06-23 1996-11-13 信利电子有限公司 显示屏自动背景光照明计算器
EP0762080B1 (de) 1995-08-25 2002-03-27 Aisin Aw Co., Ltd. Navigationssystem für Fahrzeuge
JP3745802B2 (ja) 1995-10-13 2006-02-15 株式会社日立製作所 画像生成/表示装置
US5862511A (en) 1995-12-28 1999-01-19 Magellan Dis, Inc. Vehicle navigation system and method
US6029111A (en) 1995-12-28 2000-02-22 Magellan Dis, Inc. Vehicle navigation system and method using GPS velocities
JP3226153B2 (ja) 1996-03-18 2001-11-05 シャープ株式会社 マルチメディアデータ表示装置
JPH09292830A (ja) 1996-04-25 1997-11-11 Hitachi Ltd 電子地図表示方法及び電子地図表示装置
US5888591A (en) 1996-05-06 1999-03-30 Massachusetts Institute Of Technology Chemical vapor deposition of fluorocarbon polymer thin films
US5748194A (en) 1996-05-08 1998-05-05 Live Picture, Inc. Rendering perspective views of a scene using a scanline-coherent look-up table
EP0900042B1 (de) 1996-05-24 2000-12-13 Hirtler GmbH Dosierspender für seifenpulver
EP0820046B9 (de) 1996-06-19 2007-02-14 Matsushita Electric Industrial Co., Ltd. Gerät zur Gewinnung von Strassennetzzonendaten aus den Blockdaten einer Strassennetzkarte, System zum Umformen dieser Daten und Darstellung einer umgeformten Karte und geographisches Informationssystem
KR100260760B1 (ko) 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US5878368A (en) 1996-09-13 1999-03-02 Magellan Dis, Inc. Navigation system with user definable cost values
JPH10224289A (ja) * 1997-02-07 1998-08-21 Nippon Denki Ido Tsushin Kk 携帯無線装置
JP3503397B2 (ja) 1997-02-25 2004-03-02 Kddi株式会社 地図表示システム
WO1998043192A1 (en) 1997-03-24 1998-10-01 Scientific-Atlanta, Inc. In-vehicle screen blanking using global positioning system (gps) speed data
WO1998052176A1 (fr) 1997-05-09 1998-11-19 Xanavi Informatics Corporation Dispositif de base de donnees pour cartes, dispositif d'afficharge et support d'enregistrement de cartes comportant et utilisant efficacement les donnees de hauteur
JP3582560B2 (ja) 1997-07-08 2004-10-27 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置及び記録媒体
JPH1138868A (ja) 1997-07-16 1999-02-12 Zanavy Informatics:Kk 地図表示装置
JP3644473B2 (ja) 1997-08-07 2005-04-27 アイシン・エィ・ダブリュ株式会社 地図表示装置及び記録媒体
ES2280096T3 (es) 1997-08-29 2007-09-01 Kabushiki Kaisha Sega Doing Business As Sega Corporation Sistema de procesamiento de imagen y metodo de procesamiento de imagen.
US6496189B1 (en) 1997-09-29 2002-12-17 Skyline Software Systems Ltd. Remote landscape display and pilot training
EP1798704A2 (de) 1997-10-27 2007-06-20 Matsushita Electric Industrial Co., Ltd. Dreidimensionale Kartenanzeigeeinrichtung und Erzeugungseinrichtung
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6192314B1 (en) 1998-03-25 2001-02-20 Navigation Technologies Corp. Method and system for route calculation in a navigation application
JP3514626B2 (ja) 1998-04-14 2004-03-31 インクリメント・ピー株式会社 ルート情報提供システム及びそれに用いるwwwサーバ、並びに、ルート情報提供方法及びそれに用いるwwwサーバ
US6611753B1 (en) 1998-04-17 2003-08-26 Magellan Dis, Inc. 3-dimensional intersection display for vehicle navigation system
US6163269A (en) 1998-05-05 2000-12-19 Magellan Dis, Inc. Navigation system with anti-alias map display
US6141588A (en) 1998-07-24 2000-10-31 Intermedics Inc. Cardiac simulation system having multiple stimulators for anti-arrhythmia therapy
US6363145B1 (en) 1998-08-17 2002-03-26 Siemens Information And Communication Networks, Inc. Apparatus and method for automated voice analysis in ACD silent call monitoring
US6598016B1 (en) 1998-10-20 2003-07-22 Tele Atlas North America, Inc. System for using speech recognition with map data
US6178380B1 (en) 1998-10-22 2001-01-23 Magellan, Dis, Inc. Street identification for a map zoom of a navigation system
JP3918326B2 (ja) 1998-10-26 2007-05-23 株式会社デンソー 経路設定装置及びナビゲーション装置
US6292743B1 (en) 1999-01-06 2001-09-18 Infogation Corporation Mobile navigation system
JP4486175B2 (ja) 1999-01-29 2010-06-23 株式会社日立製作所 立体地図表示装置および方法
US20030158786A1 (en) 1999-02-26 2003-08-21 Skyline Software Systems, Inc. Sending three-dimensional images over a network
US7119819B1 (en) 1999-04-06 2006-10-10 Microsoft Corporation Method and apparatus for supporting two-dimensional windows in a three-dimensional environment
JP2000305452A (ja) 1999-04-21 2000-11-02 Sony Corp 電子地図装置および電子地図の表示方法
US6710774B1 (en) 1999-05-12 2004-03-23 Denso Corporation Map display device
US6597649B2 (en) 1999-05-21 2003-07-22 Matsushita Electric Industrial Co., Ltd. Recordable optical disk
JP4155671B2 (ja) 1999-07-12 2008-09-24 アルパイン株式会社 車載用ナビゲーション装置
US6611738B2 (en) * 1999-07-12 2003-08-26 Bryan J. Ruffner Multifunctional mobile appliance
CN1124729C (zh) * 1999-08-19 2003-10-15 北京首信股份有限公司 移动电话机的显示屏照明及键盘照明的省电装置使用方法
US6396475B1 (en) 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
US6321161B1 (en) 1999-09-09 2001-11-20 Navigation Technologies Corporation Method and system for providing guidance about alternative routes with a navigation system
DE19944067A1 (de) 1999-09-14 2001-03-15 Mannesmann Vdo Ag Verfahren zur Anzeige von Primär- und Sekundärinformationen
JP3234823B2 (ja) 1999-09-29 2001-12-04 インターナショナル・ビジネス・マシーンズ・コーポレーション 道路データの処理方法、地図データ処理装置、地図データ処理システム、道路データを処理するためのソフトウエア・プロダクトを格納した記憶媒体
US6674772B1 (en) 1999-10-28 2004-01-06 Velio Communicaitons, Inc. Data communications circuit with multi-stage multiplexing
US6801226B1 (en) 1999-11-01 2004-10-05 Ita Software, Inc. Graphical user interface for travel planning system
DE19956112A1 (de) 1999-11-22 2001-05-23 Mannesmann Vdo Ag Navigationssystem mit verbesserter Objektauswahl
JP2001165670A (ja) 1999-12-10 2001-06-22 Alpine Electronics Inc ナビゲーション装置
US6363322B1 (en) 1999-12-22 2002-03-26 Magellan Dis, Inc. Navigation system with unique audio tones for maneuver notification
US6526335B1 (en) 2000-01-24 2003-02-25 G. Victor Treyz Automobile personal computer systems
JP3438693B2 (ja) * 2000-02-03 2003-08-18 日本電気株式会社 表示部付き電子機器
GB0002985D0 (en) 2000-02-09 2000-03-29 Travelfusion Limited Integrated journey planner
US6381534B2 (en) 2000-02-14 2002-04-30 Fujitsu Limited Navigation information presenting apparatus and method thereof
US6615130B2 (en) 2000-03-17 2003-09-02 Makor Issues And Rights Ltd. Real time vehicle guidance and traffic forecasting system
EP1282855B1 (de) 2000-03-17 2011-10-12 Microsoft Corporation System und verfahren zur abstraktion und visualisierung einer routenkarte
US6480783B1 (en) 2000-03-17 2002-11-12 Makor Issues And Rights Ltd. Real time vehicle guidance and forecasting system under traffic jam conditions
US7151996B2 (en) 2000-04-14 2006-12-19 Mobileye Technologies Limited System and method for generating a model of the path of a roadway from an image recorded by a camera
AU2001264954A1 (en) 2000-05-25 2001-12-03 Realitybuy, Inc. A real time, three-dimensional, configurable, interactive product display systemand method
US6253151B1 (en) 2000-06-23 2001-06-26 Navigation Technologies Corp. Navigation system with feature for reporting errors
US6707452B1 (en) 2000-07-19 2004-03-16 Pixar Method and apparatus for surface approximation without cracks
US20030078729A1 (en) 2000-08-04 2003-04-24 Eriko Ohdachi Route guide information generator, route guide information generating method, and navigation system
US6941220B2 (en) 2000-09-12 2005-09-06 Center Comm Corporation Apparatus and method for vehicle navigation
US6374180B1 (en) 2000-09-18 2002-04-16 Magellan Dis, Inc. Points of interest for a navigation system
US7865306B2 (en) 2000-09-28 2011-01-04 Michael Mays Devices, methods, and systems for managing route-related information
US6873998B1 (en) 2000-10-18 2005-03-29 Navteq North America, Llc System and method for updating a geographic database using satellite imagery
US6978177B1 (en) 2000-11-14 2005-12-20 Cardiac Pacemakers, Inc. Method and apparatus for using atrial discrimination algorithms to determine optimal pacing therapy and therapy timing
US6865403B1 (en) 2000-11-28 2005-03-08 Sprint Spectrum L.P. Method and system for simplified control of a subscriber terminal
JP3727854B2 (ja) 2001-01-30 2005-12-21 株式会社東芝 道案内生成方法および道案内装置およびサーバ装置および地図情報編集支援装置およびプログラム
US6415224B1 (en) 2001-02-06 2002-07-02 Alpine Electronics, Inc. Display method and apparatus for navigation system
JP2002243480A (ja) 2001-02-22 2002-08-28 Kenwood Corp ナビゲーションシステム、迂回経路表示選択方法およびプログラム
US7184003B2 (en) * 2001-03-16 2007-02-27 Dualcor Technologies, Inc. Personal electronics device with display switching
WO2002083852A2 (en) 2001-04-10 2002-10-24 Bioprocessors Corporation Microfermentor device and cell based screening method
US6526349B2 (en) 2001-04-23 2003-02-25 Motorola, Inc. Method of compiling navigation route content
CN1280611C (zh) 2001-04-25 2006-10-18 滕春霖 声控互动式可全球化导航系统及方法
US20020164998A1 (en) 2001-05-01 2002-11-07 Saed Younis System and method for providing position-based information to a user of a wireless device
US7149625B2 (en) 2001-05-31 2006-12-12 Mathews Michael B Method and system for distributed navigation and automated guidance
JP3603118B2 (ja) 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
US6600654B2 (en) 2001-06-29 2003-07-29 International Business Machines Corporation System for securing a processor socket
US6539300B2 (en) 2001-07-10 2003-03-25 Makor Issues And Rights Ltd. Method for regional system wide optimal signal timing for traffic control based on wireless phone networks
US6577946B2 (en) 2001-07-10 2003-06-10 Makor Issues And Rights Ltd. Traffic information gathering via cellular phone networks for intelligent transportation systems
US7130457B2 (en) 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US6640185B2 (en) 2001-07-21 2003-10-28 Alpine Electronics, Inc. Display method and apparatus for navigation system
US6574531B2 (en) 2001-07-25 2003-06-03 Visteon Global Technologies, Inc. Method and apparatus for providing information to an occupant of a vehicle
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
CN1330937C (zh) 2001-08-06 2007-08-08 松下电器产业株式会社 信息提供方法
US7082365B2 (en) 2001-08-16 2006-07-25 Networks In Motion, Inc. Point of interest spatial rating search method and system
US7920682B2 (en) 2001-08-21 2011-04-05 Byrne William J Dynamic interactive voice interface
JP2003156339A (ja) 2001-09-10 2003-05-30 Pioneer Electronic Corp 通信ナビゲーションシステム並びにそのサーバ装置および端末装置、通信ナビゲーション方法並びに通信ナビゲーションプログラム
US7148908B2 (en) 2001-10-31 2006-12-12 Eastman Kodak Company Method and apparatus for generating image transitions
AU2002343688A1 (en) 2001-11-15 2003-06-10 Nintendo Software Technology Corporation System and method of simulating and imaging realistic water surface
JP2003161624A (ja) 2001-11-28 2003-06-06 Alpine Electronics Inc ナビゲーション装置及び交差点案内方法
JP3594011B2 (ja) 2001-11-30 2004-11-24 株式会社デンソー ナビゲーション装置
US6704645B1 (en) 2001-12-11 2004-03-09 Garmin Ltd. System and method for estimating impedance time through a road network
US7663628B2 (en) 2002-01-22 2010-02-16 Gizmoz Israel 2002 Ltd. Apparatus and method for efficient animation of believable speaking 3D characters in real time
EP1478904A2 (de) 2002-01-23 2004-11-24 M-Spatial Limited Erzeugung einer schematischen darstellung
JP3902483B2 (ja) 2002-02-13 2007-04-04 三菱電機株式会社 音声処理装置及び音声処理方法
AU2003228329A1 (en) 2002-03-15 2003-09-29 Summus, Inc. Methods and systems for downloading and viewing maps
US20030182183A1 (en) 2002-03-20 2003-09-25 Christopher Pribe Multi-car-pool organization method
JP4031282B2 (ja) 2002-04-17 2008-01-09 株式会社ザナヴィ・インフォマティクス ナビゲーション装置およびナビゲーション制御プログラム
GB0208835D0 (en) 2002-04-18 2002-05-29 Koninkl Philips Electronics Nv A method of labelling an image on a display
US8102253B1 (en) 2002-06-27 2012-01-24 Earthcomber, Llc System and method for notifying a user of people, places or things having attributes matching a user's stated preference
US7103854B2 (en) 2002-06-27 2006-09-05 Tele Atlas North America, Inc. System and method for associating text and graphical views of map information
JP4300767B2 (ja) 2002-08-05 2009-07-22 ソニー株式会社 ガイドシステム、コンテンツサーバ、携帯装置、情報処理方法、情報処理プログラム、及び記憶媒体
JP2004087857A (ja) 2002-08-27 2004-03-18 Nec Electronics Corp 電圧制御可変容量素子の等価回路
US6970693B2 (en) * 2002-09-06 2005-11-29 Telefonaktiebolaget Lm Ericsson (Publ) Method, system and telecommunication node for alternative prepaid support
US7116326B2 (en) 2002-09-06 2006-10-03 Traffic.Com, Inc. Method of displaying traffic flow data representing traffic conditions
JP2004101366A (ja) 2002-09-10 2004-04-02 Hitachi Ltd 携帯通信端末及びこれを用いたナビゲーションシステム
CN100533504C (zh) 2002-09-18 2009-08-26 智点科技股份有限公司 高智能实时交通管理的装置及方法
JP4087678B2 (ja) 2002-10-10 2008-05-21 株式会社ザナヴィ・インフォマティクス 地図データ送信方法
US7589732B2 (en) 2002-11-05 2009-09-15 Autodesk, Inc. System and method of integrated spatial and temporal navigation
JP2004212056A (ja) 2002-12-26 2004-07-29 Aisin Aw Co Ltd ナビゲーションシステム及び経路探索方法のプログラム
KR100648342B1 (ko) 2003-02-10 2006-11-23 엘지전자 주식회사 네비게이션 시스템 및 그 동작 방법
DE602004005427T2 (de) 2003-02-26 2007-10-25 Tomtom International B.V. Navigationseinrichtung mit berührungsschirm
JP2004259206A (ja) 2003-02-27 2004-09-16 Ntt Docomo Inc 情報管理装置、情報出力システム、携帯端末、及び情報出力方法
JP2004271901A (ja) 2003-03-07 2004-09-30 Matsushita Electric Ind Co Ltd 地図表示装置
JP4165700B2 (ja) 2003-04-25 2008-10-15 パイオニア株式会社 経路探索システム及び方法、ナビゲーションシステム並びにコンピュータプログラム
TWI220508B (en) 2003-05-02 2004-08-21 Sin Etke Technology Co Ltd Easy vehicle navigation method and system
US20050027705A1 (en) 2003-05-20 2005-02-03 Pasha Sadri Mapping method and system
JP4138574B2 (ja) 2003-05-21 2008-08-27 株式会社日立製作所 カーナビゲーション装置
US20040243307A1 (en) 2003-06-02 2004-12-02 Pieter Geelen Personal GPS navigation device
AU2003265278A1 (en) 2003-07-16 2005-03-07 Harman Becker Automotive Systems Gmbh Transmission of special routes to a navigation device
US7620494B1 (en) 2003-07-17 2009-11-17 Mapquest, Inc. Using routing symbols to describe a driving maneuver
EP1500907B1 (de) 2003-07-21 2014-11-12 LG Electronics, Inc. Gerät und Verfahren zum Detektieren einer Fahrzeugposition in einem Navigationssystem
US7467356B2 (en) 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
JP4447865B2 (ja) 2003-08-01 2010-04-07 ソニー株式会社 地図表示システム、地図データ加工装置、地図表示装置及び地図表示方法
JP4486331B2 (ja) 2003-08-12 2010-06-23 クラリオン株式会社 ナビゲーション装置の経路探索方法
DE10337852A1 (de) 2003-08-18 2005-03-17 Robert Bosch Gmbh Fahrzeugsystem
US7054745B1 (en) 2003-09-03 2006-05-30 Microsoft Corporation Method and system for generating driving directions
JP4170178B2 (ja) 2003-09-04 2008-10-22 三菱電機株式会社 経路探索装置
US7634352B2 (en) 2003-09-05 2009-12-15 Navteq North America, Llc Method of displaying traffic flow conditions using a 3D system
KR20050026811A (ko) 2003-09-09 2005-03-16 삼성전자주식회사 오프라인 경로안내 방법
JP4026071B2 (ja) 2003-09-25 2007-12-26 ソニー株式会社 車載装置及びコンテンツ提供方法
US7065448B1 (en) 2003-10-01 2006-06-20 America Online, Inc. Presenting driving directions
GB0324800D0 (en) * 2003-10-24 2003-11-26 Trafficmaster Plc Route guidance system
US7233861B2 (en) 2003-12-08 2007-06-19 General Motors Corporation Prediction of vehicle operator destinations
JP4317000B2 (ja) 2003-12-10 2009-08-19 パイオニア株式会社 案内誘導装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP4009958B2 (ja) 2003-12-24 2007-11-21 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
JP4333369B2 (ja) 2004-01-07 2009-09-16 株式会社デンソー 雑音除去装置、及び音声認識装置、並びにカーナビゲーション装置
US7522995B2 (en) 2004-02-05 2009-04-21 Nortrup Edward H Method and system for providing travel time information
US20050177305A1 (en) 2004-02-06 2005-08-11 Han Maung W. Display method and apparatus for navigation system
US20050210008A1 (en) 2004-03-18 2005-09-22 Bao Tran Systems and methods for analyzing documents over a network
CN1934416A (zh) 2004-03-22 2007-03-21 日本先锋公司 导航装置、导航方法、导航程序和计算机可读取记录介质
US7158878B2 (en) 2004-03-23 2007-01-02 Google Inc. Digital mapping system
JP4241826B2 (ja) 2004-03-29 2009-03-18 株式会社日立製作所 ナビゲーション装置および経路誘導方法
US20050228553A1 (en) 2004-03-30 2005-10-13 Williams International Co., L.L.C. Hybrid Electric Vehicle Energy Management System
US7680594B2 (en) 2004-04-06 2010-03-16 Honda Motor Co., Ltd. Display method and system for a vehicle navigation system
US7373244B2 (en) 2004-04-20 2008-05-13 Keith Kreft Information mapping approaches
JP3874356B2 (ja) 2004-05-06 2007-01-31 株式会社ナビタイムジャパン 携帯型案内装置
JP4123187B2 (ja) 2004-05-13 2008-07-23 ソニー株式会社 アニメーション生成装置、アニメーション生成方法およびアニメーション生成プログラム
US7546207B2 (en) 2004-05-21 2009-06-09 Gm Global Technology Operations, Inc. Turn-by-turn navigation system with enhanced turn icon
US20050273251A1 (en) 2004-05-21 2005-12-08 Axel Nix Turn-by-turn navigation system with special routing features
JP4855654B2 (ja) 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US7460953B2 (en) 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
KR100697098B1 (ko) 2004-06-30 2007-03-20 에스케이 주식회사 안내점 지도를 이용한 텔레매틱스 서비스 제공 시스템 및그 방법
US20060015246A1 (en) 2004-07-15 2006-01-19 Alvin Hui Method and apparatus for specifying destination using previous destinations stored in navigation system
JP4130441B2 (ja) 2004-07-16 2008-08-06 三菱電機株式会社 地図情報処理装置
WO2006020088A1 (en) 2004-07-17 2006-02-23 Shahriar Sarkeshik Location codes for destination routing
US7251561B2 (en) 2004-07-28 2007-07-31 Telmap Ltd. Selective download of corridor map data
DE102004037858A1 (de) 2004-08-04 2006-03-16 Harman Becker Automotive Systems Gmbh Navigationssystem mit sprachgesteuerter Angabe von Sonderzielen
DE102004037900A1 (de) 2004-08-05 2006-03-16 Robert Bosch Gmbh Verfahren zur Darstellung von Navigationshinweisen
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
JP4599932B2 (ja) 2004-08-06 2010-12-15 アイシン・エィ・ダブリュ株式会社 ナビゲーションシステム
CN101002070A (zh) 2004-08-11 2007-07-18 日本先锋公司 移动向导装置、便携移动向导装置、移动向导系统、移动向导方法、移动向导程序、和记录了该程序的记录介质
US7158876B2 (en) 2004-08-13 2007-01-02 Hubert W. Crook Computer Consultants, Inc. Automated vehicle routing based on physical vehicle criteria
DE602004027236D1 (de) 2004-08-13 2010-07-01 Alpine Electronics Inc Fahrzeugnavigationssystem
JP4722433B2 (ja) 2004-08-25 2011-07-13 アルパイン株式会社 車載用ナビゲーション装置
WO2006028067A1 (ja) 2004-09-07 2006-03-16 Cad Center Corp. 三次元地図配信サーバ装置、クライアント端末装置および三次元地図配信システム
US7414637B2 (en) 2004-09-10 2008-08-19 Telmap Ltd. Placement of map labels
JP4213097B2 (ja) 2004-09-13 2009-01-21 三菱電機株式会社 カーナビゲーション装置
US7430473B2 (en) 2004-10-01 2008-09-30 Bose Corporation Vehicle navigation display
EP1805671A2 (de) 2004-10-18 2007-07-11 Societe de Technologie Michelin STM Verfahren zur bestimmung benachbarter punkte für ein digitales strassennetzsystem
JP4719500B2 (ja) 2004-11-04 2011-07-06 アルパイン株式会社 車載装置
US7376510B1 (en) 2004-11-05 2008-05-20 Navteq North America, Llc Map display for a navigation system
US8606516B2 (en) 2004-11-30 2013-12-10 Dash Navigation, Inc. User interface system and method for a vehicle navigation device
WO2006060518A2 (en) 2004-11-30 2006-06-08 Circumnav Networks, Inc. Methods for deducing road geometry and connectivity
US20060122872A1 (en) 2004-12-06 2006-06-08 Stevens Harold L Graphical user interface for and method of use for a computer-implemented system and method for booking travel itineraries
JP2006170769A (ja) 2004-12-15 2006-06-29 Aisin Aw Co Ltd 案内情報提供方法、案内情報提供システム、ナビゲーション装置及び入出力装置
US20060135259A1 (en) 2004-12-17 2006-06-22 Nokia Corporation System, game server, terminal, and method for game event notification in a multiplayer game
US7739038B2 (en) 2004-12-17 2010-06-15 Information Patterns Llc Methods and apparatus for geo-collaboration
US7849031B2 (en) 2004-12-22 2010-12-07 Hntb Holdings Ltd. Optimizing traffic predictions and enhancing notifications
JP2006184256A (ja) 2004-12-28 2006-07-13 Nissan Motor Co Ltd 案内システム、案内方法、案内システム用サーバー、案内システム用移動体端末装置、案内情報提供処理プログラム、及び、案内システム端末装置用プログラム
US7908080B2 (en) 2004-12-31 2011-03-15 Google Inc. Transportation routing
US20080114534A1 (en) 2005-01-07 2008-05-15 Navigation System And Portable Terminal Navigation System And Portable Terminal
EP1681537A1 (de) 2005-01-18 2006-07-19 Harman Becker Automotive Systems (Becker Division) GmbH Navigationssystem mit einer animierten Kreuzungsansicht
EP1852680A4 (de) 2005-01-19 2012-09-19 Jvc Kenwood Corp Führungsroutenerzeugungseinrichtung und führungsroutenerzeugungsverfahren
US7831433B1 (en) 2005-02-03 2010-11-09 Hrl Laboratories, Llc System and method for using context in navigation dialog
JP4727245B2 (ja) 2005-02-08 2011-07-20 三菱電機株式会社 地図情報処理装置
KR101035805B1 (ko) 2005-02-14 2011-05-20 삼성전자주식회사 이동체가 주행할 목적지까지 경로를 안내하는 방법
KR100688018B1 (ko) 2005-02-16 2007-02-27 엘지전자 주식회사 도로 명 데이터의 표시위치 결정방법
JP4319156B2 (ja) 2005-03-02 2009-08-26 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP2006284218A (ja) 2005-03-31 2006-10-19 Xanavi Informatics Corp ナビゲーション装置
US8626440B2 (en) 2005-04-18 2014-01-07 Navteq B.V. Data-driven 3D traffic views with the view based on user-selected start and end geographical locations
US7765055B2 (en) 2005-04-18 2010-07-27 Traffic.Com, Inc. Data-driven traffic views with the view based on a user-selected object of interest
JP3987073B2 (ja) 2005-04-20 2007-10-03 株式会社ナビタイムジャパン ナビゲーションシステム、経路探索サーバ、経路探索方法およびプログラム
US8103445B2 (en) 2005-04-21 2012-01-24 Microsoft Corporation Dynamic map rendering as a function of a user parameter
CN100435051C (zh) * 2005-04-26 2008-11-19 佛山市顺德区顺达电脑厂有限公司 自动取消电子装置的自动睡眠功能的方法
JP2006337182A (ja) 2005-06-02 2006-12-14 Xanavi Informatics Corp カーナビゲーションシステム、交通情報提供装置、カーナビゲーション装置、交通情報提供方法および交通情報提供プログラム
US7466872B2 (en) 2005-06-20 2008-12-16 Drvision Technologies Llc Object based boundary refinement method
US7746343B1 (en) 2005-06-27 2010-06-29 Google Inc. Streaming and interactive visualization of filled polygon data in a geographic information system
US7580791B2 (en) 2005-08-10 2009-08-25 Rm Acquisition, Llc Route evaluation system
US7315259B2 (en) 2005-08-11 2008-01-01 Google Inc. Techniques for displaying and caching tiled map data on constrained-resource services
JP4640043B2 (ja) 2005-08-25 2011-03-02 株式会社日立製作所 地図情報表示方法および地図情報配信方法
CN1921499A (zh) * 2005-08-26 2007-02-28 鸿富锦精密工业(深圳)有限公司 节电携带式电子装置
US20070067097A1 (en) * 2005-08-31 2007-03-22 Navicore Ltd. Power saving system for navigation device
JP2007078573A (ja) 2005-09-15 2007-03-29 Denso Corp 経路案内装置及びプログラム
US7957871B1 (en) 2005-09-29 2011-06-07 Hopstop.com, Inc. Methods and apparatuses for navigation in urban environments
JP4527644B2 (ja) 2005-10-13 2010-08-18 株式会社デンソー 車両用ナビゲーション装置
JP5185124B2 (ja) 2005-10-14 2013-04-17 ヤフー! インコーポレイテッド インタラクティブな地図生成の方法及びシステム
US7413211B2 (en) 2005-10-21 2008-08-19 Chrysler Llc Deactivation arrangement for a vehicle park assist system
DE602005011681D1 (de) * 2005-10-31 2009-01-22 Research In Motion Ltd Automatische Helligkeitsanpassung für Bildschirm und Tastatur eines tragbaren elektronischen Gerätes
US7701434B2 (en) * 2005-10-31 2010-04-20 Research In Motion Limited Automatic screen and keypad brightness adjustment on a mobile handheld electronic device
US8041506B2 (en) 2005-11-07 2011-10-18 Google Inc. Mapping in mobile devices
US20080086356A1 (en) 2005-12-09 2008-04-10 Steve Glassman Determining advertisements using user interest information and map-based location information
US20070140187A1 (en) 2005-12-15 2007-06-21 Rokusek Daniel S System and method for handling simultaneous interaction of multiple wireless devices in a vehicle
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7831917B1 (en) 2005-12-30 2010-11-09 Google Inc. Method, system, and graphical user interface for identifying and communicating with meeting spots
US8375325B2 (en) 2005-12-30 2013-02-12 Google Inc. Customizable, multi-function button
US7706973B2 (en) 2006-01-03 2010-04-27 Navitrail Llc Computer-aided route selection
US20070185650A1 (en) 2006-02-04 2007-08-09 Tatsuo Yokota Method and apparatus for searching point of interest by name or phone number
US9336333B2 (en) 2006-02-13 2016-05-10 Linkedin Corporation Searching and reference checking within social networks
TWI299144B (en) 2006-02-14 2008-07-21 Mitac Int Corp Navigation apparatus and method for voicing plan path
US20070200674A1 (en) 2006-02-14 2007-08-30 Garmin Ltd., A Cayman Islands Corporation Electronic device having a location-based security feature
JP4647514B2 (ja) 2006-02-17 2011-03-09 株式会社日立ソリューションズ 航空画像処理装置および航空画像処理方法
US20070208498A1 (en) 2006-03-03 2007-09-06 Inrix, Inc. Displaying road traffic condition information and user controls
US8532678B2 (en) 2006-03-08 2013-09-10 Tomtom International B.V. Portable GPS navigation device
US20080215234A1 (en) * 2007-03-01 2008-09-04 Pieter Geelen Portable navigation device
ATE527520T1 (de) 2006-03-08 2011-10-15 Harman Becker Automotive Sys Verfahren und system zur routenbestimmung und fahrerwarnung
JP5362544B2 (ja) 2006-03-15 2013-12-11 クゥアルコム・インコーポレイテッド ユーザのルートに基づいて関連性のある対象地点の情報を決定する方法および装置
US20070219718A1 (en) 2006-03-17 2007-09-20 General Motors Corporation Method for presenting a navigation route
US20070233371A1 (en) 2006-03-31 2007-10-04 Arne Stoschek Navigation system for a motor vehicle
US7743056B2 (en) 2006-03-31 2010-06-22 Aol Inc. Identifying a result responsive to a current location of a client device
US7702456B2 (en) 2006-04-14 2010-04-20 Scenera Technologies, Llc System and method for presenting a computed route
US7917285B2 (en) 2006-04-28 2011-03-29 Reagan Inventions, Llc Device, system and method for remotely entering, storing and sharing addresses for a positional information device
EP2023298A4 (de) 2006-05-09 2010-07-21 Sega Corp Bildverarbeitungseinrichtung und bildverarbeitungsprogramm
US9251521B2 (en) 2006-05-12 2016-02-02 At&T Intellectual Property I, L.P. Location-based alerting
US7707516B2 (en) 2006-05-26 2010-04-27 Google Inc. Embedded navigation interface
US9177472B2 (en) 2006-06-08 2015-11-03 Lg Electronics Inc. Method and apparatus for providing and using public transportation information
WO2007146967A2 (en) 2006-06-12 2007-12-21 Google Inc. Markup language for interactive geographic information system
CN101097135A (zh) 2006-06-30 2008-01-02 佛山市顺德区顺达电脑厂有限公司 语音导航的播放及切换方法
JP2008008838A (ja) 2006-06-30 2008-01-17 Sanyo Electric Co Ltd ナビゲーション装置
RU2008149112A (ru) 2006-06-30 2010-06-20 Теле Атлас Норт Америка, Инк. (Us) Способ и система для сбора пользовательских запросов на обновление относительно географических данных для поддержки автоматизированного анализа, обработки и обновлений географических данных
US20080062126A1 (en) 2006-07-06 2008-03-13 Algreatly Cherif A 3D method and system for hand-held devices
CN101101217A (zh) 2006-07-07 2008-01-09 逢甲大学 模拟三维实境导航系统
EP2042831A4 (de) 2006-07-14 2010-10-13 Honda Motor Co Ltd Navigationsserver, navigationseinrichtung und navigationssystem
US8275307B2 (en) 2006-07-24 2012-09-25 Qualcomm Incorporated Vehicle audio integrator
US7890499B1 (en) 2006-07-28 2011-02-15 Google Inc. Presentation of search results with common subject matters
JP2008039731A (ja) 2006-08-10 2008-02-21 Xanavi Informatics Corp ナビゲーション装置およびその画面表示方法
US7590487B2 (en) 2006-08-10 2009-09-15 Alpine Electronics, Inc. Method and apparatus of displaying three-dimensional arrival screen for navigation system
US20080082225A1 (en) 2006-08-15 2008-04-03 Tomtom International B.V. A method of reporting errors in map data used by navigation devices
GB2440958A (en) 2006-08-15 2008-02-20 Tomtom Bv Method of correcting map data for use in navigation systems
US7561169B2 (en) 2006-08-21 2009-07-14 Geo-Softworks, LLC Systems and methods for generating user specified information from a map
US7788600B2 (en) 2006-08-22 2010-08-31 Harman International Industries, Incorporated User interface for multifunction device
US7925982B2 (en) 2006-09-01 2011-04-12 Cheryl Parker System and method of overlaying and integrating data with geographic mapping applications
US7822546B2 (en) 2006-09-05 2010-10-26 Garmin Switzerland Gmbh Travel guide and schedule-based routing device and method
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080062173A1 (en) 2006-09-13 2008-03-13 Eric Tashiro Method and apparatus for selecting absolute location on three-dimensional image on navigation display
KR100862574B1 (ko) 2006-09-18 2008-10-09 엘지전자 주식회사 대중 교통수단의 이용가능에 대한 정보를 제공하고 이를이용하는 방법 및 장치
US8339990B1 (en) 2006-09-23 2012-12-25 Dash Navigation, Inc. System and method for matching capabilities of access points with those required by an application
US7937667B2 (en) 2006-09-27 2011-05-03 Donnelly Corporation Multimedia mirror assembly for vehicle
US8230361B2 (en) 2006-09-28 2012-07-24 Google Inc. Content feed user interface
US8786553B2 (en) * 2006-10-06 2014-07-22 Kyocera Corporation Navigation pad and method of using same
US20080109404A1 (en) 2006-11-03 2008-05-08 Sony Ericsson Mobile Communications Ab Location dependent music search
KR100821503B1 (ko) 2006-11-08 2008-04-14 팅크웨어(주) 차량 항법 시스템에서의 동적 디스플레이 모드 변경 방법및 그 장치
US8010407B1 (en) 2006-11-14 2011-08-30 Google Inc. Business finder for locating local businesses to contact
US8055440B2 (en) 2006-11-15 2011-11-08 Sony Corporation Method, apparatus and system for use in navigation
US7692658B2 (en) 2006-11-17 2010-04-06 Microsoft Corporation Model for layout animations
US8195383B2 (en) 2006-11-29 2012-06-05 The Boeing Company System and method for electronic moving map and aeronautical context display
KR100822010B1 (ko) 2006-11-30 2008-04-15 에스케이에너지 주식회사 교통정보 수집용 수치지도를 이용한 교통정보 제공 시스템및 방법
JP5076468B2 (ja) 2006-12-01 2012-11-21 株式会社デンソー 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置
US20080140314A1 (en) 2006-12-06 2008-06-12 Park Kenneth J Device orientation navigation system for mobile electronic device
EP2092275B1 (de) 2006-12-20 2012-10-31 Johnson Controls Technology Company System und verfahren zum bereitstellen von routenberechnungen und -daten für ein fahrzeug
CN1995917B (zh) 2006-12-21 2011-05-18 深圳市凯立德科技股份有限公司 一种电子地图俯视角度显示控制方法、装置及设备
JP2008158842A (ja) 2006-12-25 2008-07-10 Xanavi Informatics Corp 地図表示装置
US8095303B1 (en) 2006-12-29 2012-01-10 Mapquest, Inc. Identifying a route configured to travel through multiple points of interest
US8031164B2 (en) 2007-01-05 2011-10-04 Apple Inc. Backlight and ambient light sensor system
TW200829863A (en) 2007-01-05 2008-07-16 Asustek Comp Inc Personal navigation devices and related methods
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
EP2102602B1 (de) 2007-01-10 2016-03-30 TomTom International B.V. Benutzerschnittstelle für navigationsvorrichtung
US20080167812A1 (en) 2007-01-10 2008-07-10 Pieter Geelen Navigation device and method for fuel pricing display
US20080228393A1 (en) 2007-01-10 2008-09-18 Pieter Geelen Navigation device and method
US7830243B2 (en) 2007-02-02 2010-11-09 Chrysler Group Llc Dual mode vehicle blind spot system
JP4896761B2 (ja) 2007-02-16 2012-03-14 株式会社日立製作所 立体地図表示システム、立体地図の表示方法、及びそのプログラム
US7639162B2 (en) 2007-02-22 2009-12-29 Iac Search & Media, Inc. Map interface with removable path locations
DE102007030345A1 (de) 2007-02-28 2008-09-04 Navigon Ag Navigationseinrichtung und Verfahren zur grafischen Ausgabe von Navigationsanweisungen
EP1965172B1 (de) 2007-03-02 2010-11-17 Alpine Electronics, Inc. Informationsanzeigesystem und Verfahren zum Anzeigen von Information im Zusammenhang mit kartenbezogenen Daten
US20090064014A1 (en) 2007-03-12 2009-03-05 Dean Francis Nelson System and method of attracting, surveying, and marketing to consumers
AU2007349698A1 (en) 2007-03-21 2008-09-25 Tomtom International B.V. Apparatus for text-to-speech delivery and method therefor
EP2793217A3 (de) * 2007-03-26 2015-02-18 NEC Corporation Tragbares telefonendgerät, Bildanzeigesteuerungsverfahren, Programm dafür und Programmaufzeichnungsmedium
US8749585B2 (en) 2007-03-29 2014-06-10 Microsoft Corporation Adding custom content to mapping applications
EP2153345B1 (de) 2007-04-25 2013-04-17 LG Electronics Inc. Bereitstellung von streckeninformationen zwischen verschiedenen anwendungsinformationen und verwendung der streckeninformationen
EP1988638B1 (de) * 2007-04-30 2014-08-13 Harman Becker Automotive Systems GmbH Tragbare persönliche Navigationsvorrichtung
US8335642B2 (en) 2007-05-11 2012-12-18 The Boeing Company Method and apparatus for displaying a symbol for a vehicle
DE102007022226A1 (de) 2007-05-11 2008-11-13 Robert Bosch Gmbh System und Verfahren zur Bereitstellung einer Route
DE102007024061A1 (de) 2007-05-22 2008-11-27 Deutsche Telekom Ag Verfahren und Vorrichtung zur adaptiven Zielermittlung bei Navigationssystemen
US8306736B2 (en) 2007-05-25 2012-11-06 Alpine Electronics, Inc. Method and apparatus for variable speed route simulation operation for navigation system
US7925427B2 (en) 2007-06-21 2011-04-12 Xerox Corporation Metropolitan navigation system
US8302033B2 (en) * 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US9109904B2 (en) 2007-06-28 2015-08-18 Apple Inc. Integration of map services and user applications in a mobile device
DE102007030226A1 (de) 2007-06-29 2009-01-08 Robert Bosch Gmbh Kameragestütztes Navigationssystem und Verfahren zu seinem Betrieb
US8818618B2 (en) 2007-07-17 2014-08-26 Inthinc Technology Solutions, Inc. System and method for providing a user interface for vehicle monitoring system users and insurers
US8385658B2 (en) 2007-07-27 2013-02-26 Sportvision, Inc. Detecting an object in an image using multiple templates
DE102007036627A1 (de) 2007-08-02 2009-02-05 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
US20090040240A1 (en) 2007-08-08 2009-02-12 David Kirk Grotjohn Hovering table headers
US8326444B1 (en) 2007-08-17 2012-12-04 Adobe Systems Incorporated Method and apparatus for performing audio ducking
FI20070659L (fi) 2007-08-30 2009-03-01 Whatamap Com Oy Menetelmä karttasovellusten jakeluun
JP4509153B2 (ja) 2007-08-31 2010-07-21 三洋電機株式会社 ナビゲーション装置及び方法
JP4548460B2 (ja) 2007-08-31 2010-09-22 株式会社デンソー ナビゲーション装置
US8233670B2 (en) 2007-09-13 2012-07-31 Cognex Corporation System and method for traffic sign recognition
US20090082960A1 (en) 2007-09-26 2009-03-26 Xanavi Informatics Corporation Navigation system with enhanced display functions
TWI338770B (en) * 2007-10-03 2011-03-11 Kinpo Elect Inc Navigation device with power saving mechanism and method thereof
US7917288B2 (en) 2007-10-11 2011-03-29 Microsoft Corporation Abbreviated directions for route navigation
CN101408429B (zh) * 2007-10-11 2011-03-09 金宝电子工业股份有限公司 具有省电机制的导航装置与其方法
US20090100018A1 (en) 2007-10-12 2009-04-16 Jonathan Roberts System and method for capturing, integrating, discovering, and using geo-temporal data
US20090100342A1 (en) 2007-10-12 2009-04-16 Gabriel Jakobson Method and system for presenting address and mapping information
KR20090038540A (ko) 2007-10-16 2009-04-21 주식회사 현대오토넷 화면 상의 영상위치 변경 장치 및 방법, 그리고 그를이용한 네비게이션 시스템
US8204687B2 (en) 2007-10-22 2012-06-19 Sony Corporation Display route creation method, display route creation apparatus, and display route creation program
US7949546B1 (en) 2007-10-26 2011-05-24 Intuit Inc. Method and system for providing family medical history data
US20090119001A1 (en) 2007-11-07 2009-05-07 Public Routes. Com, Llc Method and system for finding multimodal transit route directions based on user preferred transport modes
DE102008051756A1 (de) 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
CN101842808A (zh) 2007-11-16 2010-09-22 电子地图有限公司 用于产生车道信息的方法及设备
ITTO20070852A1 (it) 2007-11-26 2008-02-25 Geomondo S R L Metodo di transizione tra due mappe tridimensionali geo-referenziate.
US9612126B2 (en) 2007-12-03 2017-04-04 Nokia Technologies Oy Visual travel guide
US20100280853A1 (en) 2007-12-05 2010-11-04 Michael Thomas Petralia Holistic multimodal transport apparatus and method
US8069142B2 (en) 2007-12-06 2011-11-29 Yahoo! Inc. System and method for synchronizing data on a network
CN101257787B (zh) 2007-12-06 2011-11-09 深圳创维-Rgb电子有限公司 一种导航系统与音视频播放系统的切换方法、系统及设备
JP2009145234A (ja) 2007-12-14 2009-07-02 Sony Corp ガイド情報提示システム、ガイド情報提示方法、サーバ装置、端末装置
US8175651B2 (en) 2007-12-17 2012-05-08 Motorola Mobility, Inc. Devices and methods for automating interactive voice response system interaction
CN101465903A (zh) * 2007-12-21 2009-06-24 希姆通信息技术(上海)有限公司 手机gps导航过程中处理外来事件的方法
US9341494B2 (en) 2007-12-21 2016-05-17 Nokia Technologies Oy Apparatuses and methods for managing route navigation via mobile devices
JP2009154647A (ja) 2007-12-26 2009-07-16 Aisin Aw Co Ltd マルチ画面表示装置及びそのプログラム
JP2009157053A (ja) 2007-12-26 2009-07-16 Aisin Aw Co Ltd 立体地図表示ナビゲーション装置、立体地図表示システム及び立体地図表示プログラム
JP5034932B2 (ja) 2007-12-26 2012-09-26 ソニー株式会社 表示装置、プログラム、及び記録媒体
KR20090071077A (ko) 2007-12-27 2009-07-01 엘지전자 주식회사 네비게이션 장치 및 이의 턴 지점 정보 제공방법
KR101479773B1 (ko) 2007-12-27 2015-01-13 엘지전자 주식회사 네비게이션 장치 및 이의 턴 지점 리스트 제공방법
US8229669B2 (en) 2007-12-31 2012-07-24 Wavemarket, Inc. Navigation system implementing dynamic route correction
AU2011218683B2 (en) * 2008-01-06 2013-05-30 Apple Inc. Graphical user interface for presenting location information
US8355862B2 (en) 2008-01-06 2013-01-15 Apple Inc. Graphical user interface for presenting location information
JP5219522B2 (ja) 2008-01-09 2013-06-26 アルパイン株式会社 音声明瞭度改善システム及び音声明瞭度改善方法
US8792916B2 (en) 2008-01-14 2014-07-29 Blackberry Limited Dynamic prioritization of label downloads
EP2080985B1 (de) 2008-01-18 2012-10-24 Navigon AG Navigationseinrichtung
DE102008025053B4 (de) 2008-01-18 2023-07-06 Garmin Switzerland Gmbh Navigationseinrichtung
JP4994256B2 (ja) 2008-01-28 2012-08-08 株式会社ジオ技術研究所 経路案内データベースのデータ構造
US9154606B2 (en) * 2008-01-30 2015-10-06 Google Inc. Notification of mobile device events
US8490025B2 (en) 2008-02-01 2013-07-16 Gabriel Jakobson Displaying content associated with electronic mapping systems
US8504945B2 (en) 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
US20090207121A1 (en) * 2008-02-19 2009-08-20 Yung-Ho Shih Portable electronic device automatically controlling back light unit thereof and method for the same
US20090216442A1 (en) 2008-02-26 2009-08-27 Nokia Corporation Method, apparatus and computer program product for map feature detection
US8346465B2 (en) 2008-02-26 2013-01-01 Apline Electronics, Inc Method and apparatus for determining and displaying meaningful cross street for navigation system
US8411087B2 (en) 2008-02-28 2013-04-02 Microsoft Corporation Non-linear beam tracing for computer graphics
JP2009204481A (ja) 2008-02-28 2009-09-10 Aisin Aw Co Ltd ナビゲーション装置及びプログラム
JP5094475B2 (ja) 2008-02-29 2012-12-12 株式会社日立製作所 ナビゲーション機器
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8095302B2 (en) 2008-03-04 2012-01-10 The Boeing Company Discrepancy reporting in electronic map applications
JP5024134B2 (ja) 2008-03-14 2012-09-12 アイシン・エィ・ダブリュ株式会社 走行情報作成装置、走行情報作成方法及びプログラム
DE102008036748A1 (de) 2008-03-17 2009-10-08 Navigon Ag Verfahren zum Betrieb einer Navigationseinrichtung
US8237791B2 (en) 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
AU2009227944B2 (en) 2008-03-25 2014-09-11 E-Lane Systems Inc. Multi-participant, mixed-initiative voice interaction system
CN102037324B (zh) 2008-04-01 2015-05-13 德卡尔塔公司 用于提供到兴趣点的路线的方法及系统
WO2009124156A1 (en) 2008-04-01 2009-10-08 Decarta Inc. Gradually changing perspective map
US8428869B2 (en) 2008-04-07 2013-04-23 Telecommunication Systems, Inc. Context enabled address selection
US8339403B2 (en) 2008-04-16 2012-12-25 Microsoft Corporation Multi-layered slide transitions
KR101085390B1 (ko) 2008-04-30 2011-11-21 주식회사 코아로직 3d 네비게이션을 위한 영상표현 방법, 장치 및 그 장치를포함한 모바일 장치
US9250092B2 (en) 2008-05-12 2016-02-02 Apple Inc. Map service with network-based query for search
US20090284478A1 (en) 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
US8121780B2 (en) 2008-05-18 2012-02-21 Volkswagen Of America, Inc. Method for offering a user reward based on a chosen navigation route
AU2008357168A1 (en) 2008-05-29 2009-12-03 Tomtom International B.V. A navigation device and method for altering map information related to audible information
US8417296B2 (en) * 2008-06-05 2013-04-09 Apple Inc. Electronic device with proximity-based radio power control
JP5003599B2 (ja) 2008-06-09 2012-08-15 株式会社Jvcケンウッド 地図情報表示装置および地図情報表示方法
KR20090128068A (ko) 2008-06-10 2009-12-15 엘지전자 주식회사 네비게이션 장치 및 그 제어 방법
US9104738B2 (en) 2008-06-19 2015-08-11 Tropare, Inc. Leveraging collaborative cloud services to build and share apps
US8631340B2 (en) 2008-06-25 2014-01-14 Microsoft Corporation Tab management in a user interface window
US8103441B2 (en) 2008-06-26 2012-01-24 Microsoft Corporation Caching navigation content for intermittently connected devices
JP5667974B2 (ja) 2008-06-30 2015-02-12 トムトム インターナショナル ベスローテン フエンノートシャップ 効率的な位置参照方法
JP2010014455A (ja) 2008-07-02 2010-01-21 Aisin Aw Co Ltd ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
EP2297724A4 (de) 2008-07-03 2014-10-08 Blackberry Ltd Verfahren und system zum schnellen klippen von liniensegmenten
KR20110038021A (ko) 2008-07-11 2011-04-13 텔레 아틀라스 비. 브이. 교차로 뷰 디스플레이 장치 및 방법
US8345014B2 (en) 2008-07-12 2013-01-01 Lester F. Ludwig Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface
CA2734987A1 (en) 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
US20100057358A1 (en) 2008-08-28 2010-03-04 TeleType Co., Inc. Portable gps map device for commercial vehicle industry
CN101349569B (zh) 2008-08-29 2012-03-21 深圳市凯立德科技股份有限公司 一种导航信息播放方法和导航信息播放装置
US8311287B2 (en) 2008-09-25 2012-11-13 Microsoft Corporation Validation and correction of map data using oblique images
EP3029422B1 (de) 2008-10-07 2017-12-06 TomTom Navigation B.V. Validierung von kartendatenkorrekturen
KR20110069053A (ko) 2008-10-07 2011-06-22 톰톰 인터내셔날 비.브이. 경로 미리보기
US8060582B2 (en) * 2008-10-22 2011-11-15 Google Inc. Geocoding personal information
DE102008053547B4 (de) 2008-10-28 2018-03-01 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von Informationen auf einer Anzeigefläche in einem Fahrzeug
US20100125386A1 (en) 2008-10-30 2010-05-20 Faroog Abdel-Kareem Ibrahim False alarm management in das and csw system using false alarm database and map database sensor
JP2010107380A (ja) 2008-10-30 2010-05-13 Alpine Electronics Inc 車載用電子装置、動画再生方法および動画再生プログラム
KR20100052274A (ko) * 2008-11-10 2010-05-19 삼성전자주식회사 일체형 도광판을 채용한 반사 투과형 디스플레이 장치
US8583373B2 (en) 2008-11-17 2013-11-12 At&T Services, Inc. Methods and apparatuses for providing enhanced navigation services
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
WO2010061528A1 (ja) 2008-11-28 2010-06-03 三菱電機株式会社 ナビゲーション装置
US8610673B2 (en) 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US8423283B2 (en) 2008-12-11 2013-04-16 Telogis, Inc. System and method for efficient routing on a network in the presence of multiple-edge restrictions and other constraints
DE102008061988A1 (de) 2008-12-12 2010-06-17 Volkswagen Ag Verfahren und Vorrichtung zum Anzeigen von Informationen
US8880568B2 (en) 2008-12-16 2014-11-04 Here Global B.V. Report generation for a navigation-related database
US8990004B2 (en) 2008-12-17 2015-03-24 Telenav, Inc. Navigation system with query mechanism and method of operation thereof
CN101451852B (zh) * 2008-12-19 2012-01-04 华为终端有限公司 导航设备和导航方法
AU2008365415A1 (en) 2008-12-19 2010-06-24 Tele Atlas B.V. Dynamically mapping images on objects in a navigation system
US9019173B2 (en) 2008-12-23 2015-04-28 Elektrobit Automotive Gmbh Method for generating manoeuvre graphics in a navigation device
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8571514B2 (en) 2009-01-28 2013-10-29 Sony Corporation Mobile device and method for providing location based content
JP2010175517A (ja) 2009-02-02 2010-08-12 Sony Corp ナビゲーション装置
US20100205060A1 (en) 2009-02-09 2010-08-12 Yahoo! Inc. Context-sensitive route generation system
US8963702B2 (en) 2009-02-13 2015-02-24 Inthinc Technology Solutions, Inc. System and method for viewing and correcting data in a street mapping database
US8428758B2 (en) 2009-02-16 2013-04-23 Apple Inc. Dynamic audio ducking
WO2010096762A2 (en) * 2009-02-23 2010-08-26 Provo Craft And Novelty, Inc. Controller device
DE102010006702A1 (de) 2009-02-26 2010-09-02 Navigon Ag Verfahren und Vorrichtung zur Berechnung alternativer Routen in einem Navigationssystem
US8335675B1 (en) 2009-02-27 2012-12-18 Adobe Systems Incorporated Realistic real-time simulation of natural media paints
US20100225644A1 (en) 2009-03-05 2010-09-09 Navteq North America, Llc Method and System for Transitioning Between Views in a Traffic Report
US8165321B2 (en) 2009-03-10 2012-04-24 Apple Inc. Intelligent clip mixing
JP2012520491A (ja) 2009-03-16 2012-09-06 トムトム ポルスカ エスペー・ゾオ 高度情報を使用してデジタル地図を更新する方法
JP5066123B2 (ja) 2009-03-24 2012-11-07 日立オートモティブシステムズ株式会社 車両運転支援装置
TWI393862B (zh) 2009-03-25 2013-04-21 Mitac Int Corp 將記錄於來源資料之道路名稱與地點名稱予以整合之方法
US8352112B2 (en) 2009-04-06 2013-01-08 GM Global Technology Operations LLC Autonomous vehicle management
US8781870B2 (en) 2009-05-11 2014-07-15 Microsoft Corporation Personal information management with location functionality
US20100306191A1 (en) 2009-05-27 2010-12-02 Lebeau Michael J Computer Application Data In Search Results
US8713453B2 (en) 2009-05-29 2014-04-29 Microsoft Corporation Progressively discovering and integrating services
US8315793B2 (en) 2009-06-03 2012-11-20 Honeywell International Inc. Integrated micro-electro-mechanical systems (MEMS) sensor device
US8464182B2 (en) 2009-06-07 2013-06-11 Apple Inc. Device, method, and graphical user interface for providing maps, directions, and location-based information
US8732592B2 (en) 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
US8930438B2 (en) 2009-06-17 2015-01-06 Apple Inc. Push-based location update
US8942918B2 (en) 2009-06-19 2015-01-27 GM Global Technology Operations LLC Multiple route pre-calculation and presentation for a vehicle navigation system
US8260550B2 (en) 2009-06-19 2012-09-04 GM Global Technology Operations LLC Presentation of navigation instructions using variable levels of detail
JP2011002395A (ja) 2009-06-22 2011-01-06 Aisin Aw Co Ltd 地点検索装置、地点検索方法及びプログラム
US8374390B2 (en) 2009-06-24 2013-02-12 Navteq B.V. Generating a graphic model of a geographic object and systems thereof
US20100332468A1 (en) 2009-06-26 2010-12-30 Simon John Cantrell Spatial search engine support of virtual earth visualization system
JP4977177B2 (ja) 2009-06-26 2012-07-18 クラリオン株式会社 統計交通情報生成装置およびそのプログラム
US20110004589A1 (en) 2009-07-06 2011-01-06 Rockwell Automation Technologies, Inc. Diagnostics in a distributed directory system
US8319170B2 (en) * 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
US9728006B2 (en) 2009-07-20 2017-08-08 Real Time Companies, LLC Computer-aided system for 360° heads up display of safety/mission critical data
US8494936B2 (en) 2009-08-10 2013-07-23 Mory Brenner Method for decision making using artificial intelligence
US9465890B1 (en) 2009-08-10 2016-10-11 Donald Jay Wilson Method and system for managing and sharing geographically-linked content
US8933960B2 (en) 2009-08-14 2015-01-13 Apple Inc. Image alteration techniques
US20110054775A1 (en) 2009-08-25 2011-03-03 Thomas David Snyder Electronic device with gps application triggered display
WO2011023246A1 (en) 2009-08-25 2011-03-03 Tele Atlas B.V. A vehicle navigation system and method
US8442767B2 (en) 2009-08-28 2013-05-14 Navteq B.V. Method of operating a navigation system to provide route guidance
US8370060B2 (en) 2009-08-28 2013-02-05 Navteq B.V. Method of operating a navigation system to provide route guidance
US8364398B2 (en) 2009-08-28 2013-01-29 Navteq B.V. Method of operating a navigation system to provide route guidance
CN101996210A (zh) 2009-08-31 2011-03-30 国际商业机器公司 用于搜索电子地图的方法和系统
US20110060523A1 (en) 2009-09-10 2011-03-10 Peter James Baron Method of utilizing a personal navigation device to suggest alternate routes being identified by recognizable street names
US20110077852A1 (en) 2009-09-25 2011-03-31 Mythreyi Ragavan User-defined marked locations for use in conjunction with a personal navigation device
US9338274B2 (en) 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US8078359B2 (en) * 2009-10-05 2011-12-13 Tesla Motors, Inc. User configurable vehicle user interface
JP5351283B2 (ja) 2009-10-16 2013-11-27 パイオニア株式会社 地図表示装置、地図表示方法及び地図表示プログラム
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US9743486B2 (en) * 2009-10-30 2017-08-22 E Ink Holdings Inc. Electronic device
US20110106439A1 (en) 2009-11-04 2011-05-05 In-Tai Huang Method of displaying multiple points of interest on a personal navigation device
WO2011054546A1 (en) 2009-11-04 2011-05-12 Tele Atlas B. V. Map corrections via human machine interface
US8589069B1 (en) 2009-11-12 2013-11-19 Google Inc. Enhanced identification of interesting points-of-interest
JP2011114863A (ja) 2009-11-23 2011-06-09 Samsung Electronics Co Ltd 3D映像の提供方法、3D映像の変換方法、GUI提供方法及びこれを適用した3Dディスプレイ装置、そして3D映像の提供システム{Methodforproviding3Dimage、methodforconverting3Dimage、GUIprovidingmethodrelatedto3Dimageand3Ddisplayapparatusandsystemforproviding3Dimage}
JP5440128B2 (ja) * 2009-11-27 2014-03-12 日本電気株式会社 節電通知システム、端末装置、方法及びプログラム
US8386715B2 (en) 2009-11-30 2013-02-26 Nokia Corporation Method and apparatus for tile mapping techniques
US20110131500A1 (en) 2009-11-30 2011-06-02 Google Inc. System and method of providing enhanced listings
JP4943543B2 (ja) 2009-11-30 2012-05-30 パイオニア株式会社 地図表示装置、地図表示方法、地図表示プログラムおよび記録媒体
US8566020B2 (en) 2009-12-01 2013-10-22 Nokia Corporation Method and apparatus for transforming three-dimensional map objects to present navigation information
US20110137561A1 (en) 2009-12-04 2011-06-09 Nokia Corporation Method and apparatus for measuring geographic coordinates of a point of interest in an image
US8510045B2 (en) 2009-12-22 2013-08-13 Steven L. Rueben Digital maps displaying search-resulting points-of-interest in user delimited regions
JP5833567B2 (ja) 2009-12-23 2015-12-16 トムトム ノース アメリカ インコーポレイテッド デジタル地図におけるネットワーク生成のための時間および/または正確度に依存した重み
US20130176328A1 (en) * 2009-12-25 2013-07-11 Nokia Corporation Method and apparatus for persistent display of navigation content
WO2011081154A1 (ja) 2009-12-28 2011-07-07 クラリオン株式会社 ナビゲーション装置およびその案内方法
US8718606B2 (en) 2009-12-28 2014-05-06 Nokia Corporation Method and apparatus for user interaction while device is locked
US8964013B2 (en) 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8498812B2 (en) 2010-01-05 2013-07-30 Robert Bosch Gmbh Stylized procedural modeling for 3D navigation
US8456297B2 (en) 2010-01-06 2013-06-04 Apple Inc. Device, method, and graphical user interface for tracking movement on a map
WO2011084156A2 (en) 2010-01-06 2011-07-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US9811507B2 (en) 2010-01-11 2017-11-07 Apple Inc. Presenting electronic publications on a graphical user interface of an electronic device
US9378223B2 (en) 2010-01-13 2016-06-28 Qualcomm Incorporation State driven mobile search
EP2532199B1 (de) 2010-02-04 2019-09-04 TomTom Traffic B.V. Ortsbestimmungssystem und verfahren
US8463543B2 (en) 2010-02-05 2013-06-11 Apple Inc. Schematic maps
US20110193795A1 (en) 2010-02-09 2011-08-11 Yahoo! Inc. Haptic search feature for touch screens
JP2011174744A (ja) * 2010-02-23 2011-09-08 Sony Corp ナビゲーション装置、ナビゲーション方法およびプログラム
US8750845B2 (en) 2010-02-24 2014-06-10 Nokia Corporation Method and apparatus for providing tiles of dynamic content
US9598070B2 (en) 2010-03-02 2017-03-21 GM Global Technology Operations LLC Infotainment system control
US8285485B2 (en) 2010-03-18 2012-10-09 Harman International Industries, Incorporated Vehicle navigation system with route determination based on a measure of sportiness
US9146751B2 (en) 2010-04-07 2015-09-29 Apple Inc. Device, method, and graphical user interface for navigation of multiple applications
US8855930B2 (en) 2010-04-09 2014-10-07 Tomtom International B.V. Method of generating a route
US8595014B2 (en) 2010-04-19 2013-11-26 Qualcomm Incorporated Providing audible navigation system direction updates during predetermined time windows so as to minimize impact on conversations
US20110270517A1 (en) 2010-04-29 2011-11-03 Nokia Corporation Method and apparatus for providing personalized presentations based on navigation information
US20110271230A1 (en) 2010-04-30 2011-11-03 Talkwheel.com, Inc. Visualization and navigation system for complex data and discussion platform
US8538687B2 (en) 2010-05-04 2013-09-17 Honeywell International Inc. System for guidance and navigation in a building
JP4926308B2 (ja) 2010-05-10 2012-05-09 パイオニア株式会社 ナビゲーション装置、制御方法、プログラム、及び記憶媒体
US20110282759A1 (en) 2010-05-13 2011-11-17 Rovi Technologies Corporation Systems and methods for performing an action on a program or accessing the program from a third-party media content source
US20110289506A1 (en) 2010-05-18 2011-11-24 Google Inc. Management of computing resources for applications
US20120254804A1 (en) 2010-05-21 2012-10-04 Sheha Michael A Personal wireless navigation system
KR101673925B1 (ko) * 2010-05-26 2016-11-09 삼성전자주식회사 터치 락 상태를 가지는 단말기 및 이의 운용 방법
JP5676147B2 (ja) 2010-05-28 2015-02-25 富士通テン株式会社 車載用表示装置、表示方法および情報表示システム
JP5656456B2 (ja) 2010-05-28 2015-01-21 富士通テン株式会社 車載用表示装置および表示方法
CN102939578A (zh) 2010-06-01 2013-02-20 诺基亚公司 用于接收用户输入的方法、设备和系统
CN101859425B (zh) 2010-06-02 2014-11-05 中兴通讯股份有限公司 一种提供应用列表的方法及装置
US8640020B2 (en) 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
US8755921B2 (en) 2010-06-03 2014-06-17 Google Inc. Continuous audio interaction with interruptive audio
US8315791B2 (en) 2010-06-18 2012-11-20 Nokia Coporation Method and apparatus for providing smart zooming of a geographic representation
US8489641B1 (en) 2010-07-08 2013-07-16 Google Inc. Displaying layers of search results on a map
GB201011687D0 (en) 2010-07-12 2010-08-25 Faster Imaging As User interactions
KR20120007220A (ko) 2010-07-14 2012-01-20 엔에이치엔(주) 이동 경로 정보를 기반으로 하는 관심 컨텐츠 결정 방법 및 시스템
US8319772B2 (en) 2010-07-23 2012-11-27 Microsoft Corporation 3D layering of map metadata
US8402533B2 (en) 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8473289B2 (en) 2010-08-06 2013-06-25 Google Inc. Disambiguating input based on context
KR101638918B1 (ko) 2010-08-17 2016-07-12 엘지전자 주식회사 이동 단말기 및 이것의 표시 방식 전환 방법
DE102010034684A1 (de) 2010-08-18 2012-02-23 Elektrobit Automotive Gmbh Technik zur Signalisierung von Telefonanrufen während einer Routenführung
WO2012024585A1 (en) 2010-08-19 2012-02-23 Othar Hansson Predictive query completion and predictive search results
CN101936740A (zh) 2010-08-24 2011-01-05 深圳市凯立德欣软件技术有限公司 三维电子地图导航方法及装置
US9077958B2 (en) 2010-08-30 2015-07-07 Honda Motor Co., Ltd. Road departure warning system
EP2616775B1 (de) 2010-09-13 2016-01-06 TomTom International B.V. Navigationsvorrichtung mit alternativen navigationsanweisungen
US20120062602A1 (en) 2010-09-13 2012-03-15 Nokia Corporation Method and apparatus for rendering a content display
US9317193B2 (en) 2010-09-15 2016-04-19 Ferag Ag Graphical user interface
US9164670B2 (en) 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
US20120078870A1 (en) 2010-09-28 2012-03-29 Bazaz Gaurav Apparatus and method for collaborative social search
US9466127B2 (en) 2010-09-30 2016-10-11 Apple Inc. Image alteration techniques
US8576234B2 (en) 2010-10-01 2013-11-05 International Business Machines Corporation Simulating animation during slideshow
EP2625602B1 (de) 2010-10-05 2019-11-27 Citrix Systems Inc. Gestenunterstützung für gemeinsame sitzungen
US8825403B1 (en) 2010-10-06 2014-09-02 Google Inc. User queries to model road network usage
US20120092541A1 (en) 2010-10-19 2012-04-19 Nokia Corporation Method and apparatus for ambient light measurement system
KR101726607B1 (ko) 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
JPWO2012053527A1 (ja) 2010-10-22 2014-02-24 Jsr株式会社 パターン形成方法及び感放射線性組成物
US8705892B2 (en) 2010-10-26 2014-04-22 3Ditize Sl Generating three-dimensional virtual tours from two-dimensional images
EP2634533B1 (de) 2010-10-29 2017-03-01 Toyota Jidosha Kabushiki Kaisha Informationsverarbeitungsvorrichtung für ein fahrzeug
FI20100380L (fi) 2010-11-17 2012-05-18 Icergo Oy Menetelmä esittää luettavaa informaatiota digitaalisella näyttötaululla
US8930123B2 (en) 2010-11-19 2015-01-06 International Business Machines Corporation Systems and methods for determining traffic intensity using information obtained through crowdsourcing
EP2643821B1 (de) 2010-11-24 2019-05-08 Google LLC Streckenplanung für strassennavigation in einer dreidimensionalen umgebung und ihre anwendung
US9267803B2 (en) 2010-12-07 2016-02-23 Google Inc. Method and apparatus of route guidance
DE102010062633A1 (de) 2010-12-08 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen in der Umgebung eines Fahrzeuges und Abgleich mit Verkehrszeicheninformationen aus einer digitalen Karte
US20120158290A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Navigation User Interface
US9239674B2 (en) 2010-12-17 2016-01-19 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different implementation characteristics of a touch event
US20120166281A1 (en) 2010-12-23 2012-06-28 Research In Motion Limited Method and apparatus for displaying applications on a mobile device
JP5619595B2 (ja) 2010-12-24 2014-11-05 京セラ株式会社 携帯端末装置
US9350810B2 (en) 2011-01-18 2016-05-24 Google Inc. Constructing an integrated road network
US9503415B2 (en) 2011-01-27 2016-11-22 T-Mobile Usa, Inc. Unified notification platform
US20120206367A1 (en) 2011-02-14 2012-08-16 Research In Motion Limited Handheld electronic devices with alternative methods for text input
US20120206469A1 (en) 2011-02-15 2012-08-16 Tudor Hulubei Efficient pre-computing of simplified vector data for rendering at multiple zoom levels
DE102011012791A1 (de) 2011-03-02 2012-09-06 Audi Ag Kraftfahrzeug
EP2503289B1 (de) 2011-03-22 2016-06-22 Harman Becker Automotive Systems GmbH Verwaltung von Symbolen für digitalen Karten
EP2503291A1 (de) 2011-03-22 2012-09-26 Harman Becker Automotive Systems GmbH Wegweiser in digitalen Karten
US8723687B2 (en) 2011-03-31 2014-05-13 Alex Thomas Advanced vehicle traffic management and control
US20120316955A1 (en) 2011-04-06 2012-12-13 Yahoo! Inc. System and Method for Mobile Application Search
JP5709980B2 (ja) 2011-04-08 2015-04-30 三菱電機株式会社 音声認識装置およびナビゲーション装置
US8781730B2 (en) 2011-04-11 2014-07-15 Garmin Switzerland Gmbh Route selection employing metrics
US9163952B2 (en) 2011-04-15 2015-10-20 Microsoft Technology Licensing, Llc Suggestive mapping
US20120262592A1 (en) * 2011-04-18 2012-10-18 Qualcomm Incorporated Systems and methods of saving power by adapting features of a device
US8970592B1 (en) 2011-04-19 2015-03-03 Lucasfilm Entertainment Company LLC Simulating an arbitrary number of particles
KR101564076B1 (ko) * 2011-04-29 2015-10-27 후아웨이 디바이스 컴퍼니 리미티드 단말 기기 내의 발광 소자를 제어하는 방법 및 장치, 및 단말 기기
US9606643B2 (en) * 2011-05-02 2017-03-28 Microsoft Technology Licensing, Llc Extended above the lock-screen experience
US8762360B2 (en) 2011-05-06 2014-06-24 Microsoft Corporation Integrating applications within search results
CN202049454U (zh) * 2011-05-07 2011-11-23 马银龙 空中鼠标键盘
US20120287114A1 (en) 2011-05-11 2012-11-15 Microsoft Corporation Interface including views positioned in along multiple dimensions
KR20120126161A (ko) 2011-05-11 2012-11-21 삼성전자주식회사 휴대 단말기 및 이의 화면 제어 방법
US20120303263A1 (en) 2011-05-23 2012-11-29 Microsoft Corporation Optimization of navigation tools using spatial sorting
US9273979B2 (en) 2011-05-23 2016-03-01 Microsoft Technology Licensing, Llc Adjustable destination icon in a map navigation tool
CN202204518U (zh) 2011-05-25 2012-04-25 上海汽车集团股份有限公司 一种可实现2d/3d切换的导航系统
US8675049B2 (en) 2011-06-09 2014-03-18 Microsoft Corporation Navigation model to render centered objects using images
US20120316774A1 (en) 2011-06-09 2012-12-13 Microsoft Corporation Automatic navigation to a prior known location
US8463289B2 (en) 2011-06-17 2013-06-11 Microsoft Corporation Depersonalizing location traces
JP2013003049A (ja) 2011-06-20 2013-01-07 Sony Corp 経路比較装置、経路比較方法、及びプログラム
CN202119443U (zh) * 2011-06-22 2012-01-18 东莞市远峰科技有限公司 一种使用三段式按键的便携式导航仪
JP5267618B2 (ja) 2011-06-24 2013-08-21 ソニー株式会社 情報処理装置
CA2840083A1 (en) * 2011-06-29 2013-01-03 Smart Plate, Inc. System and methods for rendering content on a vehicle
JP5724110B2 (ja) 2011-07-07 2015-05-27 株式会社日立製作所 経路作成システム、経路作成方法及びプログラム
US9489457B2 (en) 2011-07-14 2016-11-08 Nuance Communications, Inc. Methods and apparatus for initiating an action
JP4982620B1 (ja) 2011-07-29 2012-07-25 富士フイルム株式会社 電界効果型トランジスタの製造方法、並びに、電界効果型トランジスタ、表示装置、イメージセンサ及びx線センサ
US20130035853A1 (en) 2011-08-03 2013-02-07 Google Inc. Prominence-Based Generation and Rendering of Map Features
US8890863B1 (en) 2011-08-12 2014-11-18 Google Inc. Automatic method for photo texturing geolocated 3-D models from geolocated imagery
CN103765492B (zh) 2011-08-15 2016-01-27 三菱电机株式会社 字符串配置装置
US9958280B2 (en) 2011-08-16 2018-05-01 Inrix, Inc. Assessing inter-modal passenger travel options
US8954017B2 (en) * 2011-08-17 2015-02-10 Broadcom Corporation Clock signal multiplication to reduce noise coupled onto a transmission communication signal of a communications device
EP2565583B1 (de) 2011-08-29 2018-08-01 Harman Becker Automotive Systems GmbH Navigationsvorrichtung, Verfahren zur Ausgabe einer Karte und Verfahren zur Erzeugung einer Datenbank
US9851889B2 (en) 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
US8681176B1 (en) 2011-09-20 2014-03-25 Google Inc. Rendering a map using style identifiers
CN102279710A (zh) * 2011-09-20 2011-12-14 宇龙计算机通信科技(深圳)有限公司 终端和解锁方法
JP5792570B2 (ja) * 2011-09-21 2015-10-14 埼玉日本電気株式会社 携帯端末装置及びプログラム
TWI493991B (zh) 2011-09-23 2015-07-21 Nat Univ Tsing Hua 應用於車載網路中之訊息廣播系統與方法
US8237745B1 (en) 2011-09-26 2012-08-07 Google Inc. Label positioning technique to reduce crawling during zoom activities
US8928691B2 (en) 2011-09-26 2015-01-06 Google Inc. Rendering map images using modifications of non-raster map data
JP2013074036A (ja) 2011-09-27 2013-04-22 Toshiba Corp Cmp用スラリーおよび半導体装置の製造方法
US8274524B1 (en) 2011-09-28 2012-09-25 Google Inc. Map rendering using interpolation of style parameters across zoom levels
US20130086028A1 (en) 2011-09-30 2013-04-04 Nuance Communications, Inc. Receiving and processing user-specified queries
US8515766B1 (en) 2011-09-30 2013-08-20 Google Inc. Voice application finding and user invoking applications related to a single entity
US8359389B1 (en) 2011-10-11 2013-01-22 Google Inc. Monitoring application program resource consumption
US8738284B1 (en) 2011-10-12 2014-05-27 Google Inc. Method, system, and computer program product for dynamically rendering transit maps
US8589075B1 (en) 2011-10-19 2013-11-19 Google Inc. Method, system, and computer program product for visualizing trip progress
US8762048B2 (en) 2011-10-28 2014-06-24 At&T Mobility Ii Llc Automatic travel time and routing determinations in a wireless network
US8739070B2 (en) 2011-11-01 2014-05-27 WMODE, Inc. System, method and apparatus for providing an application carousel
US20130110633A1 (en) 2011-11-02 2013-05-02 Digital Footsteps, Ltd. Adaptive presentation of guided tour information on mobile client terminal(s)
US8645366B1 (en) 2011-12-30 2014-02-04 Google Inc. Generating recommendations of points of interest
US8819058B2 (en) 2012-01-03 2014-08-26 Yext, Inc. Method and system for providing enhanced business listings to multiple search providers from a single source
US20130176334A1 (en) 2012-01-09 2013-07-11 Nokia Corporation Method and apparatus for analyzing clustering of mixed reality content and computaions
US8767040B2 (en) 2012-01-11 2014-07-01 Google Inc. Method and system for displaying panoramic imagery
US8855925B2 (en) 2012-01-20 2014-10-07 GM Global Technology Operations LLC Adaptable navigation device
US9330478B2 (en) 2012-02-08 2016-05-03 Intel Corporation Augmented reality creation using a real scene
US20130230840A1 (en) 2012-03-05 2013-09-05 Devendra Parkar Learning system accessory using portable handheld devices
US9194706B2 (en) 2012-03-27 2015-11-24 General Electric Company Method and system for identifying a directional heading of a vehicle
US8774470B1 (en) 2012-04-03 2014-07-08 Google Inc. Processing a satellite image of a region to determine a terrain boundary included therein
US9127950B2 (en) 2012-05-03 2015-09-08 Honda Motor Co., Ltd. Landmark-based location belief tracking for voice-controlled navigation system
TWI475192B (zh) 2012-05-11 2015-03-01 Wistron Corp 導航方法、導航系統及用於導航之圖資下載方法
US9213624B2 (en) 2012-05-31 2015-12-15 Microsoft Technology Licensing, Llc Application quality parameter measurement-based development
US9269178B2 (en) 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
US8880336B2 (en) 2012-06-05 2014-11-04 Apple Inc. 3D navigation
US9182243B2 (en) 2012-06-05 2015-11-10 Apple Inc. Navigation application
US9146125B2 (en) 2012-06-05 2015-09-29 Apple Inc. Navigation application with adaptive display of graphical directional indicators
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9043150B2 (en) 2012-06-05 2015-05-26 Apple Inc. Routing applications for navigation
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9319831B2 (en) 2012-06-05 2016-04-19 Apple Inc. Mapping application with automatic stepping capabilities
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9311750B2 (en) 2012-06-05 2016-04-12 Apple Inc. Rotation operations in a mapping application
US9367959B2 (en) 2012-06-05 2016-06-14 Apple Inc. Mapping application with 3D presentation
US9047691B2 (en) 2012-06-05 2015-06-02 Apple Inc. Route display and review
US9541417B2 (en) 2012-06-05 2017-01-10 Apple Inc. Panning for three-dimensional maps
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US20130321400A1 (en) 2012-06-05 2013-12-05 Apple Inc. 3D Map Views for 3D Maps
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US9152295B2 (en) 2012-06-05 2015-10-06 Apple Inc. Triage tool for problem reporting in maps
US9135751B2 (en) 2012-06-05 2015-09-15 Apple Inc. Displaying location preview
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US20130325343A1 (en) 2012-06-05 2013-12-05 Apple Inc. Mapping application with novel search field
US9418466B2 (en) 2012-06-06 2016-08-16 Apple Inc. Geospatial representation of data-less map areas
US9396563B2 (en) 2012-06-06 2016-07-19 Apple Inc. Constructing road geometry
US9147286B2 (en) 2012-06-06 2015-09-29 Apple Inc. Non-static 3D map views
US8928698B2 (en) 2012-06-10 2015-01-06 Apple Inc. Compression of road features in map tiles
US8930139B2 (en) 2012-06-21 2015-01-06 Telecommunication Systems, Inc. Dynamically varied map labeling
US9052896B2 (en) * 2012-07-20 2015-06-09 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
US20140071119A1 (en) 2012-09-11 2014-03-13 Apple Inc. Displaying 3D Objects in a 3D Map Presentation
US9076330B2 (en) 2012-09-28 2015-07-07 International Business Machines Corporation Estimation of arrival times at transit stops
US9453740B2 (en) 2012-10-30 2016-09-27 Alpine Electronics, Inc. Method of displaying objects on navigation map
US9152211B2 (en) 2012-10-30 2015-10-06 Google Technology Holdings LLC Electronic device with enhanced notifications
KR102109054B1 (ko) 2013-04-26 2020-05-28 삼성전자주식회사 애니메이션 효과를 제공하는 사용자 단말 장치 및 그 디스플레이 방법
US9222779B2 (en) 2013-05-29 2015-12-29 Here Global B.V. Method, apparatus and computer program product for collaborative presentation of travel route information
US9665542B2 (en) 2013-09-05 2017-05-30 Texas Instruments Incorporated Determining median value of an array on vector SIMD architectures
JP6255924B2 (ja) 2013-11-11 2018-01-10 セイコーエプソン株式会社 センサー用ic、センサーデバイス、電子機器及び移動体
US9266536B2 (en) 2014-01-17 2016-02-23 Fca Us Llc Adaptive cruise control system and method
US9457807B2 (en) 2014-06-05 2016-10-04 GM Global Technology Operations LLC Unified motion planning algorithm for autonomous driving vehicle in obstacle avoidance maneuver
US9628565B2 (en) 2014-07-23 2017-04-18 Here Global B.V. Highly assisted driving platform
US9212918B1 (en) 2014-08-29 2015-12-15 Mapquest, Inc. Systems and methods for generating and displaying multiple layers on a digital map

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6360167B1 (en) 1999-01-29 2002-03-19 Magellan Dis, Inc. Vehicle navigation system with location-based multi-media annotation
DE10239438A1 (de) 2002-08-28 2004-03-04 Robert Bosch Gmbh Navigationssystem für ein Kraftfahrzeug
US20070265772A1 (en) 2006-03-08 2007-11-15 Pieter Geelen Portable navigation device

Also Published As

Publication number Publication date
DE112013002796T5 (de) 2015-04-02
US20150300833A1 (en) 2015-10-22
CN108021303A (zh) 2018-05-11
EP2672230A1 (de) 2013-12-11
EP3865823A1 (de) 2021-08-18
EP3502624A1 (de) 2019-06-26
US9903732B2 (en) 2018-02-27
US9052197B2 (en) 2015-06-09
AU2016213819A1 (en) 2016-09-01
US20130345981A1 (en) 2013-12-26
US10508926B2 (en) 2019-12-17
AU2013272003A1 (en) 2014-12-18
US20160216127A1 (en) 2016-07-28
US9243924B2 (en) 2016-01-26
US8965696B2 (en) 2015-02-24
WO2013184472A2 (en) 2013-12-12
EP2672230B1 (de) 2018-11-14
EP3502624B1 (de) 2021-07-28
WO2013184472A4 (en) 2014-06-05
US20180335311A1 (en) 2018-11-22
CN108021303B (zh) 2021-05-07
AU2016213819B2 (en) 2017-11-02
WO2013184472A3 (en) 2014-04-17
CN104335152A (zh) 2015-02-04
US20130345980A1 (en) 2013-12-26
CN104335152B (zh) 2017-12-08

Similar Documents

Publication Publication Date Title
DE112013002796B4 (de) Bereitstellen von Navigationsinstruktionen während eine Vorrichtung im Sperrmodus ist
AU2016203177B2 (en) Navigation application
US10318104B2 (en) Navigation application with adaptive instruction text
DE112013002799T5 (de) Sprachinstruktionen während Navigation
US9146125B2 (en) Navigation application with adaptive display of graphical directional indicators
US8880336B2 (en) 3D navigation
DE112013002794T5 (de) Anzeigen einer Ortsvorschau
DE112013002803B4 (de) Verfahren, System und Einrichtung zum Liefern einer dreidimensionalen Übergangsanimation für eine Änderung einer Kartenansicht
DE112013002790T5 (de) Virtuelle Kamera für 3D-Karten
AU2013272003B2 (en) Providing navigation instructions while device is in locked mode
EP4235634A2 (de) Navigationsanwendung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final